Enciclopedia Informatica
Enciclopedia Informatica
PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información.
PDF generated at: Sun, 24 Nov 2013 19:52:57 UTC
Contenidos
Artículos
Hardware 1
Unidad central de procesamiento 1
Overclock 14
Unidad de procesamiento gráfico 15
Intel Corporation 17
Advanced Micro Devices 24
Accelerated processing unit 30
AMD CrossFire 31
Radeon HD 32
NVIDIA 36
Scalable Link Interface 40
NVIDIA Quadro 41
Placa base 52
Medio de almacenamiento (computación) 58
Disco duro 59
Memoria de acceso aleatorio 71
Universal Serial Bus 79
Fuente de alimentación 87
Serial ATA 90
ATX 94
Tarjeta de expansión 97
PCI-Express 98
Unidad de disco óptico 100
Tarjeta de red 107
Tarjeta de sonido 110
Tarjeta sintonizadora de televisión 111
Computadora portátil 113
Netbook 120
Ultrabook 123
Windows 126
Windows 7 126
Windows 8 134
BitLocker Drive Encryption 145
Símbolo del sistema 147
DOS 150
MS-DOS 156
Biblioteca de enlace dinámico 160
Mantenimiento 162
Mantenimiento correctivo 162
Mantenimiento preventivo 164
Electricidad 167
Toma de tierra 167
Regulador de tensión 172
Dieléctrico 177
Cableado 178
Cableado estructurado 178
Punto de acceso a la red 183
Punto de acceso inalámbrico 185
Dirección MAC 187
10BASE-T 189
Ethernet 192
Fast Ethernet 198
Gigabit Ethernet 202
Protocolo de comunicaciones 205
Internet Protocol 208
Dirección IP 211
Modelo OSI 215
Modelo TCP/IP 222
Dynamic Host Configuration Protocol 223
Thunderbolt 228
Domain Name System 229
Fibra óptica 234
Red de área local inalámbrica 249
Familia de protocolos de Internet 252
VLAN 254
Wi-Fi 260
Proxy 264
Software 271
BIOS 271
Firmware 274
Homebrew 277
Interfaz gráfica de usuario 281
Interfaz de programación de aplicaciones 285
Consolas 287
PlayStation 3 287
Xbox 360 300
Miscelanea 405
Android 405
Pantalla de cristal líquido 415
Tecnología de montaje superficial 423
Diagrama polar 427
Apache OpenOffice 430
Referencias
Fuentes y contribuyentes del artículo 439
Fuentes de imagen, Licencias y contribuyentes 448
Licencias de artículos
Licencia 456
1
Hardware
Historia
Antes de la aceptación comercial del transistor, los
relés eléctricos y los tubos de vacío (válvulas
termoiónicas) eran usados comúnmente como
elementos de conmutación. Aunque éstos tenían
distintas ventajas de velocidad sobre los anteriores
diseños puramente mecánicos, no eran fiables por
varias razones. Por ejemplo, hacer circuitos de lógica
secuencial de corriente directa requería hardware
adicional para hacer frente al problema del rebote de
contacto. Por otro lado, mientras que los tubos de vacío
no sufren del rebote de contacto, éstos deben calentarse
antes de llegar a estar completamente operacionales y
eventualmente fallan y dejan de funcionar por
completo. Generalmente, cuando un tubo ha fallado, la
CPU tendría que ser diagnosticada para localizar el
componente que falla para que pueda ser reemplazado.
Por lo tanto, los primeros computadores electrónicos,
(basados en tubos de vacío), generalmente eran más
rápidos pero menos confiables que los ordenadores
electromecánicos, (basados en relés). Los ordenadores
El EDVAC, uno de los primeros ordenadores de programas de tubo, como el EDVAC, tendieron en tener un
almacenados electrónicamente.
promedio de ocho horas entre fallos, mientras que los
ordenadores de relés, (anteriores y más lentas), como el
Harvard Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser dominantes porque las
significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La
mayor parte de estas tempranas CPU síncronas corrían en frecuencias de reloj bajas comparadas con los modernos
diseños microelectrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde
100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron
construidos.
Unidad central de procesamiento 3
se fueron alcanzando frecuencias de reloj de la CPU de decenas de megahertz. Además, mientras que las CPU de
transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de
alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción
Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de los superordenadores
especializados, como los hechos por Cray Inc.
Microprocesadores
Desde la introducción del primer microprocesador, el
Intel 4004, en 1971 y del primer microprocesador
ampliamente usado, el Intel 8080, en 1974, esta clase
de CPU ha desplazado casi totalmente el resto de los
métodos de implementación de la Unidad Central de
Proceso. Los fabricantes de mainframes y
miniordenadores de ese tiempo lanzaron programas de
desarrollo de IC propietarios para actualizar sus más
viejas arquitecturas de ordenador y eventualmente
produjeron microprocesadores con conjuntos de
instrucciones que eran compatibles hacia atrás con sus
más viejos hardwares y softwares. Combinado con el
advenimiento y el eventual vasto éxito del ahora ubicuo
ordenador personal, el término "CPU" es aplicado Microprocesador Intel 80486DX2 en un paquete PGA de cerámica.
Después de la ejecución de la instrucción y la escritura de los datos resultantes, el proceso entero se repite con el
siguiente ciclo de instrucción, normalmente leyendo la siguiente instrucción en secuencia debido al valor
incrementado en el contador de programa. Si la instrucción completada era un salto, el contador de programa será
modificado para contener la dirección de la instrucción a la cual se saltó, y la ejecución del programa continúa
normalmente. En CPUs más complejos que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas,
y ejecutadas simultáneamente. Esta sección describe lo que es referido generalmente como el "entubado RISC
clásico" (Classic RISC pipeline), que de hecho es bastante común entre los CPU simples usados en muchos
dispositivos electrónicos, a menudo llamados microcontroladores.[2]
Unidad central de procesamiento 7
Diseño e implementación
Prerrequisitos
Arquitectura informática
Circuitos digitales
Rango de enteros
La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que
el dispositivo funciona. Algunas de las primeras calculadoras digitales usaron, para representar números
internamente, un modelo eléctrico del sistema de numeración decimal común (base diez). Algunas otras
computadoras han usado sistemas de numeración más exóticos como el ternario (base tres). Casi todos los CPU
modernos representan los números en forma binaria, en donde cada dígito es representado por una cierta cantidad
física de dos valores, como un voltaje "alto" o "bajo".[3]
Con la representación numérica están relacionados el
tamaño y la precisión de los números que un CPU
puede representar. En el caso de un CPU binario, un bit
se refiere a una posición significativa en los números
con que trabaja un CPU. El número de bits (o de
posiciones numéricas, o dígitos) que un CPU usa para
Microprocesador MOS 6502 en un dual in-line package representar los números, a menudo se llama "tamaño de
(encapasulado en doble línea), un diseño extremadamente popular de la palabra", "ancho de bits", "ancho de ruta de datos", o
8 bits.
"precisión del número entero" cuando se ocupa
estrictamente de números enteros (en oposición a
números de coma flotante). Este número difiere entre las arquitecturas, y a menudo dentro de diferentes unidades del
mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho
dígitos binarios, cada dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo 28 ó 256 números
discretos. En efecto, el tamaño del número entero fija un límite de hardware en el rango de números enteros que el
software corre y que el CPU puede usar directamente.[4]
El rango del número entero también puede afectar el número de posiciones en memoria que el CPU puede
direccionar (localizar). Por ejemplo, si un CPU binario utiliza 32 bits para representar una dirección de memoria, y
cada dirección de memoria representa a un octeto (8 bits), la cantidad máxima de memoria que el CPU puede
direccionar es 232 octetos, o 4 GB. Ésta es una vista muy simple del espacio de dirección del CPU, y muchos diseños
modernos usan métodos de dirección mucho más complejos como paginación para localizar más memoria que su
rango entero permitiría con un espacio de dirección plano.
Niveles más altos del rango de números enteros requieren más estructuras para manejar los dígitos adicionales, y por
lo tanto, más complejidad, tamaño, uso de energía, y generalmente costo. Por ello, no es del todo infrecuente, ver
microcontroladores de 4 y 8 bits usados en aplicaciones modernas, aún cuando están disponibles CPU con un rango
mucho más alto (de 16, 32, 64, e incluso 128 bits). Los microcontroladores más simples son generalmente más
baratos, usan menos energía, y por lo tanto disipan menos calor. Todo esto pueden ser consideraciones de diseño
importantes para los dispositivos electrónicos. Sin embargo, en aplicaciones del extremo alto, los beneficios
producidos por el rango adicional, (más a menudo el espacio de dirección adicional), son más significativos y con
frecuencia afectan las opciones del diseño. Para ganar algunas de las ventajas proporcionadas por las longitudes de
bits tanto más bajas, como más altas, muchas CPUs están diseñadas con anchos de bit diferentes para diferentes
unidades del dispositivo. Por ejemplo, el IBM System/370 usó un CPU que fue sobre todo de 32 bits, pero usó
precisión de 128 bits dentro de sus unidades de coma flotante para facilitar mayor exactitud y rango de números de
Unidad central de procesamiento 8
coma flotante. Muchos diseños posteriores de CPU usan una mezcla de ancho de bits similar, especialmente cuando
el procesador está diseñado para usos de propósito general donde se requiere un razonable equilibrio entre la
capacidad de números enteros y de coma flotante.
Frecuencia de reloj
La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica secuencial, son de naturaleza
síncrona.[5] Es decir, están diseñados y operan en función de una señal de sincronización. Esta señal, conocida como
señal de reloj, usualmente toma la forma de una onda cuadrada periódica. Calculando el tiempo máximo en que las
señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU, los diseñadores
pueden seleccionar un período apropiado para la señal del reloj.
Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse, o propagarse en el peor de
los casos. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso, es
posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la
señal del reloj. Esto tiene la ventaja de simplificar el CPU significativamente, tanto en una perspectiva de diseño,
como en una perspectiva de cantidad de componentes. Sin embargo, esto también tiene la desventaja que todo el
CPU debe esperar por sus elementos más lentos, aún cuando algunas unidades de la misma son mucho más rápidas.
Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver
abajo).
Sin embargo, las mejoras arquitectónicas por sí solas, no solucionan todas las desventajas de CPUs globalmente
síncronas. Por ejemplo, una señal de reloj está sujeta a los retardos de cualquier otra señal eléctrica. Velocidades de
reloj más altas en CPUs cada vez más complejas hacen más difícil de mantener la señal del reloj en fase
(sincronizada) a través de toda la unidad. Esto ha conducido que muchos CPU modernos requieran que se les
proporcione múltiples señales de reloj idénticas, para evitar retardar una sola señal lo suficiente como para hacer al
CPU funcionar incorrectamente. Otro importante problema cuando la velocidad del reloj aumenta dramáticamente,
es la cantidad de calor que es disipado por el CPU. La señal del reloj cambia constantemente, provocando la
conmutación de muchos componentes (cambio de estado) sin importar si están siendo usados en ese momento. En
general, un componente que está cambiando de estado, usa más energía que un elemento en un estado estático. Por lo
tanto, a medida que la velocidad del reloj aumenta, así lo hace también la disipación de calor, causando que el CPU
requiera soluciones de enfriamiento más efectivas.
Un método de tratar la conmutación de componentes innecesarios se llama el clock gating, que implica apagar la
señal del reloj a los componentes innecesarios, efectivamente desactivándolos. Sin embargo, esto es frecuentemente
considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia.[6]
Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma.
Mientras que quitar la señal global del reloj hace, de muchas maneras, considerablemente más complejo el proceso
del diseño, en comparación con diseños síncronos similares, los diseños asincrónicos (o sin reloj) tienen marcadas
ventajas en el consumo de energía y la disipación de calor. Aunque algo infrecuente, CPUs completas se han
construido sin utilizar una señal global de reloj. Dos notables ejemplos de esto son el AMULET, que implementa la
arquitectura del ARM, y el MiniMIPS, compatible con el MIPS R3000. En lugar de remover totalmente la señal del
reloj, algunos diseños de CPU permiten a ciertas unidades del dispositivo ser asincrónicas, como por ejemplo, usar
ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño
aritmético. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a
un nivel comparable o mejor que sus contrapartes síncronas, es evidente que por lo menos sobresalen en las más
simples operaciones matemáticas. Esto, combinado con sus excelentes características de consumo de energía y
disipación de calor, los hace muy adecuados para sistemas embebidos.
Unidad central de procesamiento 9
Paralelismo
La descripción de la operación básica de un
CPU ofrecida en la sección anterior describe
la forma más simple que puede tomar un
CPU. Este tipo de CPU, usualmente referido
como subescalar, opera sobre y ejecuta una Modelo de un CPU subescalar. Note que toma quince ciclos para terminar tres
instrucciones.
sola instrucción con una o dos piezas de
datos a la vez.
Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Puesto que solamente una instrucción es
ejecutada a la vez, todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente
instrucción. Como resultado, el CPU subescalar queda "paralizado" en instrucciones que toman más de un ciclo de
reloj para completar su ejecución. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora
mucho el desempeño. En lugar de un camino quedando congelado, ahora dos caminos se paralizan y aumenta el
número de transistores no usados. Este diseño, en donde los recursos de ejecución del CPU pueden operar con
solamente una instrucción a la vez, solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por
ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de una instrucción por ciclo).
Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una variedad de metodologías de diseño
que hacen comportarse al CPU menos linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU,
generalmente son usados dos términos para clasificar estas técnicas de diseño.
• El paralelismo a nivel de instrucción, en inglés Instruction Level Parallelism (ILP), busca aumentar la tasa en la
cual las instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos de
ejecución en la pastilla.
• El paralelismo a nivel de hilo de ejecución, en inglés thread level parallelism (TLP), que se propone incrementar
el número de hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente.
Cada metodología se diferencia tanto en las maneras en las que están implementadas, como en la efectividad relativa
que producen en el aumento del desempeño del CPU para una aplicación.[7]
Sin embargo, la tubería introduce la posibilidad de una situación donde es necesario terminar el resultado de la
operación anterior para completar la operación siguiente; una condición llamada a menudo como conflicto de
dependencia de datos. Para hacer frente a esto, debe ser tomado un cuidado adicional para comprobar estas clases de
condiciones, y si esto ocurre, se debe retrasar una porción de la tubería de instrucción. Naturalmente, lograr esto
Unidad central de procesamiento 10
requiere circuitería adicional, los procesadores entubados son más complejos que los subescalares, pero no mucho.
Un procesador entubado puede llegar a ser casi completamente escalar, solamente inhibido por las abruptas paradas
de la tubería (una instrucción durando más de un ciclo de reloj en una etapa).
Una mejora adicional sobre la idea del
entubado de instrucción (instruction
pipelining) condujo al desarrollo de un
método que disminuye incluso más el
tiempo ocioso de los componentes del CPU.
Diseños que se dice que son superescalares
incluyen una larga tubería de instrucción y
múltiples unidades de ejecución idénticas.
En una tubería superescalar, múltiples
instrucciones son leídas y pasadas a un
despachador, que decide si las instrucciones
se pueden o no ejecutar en paralelo Tubería superescalar simple. Al leer y despachar dos instrucciones a la vez, un
máximo de dos instrucciones por ciclo pueden ser completadas.
(simultáneamente). De ser así, son
despachadas a las unidades de ejecución
disponibles, dando por resultado la capacidad para que varias instrucciones sean ejecutadas simultáneamente. En
general, cuanto más instrucciones un CPU superescalar es capaz de despachar simultáneamente a las unidades de
ejecución en espera, más instrucciones serán completadas en un ciclo dado.
La mayor parte de la dificultad en el diseño de una arquitectura superescalar de CPU descansa en crear un
despachador eficaz. El despachador necesita poder determinar rápida y correctamente si las instrucciones pueden
ejecutarse en paralelo, tan bien como despacharlas de una manera que mantenga ocupadas tantas unidades de
ejecución como sea posible. Esto requiere que la tubería de instrucción sea llenada tan a menudo como sea posible y
se incrementa la necesidad, en las arquitecturas superescalares, de cantidades significativas de caché de CPU. Esto
también crea técnicas para evitar peligros como la predicción de bifurcación, ejecución especulativa, y la ejecución
fuera de orden, cruciales para mantener altos niveles de desempeño.
• La predicción de bifurcación procura predecir qué rama (o trayectoria) tomará una instrucción condicional, el
CPU puede minimizar el número de tiempos que toda la tubería debe esperar hasta que sea completada una
instrucción condicional.
• La ejecución especulativa frecuentemente proporciona aumentos modestos del desempeño al ejecutar las
porciones de código que pueden o no ser necesarias después de que una operación condicional termine.
• La ejecución fuera de orden cambia en algún grado el orden en el cual son ejecutadas las instrucciones para
reducir retardos debido a las dependencias de los datos.
En el caso donde una porción del CPU es superescalar y una parte no lo es, la parte que no es superescalar sufre en el
desempeño debido a las paradas de horario. El Intel Pentium original (P5) tenía dos ALUs superescalares que podían
aceptar, cada una, una instrucción por ciclo de reloj, pero su FPU no podía aceptar una instrucción por ciclo de reloj.
Así el P5 era superescalar en la parte de números enteros pero no era superescalar de números de coma (o punto
[decimal]) flotante. El sucesor a la arquitectura del Pentium de Intel, el P6, agregó capacidades superescalares a sus
funciones de coma flotante, y por lo tanto produjo un significativo aumento en el desempeño de este tipo de
instrucciones.
El entubado simple y el diseño superescalar aumentan el ILP de un CPU al permitir a un solo procesador completar
la ejecución de instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC).[8] La mayoría de los
modernos diseños de CPU son por lo menos algo superescalares, y en la última década, casi todos los diseños de
CPU de propósito general son superescalares. En los últimos años algo del énfasis en el diseño de computadores de
alto ILP se ha movido del hardware del CPU hacia su interface de software, o ISA. La estrategia de la muy larga
Unidad central de procesamiento 11
palabra de instrucción, very long instruction word (VLIW), causa a algún ILP a ser implícito directamente por el
software, reduciendo la cantidad de trabajo que el CPU debe realizar para darle un empuje significativo al ILP y por
lo tanto reducir la complejidad del diseño.
CPU escalar debe completar todo el proceso de leer, decodificar, y ejecutar cada instrucción y valor en un conjunto
de datos, un CPU vectorial puede realizar una simple operación en un comparativamente grande conjunto de datos
con una sola instrucción. Por supuesto, esto es solamente posible cuando la aplicación tiende a requerir muchos
pasos que apliquen una operación a un conjunto grande de datos.
La mayoría de los primeros CPU vectoriales, como el Cray-1, fueron asociados casi exclusivamente con aplicaciones
de investigación científica y criptografía. Sin embargo, a medida que la multimedia se desplazó en gran parte a
medios digitales, ha llegado a ser significativa la necesidad de una cierta forma de SIMD en CPUs de propósito
general. Poco después de que comenzara a ser común incluir unidades de coma flotante en procesadores de uso
general, también comenzaron a aparecer especificaciones e implementaciones de unidades de ejecución SIMD para
los CPU de uso general. Algunas de estas primeras especificaciones SIMD, como el MMX de Intel, fueron
solamente para números enteros. Esto demostró ser un impedimento significativo para algunos desarrolladores de
software, ya que muchas de las aplicaciones que se beneficiaban del SIMD trataban sobre todo con números de coma
flotante. Progresivamente, éstos primeros diseños fueron refinados y rehechos en alguna de las comunes, modernas
especificaciones SIMD, que generalmente están asociadas a un ISA. Algunos ejemplos modernos notables son el
SSE de Intel y el AltiVec relacionado con el PowerPC (también conocido como VMX).[12]
Notas
[1] Some early computers like the Harvard Mark I did not support any kind of "jump" instruction, effectively limiting the complexity of the
programs they could run. It is largely for this reason that these computers are often not considered to contain a CPU proper, despite their close
similarity as stored program computers.
[2] This description is, in fact, a simplified view even of the Classic RISC pipeline. It largely ignores the important role of CPU cache, and
therefore the access stage of the pipeline. See the respective articles for more details.
[3] The physical concept of voltage is an analog one by its nature, practically having an infinite range of possible values. For the purpose of
physical representation of binary numbers, set ranges of voltages are defined as one or zero. These ranges are usually influenced by the
operational parameters of the switching elements used to create the CPU, such as a transistor's threshold level.
[4] While a CPU's integer size sets a limit on integer ranges, this can (and often is) overcome using a combination of software and hardware
techniques. By using additional memory, software can represent integers many magnitudes larger than the CPU can. Sometimes the CPU's
ISA will even facilitate operations on integers larger that it can natively represent by providing instructions to make large integer arithmetic
relatively quick. While this method of dealing with large integers is somewhat slower than utilizing a CPU with higher integer size, it is a
reasonable trade-off in cases where natively supporting the full integer range needed would be cost-prohibitive. See Arbitrary-precision
arithmetic for more details on purely software-supported arbitrary-sized integers.
[5] In fact, all synchronous CPU use a combination of sequential logic and combinatorial logic. (See boolean logic)
[6] One notable late CPU design that uses clock gating is that of the IBM PowerPC-based Xbox 360. It utilizes extensive clock gating in order to
reduce the power requirements of the aforementioned videogame console it is used in.
[7] It should be noted that neither ILP nor TLP is inherently superior over the other; they are simply different means by which to increase CPU
parallelism. As such, they both have advantages and disadvantages, which are often determined by the type of software that the processor is
intended to run. High-TLP CPU are often used in applications that lend themselves well to being split up into numerous smaller applications,
so-called "embarrassingly parallel problems." Frequently, a computational problem that can be solved quickly with high TLP design strategies
like SMP take significantly more time on high ILP devices like superescalar CPU, and vice versa.
[8] Best-case scenario (or peak) IPC rates in very superscalar architectures are difficult to maintain since it is impossible to keep the instruction
pipeline filled all the time. Therefore, in highly superscalar CPU, average sustained IPC is often discussed rather than peak IPC.
[9] Even though SMP and NUMA are both referred to as "systems level" TLP strategies, both methods must still be supported by the CPU's
design and implementation.
[10] While TLP methods have generally been in use longer than ILP methods, Chip-level multiprocessing is more or less only seen in later
IC-based microprocessors. This is largely because the term itself is inapplicable to earlier discrete component devices and has only come into
use recently.
For several years during the late 1990s and early 2000s, the focus in designing high performance general purpose CPU was largely on highly
superescalar IPC designs, such as the Intel Pentium 4. However, this trend seems to be reversing somewhat now as major general-purpose
CPU designers switch back to less deeply pipelined high-TLP designs. This is evidenced by the proliferation of dual and multi core CMP
designs and notably, Intel's newer designs resembling its less superescalar P6 architecture. Late designs in several processor families exhibit
CMP, including the x86-64 Opteron and Athlon 64 X2, the SPARC UltraSPARC T1, IBM POWER4 and POWER5, as well as several video
game console CPU like the Xbox 360's triple-core PowerPC design.
[11] Earlier the term scalar was used to compare most the IPC (instructions per cycle) count afforded by various ILP methods. Here the term is
used in the strictly mathematical sense to contrast with vectors. See scalar (mathematics) and vector (spatial).
Unidad central de procesamiento 13
[12] Although SSE/SSE2/SSE3 have superseded MMX in Intel's general purpose CPU, later IA-32 designs still support MMX. This is usually
accomplished by providing most of the MMX functionality with the same hardware that supports the much more expansive SSE instruction
sets.
Bibliografía
• Amdahl, G. M., Blaauw, G. A., & Brooks, F. P. Jr. (1964). Architecture of the IBM System/360 (http://www.
research.ibm.com/journal/rd/441/amdahl.pdf). IBM Research.
• Brown, Jeffery (2005). « Application-customized CPU design (http://www-128.ibm.com/developerworks/
power/library/pa-fpfxbox/?ca=dgr-lnxw07XBoxDesign)». IBM developerWorks. Consultado el 17-12-2005.
• Digital Equipment Corporation (November de 1975). « LSI-11 Module Descriptions (http://www.classiccmp.
org/bitsavers/pdf/dec/pdp11/1103/EK-LSI11-TM-002.pdf)». LSI-11, PDP-11/03 user's manual (2nd edition
edición). Maynard, Massachusetts: Digital Equipment Corporation. pp. 4-3.
• Garside, J. D., Furber, S. B., & Chung, S-H (1999). AMULET3 Revealed (http://www.cs.manchester.ac.uk/
apt/publications/papers/async99_A3.php). University of Manchester Computer Science Department.
• Hennessy, John A.; Goldberg, David (1996). Computer Architecture: A Quantitative Approach. Morgan
Kaufmann Publishers. ISBN 1-55860-329-8.
• MIPS Technologies, Inc. (2005). MIPS32® Architecture For Programmers Volume II: The MIPS32® Instruction
Set (http://www.mips.com/content/Documentation/MIPSDocumentation/ProcessorArchitecture/doclibrary).
MIPS Technologies, Inc..
• Smotherman, Mark (2005). « History of Multithreading (http://www.cs.clemson.edu/~mark/multithreading.
html)». Consultado el 19-12-2005.
• von Neumann, John (1945). First Draft of a Report on the EDVAC (http://www.virtualtravelog.net/entries/
2003-08-TheFirstDraft.pdf). Moore School of Electrical Engineering, University of Pennsylvania.
• Weik, Martin H. (1961). A Third Survey of Domestic Electronic Digital Computing Systems (http://ed-thelen.
org/comp-hist/BRL61.html). Ballistic Research Laboratories.
Enlaces externos
Diseños de microprocesador
• Advanced Micro Devices (http://www.amd.com/) - Advanced Micro Devices, a designer of primarily
x86-compatible personal computer CPU.
• ARM Ltd (http://www.arm.com/) - ARM Ltd, one of the few CPU designers that profits solely by licensing
their designs rather than manufacturing them. Arquitectura ARM microprocessors are among the most popular in
the world for embedded applications.
• Freescale Semiconductor (http://www.freescale.com/) (formerly of Motorola) - Freescale Semiconductor,
designer of several embedded and SoC PowerPC based processors.
• IBM Microelectronics (http://www-03.ibm.com/chips/) - Microelectronics division of IBM, which is
responsible for many POWER and PowerPC based designs, including many of the CPU utilized in late video
game consoles.
• Intel Corp (http://www.intel.com/) - Intel, a maker of several notable CPU lines, including IA-32, IA-64, and
XScale. Also a producer of various peripheral chips for use with their CPU.
• MIPS Technologies (http://www.mips.com/) - MIPS Technologies, developers of the MIPS architecture, a
pioneer in RISC designs.
• Sun Microsystems (http://www.sun.com/) - Sun Microsystems, developers of the SPARC architecture, a RISC
design.
• Texas Instruments (http://www.ti.com/home_p_allsc) - Texas Instruments semiconductor division. Designs
and manufactures several types of low power microcontrollers among their many other semiconductor products.
Unidad central de procesamiento 14
Overclock
La práctica conocida como
overclocking (antiguamente conocido
como undertiming) pretende alcanzar
una mayor velocidad de reloj para un
componente electrónico (por encima
de las especificaciones del
[1]
fabricante). La idea es conseguir un
rendimiento más alto gratuitamente, o
superar las cuotas actuales de AMD Athlon XP Pantalla del setup del BIOS en una tarjeta madre ABIT NF7-S. El
rendimiento, aunque esto pueda overclock del procesador permite aumentar la frecuencia de 133 MHz a 148 MHz, y el
suponer una pérdida de estabilidad o multiplicador cambió de x13,5 a x16,5
Esta práctica está muy extendida entre los usuarios de informática más exigentes, que tratan de llevar al máximo el
rendimiento de sus máquinas. Algunos usuarios suelen comprar componentes informáticos de bajo coste,
forzándolos posteriormente y alcanzando así el rendimiento esperado de los componentes de gama más alta. Por otro
lado, los consumidores más fanáticos pueden llegar a adquirir componentes de última CRIS SENSU hornada para
forzar su funcionamiento, y conseguir así pruebas de rendimiento inalcanzables para cualquier equipo de consumo.
Por este motivo, la mayoría de los fabricantes decide no incluir en la garantía de su hardware los daños producidos
por hacerles overclocking.
Hoy en día los fabricantes de hardware venden algunos de sus productos desbloqueados para permitir a los usuarios
realizar overclock sobre los mismos;[2] es el caso de, por ejemplo, GPU, CPU, etc.
Overclock 15
Desventajas
Al incrementar la velocidad de trabajo del reloj también se incrementa el consumo de corriente y el calor producido
puede afectar a otros componentes.
Referencias
[1] Definición de Overclocking (http:/ / www. helpoverclocking. com/ spanish/ que_es. htm)
[2] Guía de Overclocking presentada por [[nVidia (http:/ / www. nvidia. com/ docs/ CP/ 45121/ nforce_680i_sli_overclocking. pdf)]]
Enlaces externos
• Segunda Convención Nacional de OC: Overclocking Extremo (http://imperiogamer.com/index.php/juegos/
noticias/item/2367-segunda-convencion-nacional-de-oc-overclocking-extremo-) por Imperio Gamer
Historia
Las modernas GPU son descendientes de los chips gráficos monolíticos de finales de la década de 1970 y 1980.
Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y
usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de
display y podían usar DireDMA para reducir la carga en el procesador anfitrión; un ejemplo temprano es el
coprocesador ANTIC usado en el Atari 800 y el Atari 5200. Hacia finales de la década de 1980 y principios de la de
1990, los microprocesadores de propósito general de alta velocidad fueron muy populares para implementar las GPU
más avanzadas. Muchas tarjetas gráficas para PC y estaciones de trabajo usaban procesadores digitales de señales
(DSP por sus siglas en inglés) tales como la serie TMS340 de Texas Instruments, para implementar funciones de
dibujo rápidas y muchas impresoras láser contenían un procesador de barrido de imágenes "PostScript" (un caso
especial de GPU) corriendo en un procesador RISC como el AMD 29000.
Unidad de procesamiento gráfico 16
Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las
funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de
búfer de marcos (frames), tal como VGA. Estos aceleradores gráficos de 2D "reducidos" no eran tan flexibles como
los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la
primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de
las primeras tarjetas de video para PC en implementar primitivas 2D en hardware.
Arquitectura de la GPU
Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades
funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles.
Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU.
Adicionalmente, y no con menos importancia, se encuentra la memoria. Ésta destaca por su rapidez, y va a jugar
un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.
Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben
estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de
las figuras. Tras esto, se define la parte de estos vértices que se va a ver (clipping), y los vértices se transforman en
píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU.
Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se
realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado
todo esto, y antes de almacenar los píxeles en la caché, se aplican algunos efectos como el antialiasing, blending y el
efecto niebla.
Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su
visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el frame
buffer. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o
generar una señal analógica a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un
DAC, Digital-Analog Converter, para ser finalmente mostrados en pantalla.
Unidad de procesamiento gráfico 17
Programación de la GPU
Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la BIOS. Tras esto, la
programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a cada modelo. Posteriormente, se
introdujo un nivel más entre el hardware y el software, con la creación de interfaces de programación de aplicaciones
(API) específicas para gráficos, que proporcionaron un lenguaje más homogéneo para los modelos existentes en el
mercado. La primera API usada ampliamente fue el estándar abierto OpenGL (Open Graphics Language), tras el cual
Microsoft desarrolló DirectX.
Tras el desarrollo de API, se decidió crear un lenguaje más natural y cercano al programador.
Intel Corporation
Intel Corporation
Tipo Privada
[1]
NASDAQ: INTC
[2] [3]
Euronext: INCO SEHK: 4335
Dow Jones Component
NASDAQ-100 Component
Industria Semiconductores
Coordenadas [4]
Coordenadas: 37°23′16.54″N 121°57′48.74″O
Ámbito Mundial
Productos Microprocesadores
Memoria
Placas base
Chipset
Tarjeta de red
Bluetooth
Ingresos [5]
US$ 53,750 billones (2012)
Intel Corporation 18
Filiales McAfee
Historia
Intel fue fundada en Mountain View (California) en
1968 por Gordon E. Moore (químico y físico, famoso
por su "Ley de Moore") y Robert Noyce (físico y
co-inventor del circuito integrado) cuando salieron de
Fairchild Semiconductor. El tercer empleado de Intel
fue Andy Grove,[11] un ingeniero químico, que dirigió
la compañía durante la mayor parte de los años 1980 y Sede central de Intel Corporation.
del período de alto crecimiento de los 1990.
Moore y Noyce inicialmente quisieron llamar a la compañía "Moore Noyce"., pero sonaba mal (ya que en inglés
suena como More Noise, que literalmente significa: Más Ruido, un nombre poco adecuado para una empresa
electrónica, ya que el ruido en electrónica suele ser muy indeseable y normalmente se asocia con malas
interferencias). Utilizaron el nombre NM Electronics durante casi un año, antes de decidirse a llamar a su compañía
Integrated Electronics (en
Intel Corporation 19
El 6 de junio de 2005 Intel llegó a un acuerdo con Apple Computer, por el que Intel proveerá procesadores para los
ordenadores de Apple, realizándose entre 2006 y 2007 la transición desde los tradicionales IBM. Finalmente, en
enero de 2006 se presentaron al mercado las primeras computadoras de Apple, una portátil y otra de escritorio, con
procesadores Intel Core Duo de doble núcleo.
Intel está desarrollando un proyecto llamado Tera Scale Computing. Este equipo logró un procesador de 80 núcleos
con un consumo de 62 vatios que alcanzó 1 Teraflop. Han hecho una mejora que llega a los 2 Teraflops; esto lo han
conseguido mejorando la refrigeración y optimizando los núcleos, y han conseguido subir la frecuencia hasta 6,26
GHz. Tiene un consumo de 160,17 vatios; se ha optimizado de tal manera que a la frecuencia de 3,13 GHz consume
sólo 24 vatios, cuando está inactivo sólo consume 3,32 vatios y sólo mantiene 4 núcleos activos.
Adquisiciones
En agosto de 2010, Intel anunció dos importantes adquisiciones. El 19 de agosto de 2010, Intel anunció que planeaba
comprar McAfee, compañía de software de seguridad informática cuyo producto más conocido es el antivirus
McAfee VirusScan. Al mismo tiempo McAfee ya había anunciado la inversión en empresas especializadas a su vez
en seguridad de dispositivos móviles, como tenCube y Trust Digital, pese a haber obtenido bajos resultados en el
último trimestre. El precio de compra fue de 7.680 millones de dólares, y las empresas dijeron que si el acuerdo se
aprobaba los nuevos productos que se lanzarían a principios de 2011.
Menos de dos semanas después, la compañía anunció la adquisición del negocio de soluciones inalámbricas de
Infineon Technologies.[12] Con esta compra, Intel planea utilizar la tecnología de la compañía en los ordenadores
portátiles, teléfonos inteligentes, netbooks, tabletas y los ordenadores integrados en los productos de consumo, para
finalmente integrar su módem inalámbrico en los chips de silicio de Intel.[13] Intel logró la aprobación para la
Intel Corporation 20
adquisición de McAfee el 26 de enero de 2011, cerrándose la compra definitiva en esa fecha. Intel accedió a
garantizar que las empresas de seguridad competidoras tuvieran acceso a toda la información necesaria que
permitiera a sus productos usar los chips de Intel y los ordenadores personales.
Tras el cierre de la oferta de McAfee, la fuerza laboral de Intel asciende a unas 90.000 personas, incluidos los
(aproximadamente) 12 000 ingenieros de software.[14]
En marzo de 2011, Intel compró la mayor parte de los activos de SySDSoft,[15] empresa con sede en El Cairo.
En junio de 2011, Intel comienza a trazar su diseño de chips y los planes de fabricación para penetrar en el mercado
de tablets y smartphones, en el que no es competitivo todavía. Su primer sistema en un chip para las tabletas y
teléfonos inteligentes, con nombre en código Medfield, llegará en el primer semestre de 2012, seguido por la
tecnología Clover Trail en la segunda mitad de 2012.[16] Medfield combina una CPU Atom con un número de
núcleos especializados para funciones tales como la aceleración de gráficos. Reemplaza a Moorestown, un chip de
Intel diseñado para smartphones pero nunca utilizado en ninguno.[17] Medfield comenzará a fabricarse en 32
nanometros, e Intel espera comenzar a fabricarlos en 22 nanometros en 2011.
También en 2011, presentó la iniciativa para crear unos ordenadores ultraligeros sin comprometer su capacidad de
procesamiento, los llamados ultrabooks.
Innovaciones y fracasos
Durante los años 90, Intel fue responsable de muchas de las innovaciones del hardware de los computadores
personales, incluyendo los buses USB, PCI, AGP y PCI-Express.
Pero Intel no siempre tuvo la visión de futuro acertada. Moore recuerda como a mediados de los 70 le propusieron
comercializar el 8080 equipado con un teclado y un monitor orientado al mercado doméstico. Es decir, le estaban
proponiendo ser los pioneros en el mundo de las computadoras personales. Pero no vieron la utilidad de esos
aparatos, y descartaron la idea.
Ejemplos más cercanos son el empleo de la RDRAM de los módulos RIMM y el Slot 1 en los Intel Pentium II/Intel
Pentium III, medidas tomadas para afianzar el dominio del mercado a golpe de patente, y que se acabaron volviendo
en su contra al forzar a sus competidores a innovar y abaratar costes, logrando AMD llevar a buen puerto el primer
procesador de 64 bits de la x86-64 que además mantenía la compatibilidad x86 (mientras que Intel llevaba años
encallado en el Intel Itanium).
La falta de implantación de USB 3 en sus chipsets puede acabar siendo otro error similar, causado por tratar de
promocionar Thunderbolt sobre una solución aceptada por toda la industria.
Larrabee fue una innovadora idea sobre cómo llevar la arquitectura IA-32 al campo de las GPU. Sin embargo, debido
al pésimo rendimiento que obtuvieron en las primeras pruebas, la investigación fue cancelada. A partir de ahí Intel
decidió crear la arquitectura Intel MIC, una implementación basada en la idea GPGPU pero utilizando arquitectura
IA-32.
En noviembre de 2011 Intel reveló una de sus últimas y más ambiciosas metas, el Knights Corner, capaz de generar
1 teraflop de capacidad de procesamiento, con la tecnología 3D Tri-gate de 22nm. Lo más asombroso es que los
superordenadores podrían utilizar los mini supermicroprocesadores sin ocupar más espacio que los anteriores, con
sus más de 50 núcleos de potencia.
En 2013, según Booz and Company, Intel Corporation ocupó el curato lugar entre las empresas más innovadoras del
mundo. Intel Corporation gastó 10,1 billónes de dólares en 2013 para la Investigación y desarrollo, o 19% de su
factura [18].
Personalidades
• Gordon E. Moore ha sido cofundador, vicepresidente y CEO de Intel. Desde 1997 es consejero emérito. Moore,
de 71 años y doctorado en Química y en Física, es conocido en todo el mundo por haber afirmado en 1965 que la
capacidad de los microprocesadores se doblaría cada año y medio. Es la espectacular y discutida Ley de Moore.
• Andrew S. Grove, químico nacido en Hungría en 1936, participó en la fundación de Intel. En 1979 fue nombrado
presidente y en 1987 CEO, cargo que ocupó hasta mayo de 1997. Actualmente ocupa el cargo de consejero. Es
famoso por su lema "Sólo los paranoicos sobreviven".
• Craig R. Barrett, de 61 años, se unió a la compañía en 1974. En 1984 fue nombrado vicepresidente; en 1992 fue
elegido para formar parte del consejo de dirección y en 1993 pasó a ser jefe de operaciones. Sucede a Grove como
Intel Corporation 22
CEO de Intel, y se retira en 2009. Después de retirarse de Intel, se unió a la facultad de la Thunderbird School of
Global Management, en Glendale, Arizona
Acusaciones
Un documento presentado por AMD en mayo de 2008 en el tribunal de Delaware retomado asimismo por The Wall
Street Journal, cuestiona tratos con multinacionales y empresas japonesas sospechosas de estrategias monopolistas.
La empresa rival AMD ha hecho numerosas acusaciones con pruebas acerca de supuestas presiones a compañías por
parte de Intel para que no adquieran otros productos más que de esta firma, permaneciendo como líder del sector en
chips.
Intel ha negado cada una de estas acusaciones.
Cooperación
En un caso inusual de cooperación entre las empresas, AMD devolvió a Intel tecnología del Pentium robada y
supuestamente enviada por Bill Gaede desde la Argentina a AMD en Sunnyvale, California. Ambas empresas
cooperaron entre ellas y con el FBI en lograr la detención de Gaede.[19]
Instalaciones
El centro de operaciones de Intel está localizado en Santa Clara, California. La compañía también tiene instalaciones
en Argentina, China, Costa Rica, Malasia, México, Israel, Irlanda, India, Filipinas y Rusia. En los Estados Unidos
Intel emplea a más de 45.000 personas en Colorado, Massachusetts, Arizona, Nuevo México, Oregón, Texas,
Washington y Utah.
Referencias
[1] http:/ / www. nasdaq. com/ symbol/ INTC
[2] http:/ / www. euronext. com/ initsession/ 0,4157,1732_4794711,00. html?matchpattern=INCO& searchTarget=quote&
path=%2Fquicksearch& fromsearchbox=true& productFamily=& submit. x=12& submit. y=11
[3] http:/ / www. hkex. com. hk/ eng/ invest/ company/ quote_page_e. asp?WidCoID=4335& WidCoAbbName=& Month=& langcode=e
[4] http:/ / toolserver. org/ ~geohack/ geohack. php?pagename=Intel_Corporation& language=es& params=37_23_16. 54_N_121_57_48.
74_W_type:landmark
[5] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[6] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[7] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[8] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[9] http:/ / www. intel. com/
[10] Intel 2007 Annual Report (http:/ / media. corporate-ir. net/ media_files/ irol/ 10/ 101302/ 2007annualReport/ common/ pdfs/ intel_2007ar.
pdf)
[11] El artículo sobre Andrew Grove explica cómo por un error administrativo intercambiaron los números de identificación de empleado de
Grove y la cuarta empleada, Leslie L. Vadász, a quien Grove había contratado.
[12] Intel buys Infineon's wireless wing for 4G lift-off (http:/ / www. zdnet. co. uk/ news/ mobile-devices/ 2010/ 08/ 31/
intel-buys-infineons-wireless-wing-for-4g-lift-off-40089960/ ), a August 31, 2010, ZDNet
[13] Intel CFO Talks About Acquisition Strategy (http:/ / www. institutionalinvestor. com/ Article. aspx?ArticleID=2726870), Institutional
Investor
[14] "Microsoft Alliance With Intel Shows Age" (http:/ / online. wsj. com/ article/ SB10001424052748703808704576062073117494078. html),
January 4, 2011 Wall Street Journal article
[15] Dean Takahashi, VentureBeat. " Intel buys 4G wireless software firm SySDSoft (http:/ / venturebeat. com/ 2011/ 03/ 14/
intel-buys-4g-lte-sysdsoft-in-egypt/ )." March 14, 2011. Retrieved March 17, 2011.
[16] Brooke Crothers, CNET. " Intel maps out tablet plans through 2014 (http:/ / news. cnet. com/ 8301-13924_3-20075602-64/
intel-maps-out-tablet-plans-through-2014/ ?part=rss& subj=news& tag=2547-1_3-0-20)." Jun 30, 2011. Retrieved Jul 1, 2011.
[17] Agam Shah, IDG News. " Intel's New Smartphone Chip Is Key ARM Battle (http:/ / www. pcworld. com/ article/ 229596/
intels_new_smartphone_chip_is_key_arm_battle. html)." Jun 7, 2011. Retrieved Jul 8, 2011.
[18] Le top 20 des entreprises les plus innovantes du monde (http:/ / www. challenges. fr/ galeries-photos/ galeries-photos/ 20111028. CHA6249/
facebook-entre-dans-le-classement-des-10-entreprises-les-plus-innovantes. html), Challenges, 22 de octubre 2013
[19] Declaraciόn Jurada del Agente Especial del FBI David J. Johnson, Denuncia Criminal 5 95 175 PVT, San Jose, California, 22 de septiembre
de 1995
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Intel Corporation. Commons
• Wikinoticias tiene noticias relacionadas con Intel Corporation.Wikinoticias
• Sitio web oficial de Intel (http://www.intel.com/espanol)
• Artículo (http://interactivo.wsj.com/documents/ind-prof-12.htm) de The Wall Street Journal
• La comisión Europea multa a Intel por 1.060 millones de euros (http://www.electronista.com/articles/09/05/
13/intel.fined.1.45b.by.eu/)
• Productos Intel 2010 (http://www.mendozagamers.com/index.php/pc/noti/
495-ces10-intel-revela-su-nueva-familia-de-procesadores)
• Knights Corner (http://communities.intel.com/community/openportit/server/blog/2011/11/15/
supercomputing-2011-day-2-knights-corner-shown-at-1tf-per-socket?wapkw=Knights Corner/)
Advanced Micro Devices 24
Industria Semiconductores
Fundación 1969
Productos Microprocesadores
Motherboard chipsets
Procesadores gráficos
[1]
Memoria RAM
[2]
TV tuner cards
Ingresos [3]
US$ 5.960 millones (2012)
Advanced Micro Devices, Inc. (NYSE: AMD [8]) o AMD es una compañía estadounidense de semiconductores
establecida en Sunnyvale, California, que desarrolla procesadores de cómputo y productos tecnológicos relacionados
para el mercado de consumo. Sus productos principales incluyen microprocesadores, chipsets para placas base,
circuitos integrados auxiliares, procesadores embebidos y procesadores gráficos para servidores, estaciones de
trabajo, computadores personales y aplicaciones para sistemas embedidos.
AMD es el segundo proveedor de microprocesadores basados en la arquitectura x86 y también uno de los más
grandes fabricantes de unidades de procesamiento gráfico. También posee un 8,6% de Spansion, un proveedor de
memoria flash no volátil.) En 2011, AMD se ubicó en el lugar 11 en la lista de fabricantes de semiconductores en
términos de ingresos.
Advanced Micro Devices 25
Historia Corporativa
Advanced Micro Devices se fundó el 1 de mayo de
1969 por un grupo de ejecutivos de Fairchild
Semiconductor, incluidos Jerry Sanders III, Edwin
Turney, John Carey, Sven Simonsen, Jack Gifford y 3
miembros del equipo de Gifford, Frank Botte, Jim
Giles y Larry Stenger. La compañía empezó a producir
circuitos integrados lógicos, luego entró en el negocio
de las memorias RAM en 1975. Ese mismo año hizo un
clon de microprocesador Intel 8080 mediante técnicas
de ingeniería inversa. Durante este período, AMD Sede de AMD en Sunnyvale, California
también diseñó y produjo una serie de procesadores Bit
slicing (Am2901, Am29116, Am293xx) que fueron
usados en varios diseños de microcomputadores.
En agosto de 2011, AMD anunció que el ex ejecutivo de Lenovo Rory Read se uniría a la compañía como director
general, después de Dirk Meyer. [9]
AMD anunció en noviembre de 2011 los planes para despedir a más del 10% (1.400) de los empleados de todas las
divisiones en todo el mundo. Esta acción sería completada en Q1 2012 con la mayoría de los despidos efectuados
antes de la Navidad de 2011. AMD anunció en octubre de 2012 que tiene previsto despedir un 15% adicional de su
fuerza de trabajo con una fecha de vigencia indeterminada para reducir los costos de cara a la disminución de los
ingresos por ventas.
AMD adquirió el fabricante de servidores de bajo consumo SeaMicro a principios de 2012 como parte de una
estrategia para recuperar la cuota de mercado perdida en el mercado de los chips de servidor.
AMD64 / K8
K8 es una gran revisión de la arquitectura K7, cuya mejora más notable es el agregado de extensiones de 64 bit sobre
el conjunto de instrucciones x86. Esto es importante para AMD puesto que marca un intento de definir el estándar
x86 e imponerse, en vez de seguir los estándares marcados por Intel. Y al respecto, AMD ha tenido éxito. La historia
ha dado un giro y Microsoft adoptó el conjunto de instrucciones de AMD, dejando a Intel el trabajo de ingeniería
inversa de las especificaciones de AMD (EM64T). Otras características notables de K8 son el aumento de los
registros de propósito general (de 8 a 16 registros), la arquitectura Direct Connect Architecture y el uso de
HyperTransport.
El proyecto AMD64 puede ser la culminación de la visionaria estrategia de Jerry Sanders, cuya meta corporativa
para AMD fue la de convertirla en una poderosa empresa de investigación por derecho propio, y no sólo una fábrica
de clones de bajo precio, con estrechos márgenes de ganancia.
AMD Opteron es la versión para servidores corporativos de K8; y aunque fue concebida por la compañía para
competir contra la línea IA-64 Itanium de Intel, dados los bajos volúmenes de venta y producción de esta última,
compite actualmente con la línea Xeon de Intel.
Turion 64
El procesador AMD Turion 64 es una versión de bajo consumo del procesador AMD Athlon 64 destinada a los
ordenadores portátiles, que salieron a competir contra la tecnología Centrino de Intel. Se presentan en dos series, ML
con un consumo máximo de 35 W y MT con un consumo de 25 W, frente a los 27 W del Intel Pentium M.
Phenom (K10)
En noviembre de 2006, AMD hace público el desarrollo de su nuevo procesador con nombre código "Barcelona",
lanzado a mediados del 2007. Con este procesador se da inicio a la arquitectura K8L.
Tras el dominio total de Intel con su arquitectura "CORE", AMD tuvo que re-diseñar su tecnología de producción y
finalmente dar el salto a los 65nm y a los Quad Core nativos, a diferencia de los Quad FX, que son 2 dual core en
Advanced Micro Devices 28
una misma placa madre. Un Quad core nativo (Monolítico), quiere decir que los cuatro núcleos del procesador son
totalmente independientes entre sí, a diferencia de los "Kentsfield" (2 "Conroe") y los "Clovertown" (2 Kentsfield)
de Intel, y de los Quad FX del propio AMD. Los primeros procesadores en usar el núcleo Barcelona, serán los Quad
Core Opteron.
Características
• Proceso de fabricación de 65nm.
• Configuración y compatibilidad para plataformas multi-socket (4x4).
• 2MB de cache L3. (Compartido para los 4 núcleos).
• 512KB de cache L2. (Para cada núcleo).
• Hyper Transport 3.0
• Soporte para memorias DDR3.
• Soporte para instrucciones extendidas SSE4.
Athlon II y Phenom II
Finalmente, AMD pasó los 65nm a los 45nm en la fabricación con sus nuevos AMD Athlon II y Phenom II. Ambos
emplean tanto Socket AM2+ como AM3, teniendo de esta manera, soporte para DDR3.
• En Dual Core "X2" están los modelos: 555, 560. (Compatibles con AM2+ y AM3). Con un TDP 80W. Con
algunas placas base, se pueden desbloquear los 2 núcleos a los Phenom II X2, así pasaría a ser un Phenom II X4,
con los 4 núcleos funcionando, eso es, por que en el proceso de fabricación, si no pasan los test de calidad y dan
algún fallo, deshabilitan los cores, caché y/o similares. Por ejemplo un Phenom II 965BE de 4 núcleos, le someten
a unas pruebas rigurosas, si uno de sus núcleos tiene fallos, lo deshabilitan y los vende como un modelo inferior.
• En Quad Core "X4" están los modelos: 955BE, 965BE, 970BE. (Compatibles con AM2+ y AM3). Con un TDP
de 125W en la revisión C3, también los hay de 140W, pero eran de una revisión anterior, la C2. Las siglas BE,
significa Black Edition, son los que tienen el multiplicador desbloqueado, para realizar un mejor overclocking.
Estos procesadores son denominado bajo el nombre de Deneb.
• En Six Core "X6" están los modelos: 1055T, 1075T, 1090T, 1100T. (Compatible con AM3). Con un TDP de
140W. Los procesadores 1090T y 1100T son BE. Estos son denominados Thuban
microarquitectura y metodología de diseño M-SPACE. Bulldozer está diseñado desde cero, no es un desarrollo de
procesadores anteriores. El núcleo está dirigido específicamente a los productos de computación con 10-125 vatios
de TDP. AMD pretende mejorar dramáticamente la eficiencia en el desempeño por watt en aplicaciones de
computación de alto rendimiento (HPC) con núcleos Bulldozer.
Vishera es la serie de procesadores de AMD que sucedió a Bulldozer.
Bobcat es el último núcleo de procesador x86 de AMD destinado a mercado low-power/low-cost.Se puso de
manifiesto durante un discurso del vicepresidente ejecutivo de AMD Henri Richard en Computex 2007 y se puso en
producción Q1 2011. Uno de los principales partidarios fue el vicepresidente ejecutivo Mario A. Rivas quien
consideró que era difícil competir en el mercado x86 con un solo núcleo optimizado para el rango de 10-100 vatios y
promovió activamente el desarrollo de un núcleo más simple con un rango objetivo de 1-10 watts.
Iniciativa 50X15
Consiste en que la mitad de la población cuente con la capacidad de conectarse a internet para el 2015; esto se logra
a través de concursos entre universidades de varios países donde desarrollan las mejores soluciones para cada región
del planeta basadas en la tecnología de AMD. Además se cuenta con prestigiosos organismos multilaterales entre los
que podemos encontrar a la FAO y UNICEF
AMD / ATI
Después de completar la compra de ATI en 2006, AMD se reestructura como la única empresa en el mundo que
provee un abanico de soluciones en todos los ramos de microprocesadores, tarjetas gráficas y chipsets. Así también
se convierte en el mayor productor mundial de chips para TV, consolas y telefonía móvil en el mundo, con esto
AMD se convierte hoy en día en el mayor rival de Intel en cuanto a soluciones en semiconductores se
refiere.[cita requerida] A finales del 2010 AMD, de la cual ATI es Filial, anuncio que desde la Serie Radeon HD 6000,
se reemplazara la marca ATI por AMD para ayudar a impulsar las plataformas AMD Vision y AMD Fusion
Sistemas integrados
Geode
En agosto de 2003 AMD compra también la empresa Geode (originalmente Cyrix MediaGX) a National
Semiconductor para extender su línea, ya existente, de productos x86 para sistemas integrados. A mediados de 2004,
lanzó sus procesadores Geode de bajo consumo con velocidad máxima de 1,4 GHz y consumo máximo de 19W.
Existen 3 familias de procesadores dentro de la gama de procesadores Geode:
• AMD Geode LX, especialmente pensado para "Cliente liviano" basados en plataformas x86, "set-top boxes"
interactivos, ordenadores "single-board", Agendas personales (PDAs), y dispositivos móviles para Internet y de
entretenimiento.
• AMD Geode NX, pensado para "Cliente liviano", terminales punto de venta (TPV), kioskos, impresoras de alto
rendimiento y sistemas multimedia para el hogar.
• AMD Geode GX 533@ 10,1W Processor, especialmente pensado para aplicaciones de Internet de banda ancha, y
además con un consumo de tan solo 10,1 W.
Advanced Micro Devices 30
Referencias
[1] http:/ / www. tigerdirect. com/ applications/ Category/ guidedSearch. asp?CatId=10& sel=Mfr%3BMfr_66
[2] http:/ / www. amd. com/ us/ products/ pctv/ tv-wonder-tuners/ Pages/ tv-wonder-tv-tuners-for-the-pc. aspx
[3] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[4] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[5] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[6] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[7] http:/ / www. amd. com/
[8] http:/ / www. nyse. com/ about/ listed/ lcddata. html?ticker=AMD
[9] Dylan McGrath, EE Times. " Former IBM, Lenovo exec takes the helm at AMD (http:/ / eetimes. com/ electronics-news/ 4219307/
AMD-appoints-former-Lenovo-exec-CEO)". August 25, 2011. Retrieved August 25, 2011.
[10] Jeffrey Burt, eWeek. " AMD Cuts Q3 Forecast Due to Chip Manufacturing Problems (http:/ / www. eweek. com/ c/ a/
Desktops-and-Notebooks/ AMD-Cuts-Q3-Forecast-Due-to-Chip-Manufacturing-Problems-581901/ )". September 28, 2011. Retrieved October
7, 2011.
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Advanced Micro Devices. Commons
• Sitio web oficial de AMD (http://www.amd.com)
• AMD live (http://www.amdlive.com)
• AMD Developer Central (http://developer.amd.com)
• amd radeon hd 6000 (http://www.amd.com/la/products/desktop/graphics/amd-radeon-hd-6000/Pages/
amd-radeon-hd-6000.aspx)
Coordenadas: 37°23′12.016″N 121°59′55.550″O
Enlaces externos
• Accelerator Processor Units (APUs) for non-scientific applications [1]
• AMD APU Fusion [2]
Referencias
[1] http:/ / scalability. org/ ?p=90
[2] http:/ / sites. amd. com/ us/ fusion/ apu/ Pages/ fusion. aspx
AMD CrossFire
Crossfire es el nombre dado al sistema de Multi GPU de ATI/AMD
que fue diseñado como contrapartida al SLI de nVidia. Este sistema
permite, utilizando una placa certificada Crossfire, acoplar hasta cuatro
tarjetas gráficas que soporten dicha tecnología en ranuras PCIe x16. El
ancho de banda total que recibe cada tarjeta dependerá de la
configuración de líneas de transmisión PCIe que tenga el puente norte
incluido en la placa base.
Enlaces externos
• Sitio oficial de ATI CrossFire [1] (en inglés) Logotipo de ATI Crossfire.
• Sitio con información sobre la tecnología ATI CrossFireX [2] (en
inglés)
• Hardocp.com's Análisis de CrossFire [3] (en inglés)
Referencias
[1] http:/ / ati. amd. com/ technology/ crossfire/
[2] http:/ / web. archive. org/ web/ http:/ / www. crossfirex. info/ index. htm
[3] http:/ / www. hardocp. com/ article. html?art=Nzc4
Radeon HD 32
Radeon HD
La serie Radeon HD es la generación de tarjetas gráficas del fabricante
ATI Technologies que nació como continuación de la línea modelos
Radeon X y la primera diseñada después de la absorción de ATI por
parte de AMD. Esta gama está dirigida principalmente al sector de chips
gráficos dedicados, integrados y móviles.
A finales del 2010 AMD, de la cual ATI es Filial, anuncio que desde la
Serie Radeon HD 6000, se reemplazara la marca ATI por AMD para
ayudar a impulsar las plataformas AMD Vision y AMD Fusion
compatibilidad total con DirectX 10.1, Soporte de físicas Havok, PCI Express 2.0, CrossFireX, Soporte Unified
Video Decoder 2, HDMI, HDCP, ATI PowerPlay, etc. Sin duda, esta generación ha sido bastante exitosa, siendo la
HD 4870X2 la tarjeta de vídeo tope de línea, la cual fue la tarjeta de vídeo más poderosa del mundo por un buen
tiempo, hasta la llegada de la GeForce GTX 295 en enero del 2009. En abril salió al mercado la Radeon HD 4890
con características idénticas a una 4870 pero con cambios importantes en el uso de nuevo materiales en el núcleo
gráfico que le permite alcanzar mayores frecuencias de trabajo.
En octubre del 2010 AMD lanza al mercado la serie Radeon HD 6000, que coincide con la desaparición de ATI
como marca de los productos Radeon. Los primeros modelos en ser presentados fueron las tarjetas de gama media
Radeon HD 6870 (1120 shaders, 32 ROPs y 2,0 Tflops de poder de cálculo) y la Radeon HD 6850 (960 shaders, 32
ROPs y 1,5 Tflop de poder de cálculo) el 22 de octubre de 2010, luego se sumarían las tarjetas de gama alta Radeon
HD 6970 (1536 shaders, 32 ROPs y 2,70 Tflop de poder de cálculo) y la Radeon HD 6950 (1408 shaders, 32 ROPs y
2,25 Tflop de poder de cálculo) el 15 de diciembre de 2010. El 8 de marzo de 2011 fue presentado el modelo de más
alta gama, la tarjeta de doble GPU Radeon HD 6990 (1536 x2 shaders, 32 x2 ROPs y 5,10 Tflop de poder de
cálculo). La serie incorpora nuevas aplicaciones como el Morphological antialiasing, un tipo de antialiasing usado
como postproceso con una penalización en el rendimiento menor que los métodos de MSAA Y SSAA, pudiendo ser
utilizado también en juegos sin opción a los métodos de antialiasing clásicos y emulaciones
Referencias
Enlaces externos
• amd radeon hd 6000 (http://www.amd.com/la/products/desktop/graphics/amd-radeon-hd-6000/Pages/
amd-radeon-hd-6000.aspx)
• (http://www.firingsquad.com/features/atihistory)
NVIDIA 36
NVIDIA
Nvidia Corporation
Tipo [1]
Multinacional (NASDAQ: NVDA )
Industria Semiconductores
Fundación 1993
Ingresos [2]
4.130 millones de € (2012)
Empleados [4]
6.540 (2008)
Nvidia Corporation (NASDAQ: NVDA [1]) es una empresa multinacional especializada en el desarrollo de
unidades de procesamiento gráfico y tecnologías de circuitos integrados para estaciones de trabajo, ordenadores
personales y dispositivos móviles. Con sede en Santa Clara, California, la compañía se ha convertido en uno de los
principales proveedores de circuitos integrados (CI), como unidades de procesamiento gráfico GPU y conjuntos de
chips usados en tarjetas de gráficos en videoconsolas y placas base de computadora personal.
NVIDIA produce GPUs incluyendo la serie GeForce para videojuegos, la serie NVIDIA Quadro de diseño asistido
por ordenador y la creación de contenido digital en las estaciones de trabajo, y la serie de circuitos integrados nForce
para placas base.
Los drivers de Nvidia son conocidos por las restricciones artificialmente impuestas, como limitar el número de
monitores que se pueden usar al mismo tiempo.[6]
Historia
Jen-Hsun Huang, Chris Malachowsky, y Curtis Priem fundaron la compañía en enero de 1993 y situaron la sede en
California en abril de 1993.
El nombre GeForce que utilizó para sus modelos gráficos fue creada mediante un concurso en California para
nombrar a la siguiente generación de tarjetas gráficas NV20.-
En 2013 Nvidia decidió licenciar su tecnología gráfica para que fabricantes de todo tipo de dispositivos puedan
aprovechar sus catálogo de patentes, siguiendo el mismo modelo que ARM Holdings.[7]
NVIDIA 37
Chips gráficos
• NV1
• RIVA 128, RIVA 128ZX
• VANTA LT, RIVA TNT, RIVA TNT 2
A partir de la serie GeForce, los chipsets se ocupan prácticamente de
todo el proceso gráfico, constituyendo lo que NVIDIA nombró GPU
(Graphic Processing Unit - Unidad de proceso gráfico).
• GeForce Series
VisionTek GeForce 256.
• GeForce 256
• GeForce 2: MX 200, MX 400, GTS, Pro, Ti y Ultra.
• GeForce 3: Ti 200 y Ti 500.
• GeForce 4: MX 420, MX 440, MX 460, Ti 4200, Ti 4400, Ti
4600 y Ti 4800.
• GeForce FX (5): (DirectX 8.0, 8.1 o últimamente 9.0b por
hardware) compuesta por los modelos FX 5950 Ultra, FX 5900,
FX 5800, FX 5700, FX 5600, FX 5500, FX 5300 y FX 5200.
• GeForce 6: (DirectX 9.0c por hardware) compuesta por los
modelos 6800 Ultra, 6800 GT, 6800, 6600 GT, 6600, 6500,
6200, 6150 y 6100 (AGP). GeForce 6800 Ultra & GeForce 7950 GX2.
• GeForce 7: (DirectX 9.0c por hardware) compuesta por los
modelos 7950 GX2, 7950 GT, 7900 GTX, 7900 GTO, 7900 GT,
7900 GS, 7800 GTX, 7800 GT, 7800 GS, 7600 GT, 7600 GS,
7300 GT, 7300 GS, 7300 LE, 7100 GS y 7025 GT.
• GeForce 8: (DirectX 10.0 por hardware) compuesta por los
modelos 8800 Ultra, 8800 GTX, 8800 GTS, 8800 GT, 8800 GS,
8600 GTS, 8600 GT, 8500 GT y 8400 GS.
• GeForce 9: (DirectX 10.0 por hardware) compuesta por los
modelos 9800 GX2, 9800 GTX+, 9800 GTX, 9800 GT, 9600 NVIDIA GeForce 8800 GTX.
GT, 9600 GSO, 9500 GT y 9400 GT.
• GeForce 200: (DirectX 10 y 10.1 por hardware) compuesta por
los modelos GT 220, GT 240, GTS 240, GTS 250, GTX 260,
GTX 275, GTX 280, GTX 285 y GTX 295.
• GeForce 300: (DirectX 10.1 por hardware y DirectX 11 por
Software) Es la serie GT 200 pero mejorada, menor consumo,
menos tamaño de fabricación (Menos de los 55 nanómetros de
las GT 200).
• GeForce 400: (DirectX 11.0 por hardware) Arquitectura de
nombre en clave "Fermi", compuesta temporalmente por los
modelos GT 420, GT 430, GT 440, GTS 450, GTX 460, GTX Cuartel General de nVidia en Santa Clara,
California.
465, GTX 470 y GTX 480.
• GeForce 500: GT 520,GTX 550 Ti, GTX 560, GTX 560 Ti,
GTX 570, GTX 580 y GTX 590.
• GeForce 600: GT 610, GT 620, GT 630, GT 640, GTX 650, GTX 650 Ti, GTX 650 Ti BOOST, GTX 660,
GTX 660 Ti, GTX 670, GTX 680 y GTX 690.
NVIDIA 38
• GeForce 700: GTX 760, GTX 770, GTX 780, GTX 780 Ti y
GTX TITAN.
Referencias
[1] http:/ / www. nasdaq. com/ symbol/ NVDA
[2] http:/ / es. finance. yahoo. com/ q/ ks?s=NVDA
[3] http:/ / es. finance. yahoo. com/ q/ ks?s=NVDA
[4] http:/ / www. tomshardware. com/ news/ nvidia-layoff-jobs-loss,6386. html
[5] http:/ / www. nvidia. com/
[6] Nvidia Removed Linux Driver Feature Due to Windows (http:/ / www. tomshardware. com/ news/
nvidia-linux-basemosaic-ubuntu-parity,24519. html)
[7] http:/ / www. xataka. com/ componentes-de-pc/ nvidia-licenciara-su-tecnologia-grafica-siguiendo-el-modelo-de-arm
[8] X.Org Wiki - nv (http:/ / www. x. org/ wiki/ nv)
[9] Aalto Talk with Linus Torvalds, hosted by Aalto Center for Entrepreneurship (ACE) in Otaniemi on June 14, 2012 (https:/ / www. youtube.
com/ watch?v=MShbP3OpASA& hd=1& t=48m9s)
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre NVIDIA. Commons
• Sitio web oficial internacional de NVIDIA (http://www.nvidia.com/)
Coordenadas: 37°22′14.62″N 121°57′49.46″O
Scalable Link Interface 40
El Quad-SLI es otra opción de SLI implementada que realmente deja mucho que desear. Se trata de una unificación
de dos tarjetas GeForce 9800 GX2, que si bien a simple vista parece ser un simple SLI clásico de dos tarjetas, en
realidad resulta en ser una combinación explosiva de 4 núcleos, debido a que cada tarjeta posee ya dos de estos
unificados en su interior por una tecnología muy similar al SLI, sólo que requiere del uso de un solo PCI Express. Se
da como resultado entonces un sistema SLI de 4 núcleos, que se puede interpretar como 4 tarjetas mononúcleo
unificadas, siendo en realidad dos "dos en uno". El problema es que su elevadísimo costo no justifica las mejoras en
el rendimiento, que solo son de 1.6 veces mayores que una sola 9800 GX2, demostrándose que a más núcleos menor
es la multiplicación total del rendimiento. Además, esta mejora se puede percibir sólo en un número mucho más
limitado de aplicaciones que con el 3-Way. Un ejemplo es Crysis, un videojuego de elevados requerimientos
(pensando actualmente), que sólo demuestra sus mayores efectos gráficos trabajando sobre esta configuración.
En conclusión, el SLI múltiple puede resultar beneficioso si se busca aumentar el rendimiento de las últimas tarjetas
de gama alta, pero si no se busca potenciar un sistema, con sólo una tarjeta más vieja que admita SLI, puede resultar
mucho más económico que comprar una nueva.
Enlaces externos
• Sitio de NVidia SliZone en español [1]
Referencias
[1] http:/ / es. slizone. com/ page/ home. html
NVIDIA Quadro
NVIDIA Quadro es el nombre referido a la serie de tarjetas gráficas de NVIDIA, dirigidas al sector profesional. Sus
diseños están orientados hacia la aceleración de CAD (Diseño asistido por ordenador) y DCC (creación de contenido
digital) usualmente requeridas en estaciones de trabajo y diseñadores independientes. La serie Quadro junto a
FireGL de ATI Technologies dominan este sector del mercado gráfico.
Variantes de Quadro
Quadro: SGI VPro VR3 Quadro2 Pro: ELSA GLoria III Quadro DCC: ELSA GLoria DCC Quadro4 980 XGL: ELSA 980 XGL
NVIDIA divide sus líneas de productos Quadro según el tipo de negocio o estación de trabajo al que vayan dirigido,
las Quadro simples (en versiones PCI, AGP y PCI-Express) dirigidas al sector de diseño profesional, las Quadro
NVS para el sector financiero y las Quadro Mobile que la da soporte a equipos portátiles.
NVIDIA Quadro 42
Quadro PCI
Quadro AGP
Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conexión Conector Notas
chip de núcleo de de memoria Ancho de AGP de
(MHz) memoria memoria banda 3-pines
(efectiva) (MiB) (GiB/s) estéreo
(MHz)
NV10GL 135 166 64 128-bit 2.66 4× Chip también
SDR usado en
GeForce 256
2 MXR NV11GL 200 183 128-bit 2.93 4× Chip también
SDR usado en
GeForce 2 MX
2 EX NV11GL 175 166 Chip también
usado en
GeForce 2 MX
2 PRO NV15GL 250 400 6.4 4× Chip también
usado en
GeForce 2 GTS
DCC NV20GL 128-bit 7.3 4× Chip también
DDR usado en
GeForce 3/Ti
4 380 NV18GL 275 513 64 128-bit 8.2 8×
XGL DDR
4 500 NV17GL 128-bit
XGL SDR
4 550 NV17GL 270 400 64 128-bit 6.4 4×
XGL DDR
No
4 580 NV18GL 64 128-bit 8× Chip también
XGL DDR usado en
GeForce 4 MX
440
No
4 700 NV25GL 275 550 64 128-bit 4× Chip también
XGL DDR usado en
GeForce 4 Ti
4200
NVIDIA Quadro 43
Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conector Núcleos consumo Notas
GPU del núcleo de de memoria Ancho de 3-pin CUDA de
(MHz) memoria memoria de banda estéreo energía
(MHz) (MiB) (GiB/s) (W)
No
No
FX 540 NV43GL 300 275 128 128-bit 8.8 35 Chip también
GDDR usado en
GeForce
6600LE (4
No PS/3 VS)
Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conector Núcleo Consumo Notas
GPU de núcleo de de memoria Ancho de 3-pin CUDA de
(MHz) memoria memoria de banda estéreo energía
(MHz) (MiB) (GiB/s) (W)
FX NV45GL 350 450 256 256-bit 28.8 Sí 101 Chip también
3400 GDDR3 usado en
GeForce
6800, 2×
Dual-link DVI
FX G92 500 800 512 256-bit 51.2 Sí 112 78 Chip también
3700 GDDR3 usado en
GeForce
8800GT and
8800GTS 512,
112 streaming
processors,
PCI Express
2.0, Energy
Star 4.0.
FX G200GL 600 800 1024 256-bit 51.2 Sí 192 107 El uso del
3800 GDDR3 estéreo
requiere la
compra de un
bracket de 3
pines
opcional.
NVIDIA Quadro 47
Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conector Núcleo Consumo Notas
GPU de núcleo de de memoria Ancho de 3-pin CUDA de
(MHz) memoria memoria de banda estéreo energía
(MHz) (MiB) (GiB/s) (W)
FX NV45GL 400 525 512 256-bit 33.6 Sí 109 Chip también
4400 GDDR3 usado en
GeForce 6800
PCI-E, 2×
dual-link DVI
FX G70GL 470 525 512 256-bit 33.6 Sí 109 Chip también
4500 GDDR3 usado en
GeForce
7800GTX, 2×
dual-link DVI
FX G70GL 470 525 512 256-bit 33.6 Sí 116 Chip también
4500 GDDR3 usado en
SDI GeForce
7800GTX, 1×
dual-link DVI,
con dos
salidas SDI
HDTV +
generador de
frecuencia
analógico y
digital
FX G70GL 500 600 512 ×2 256-bit 33.6 ×2 Sí 145 Dos núcleos
4500 ×2 Quadro FX
×2 GDDR3 4500 GPU en
la misma
tarjeta gráfica
PCI-Express,
4× dual-link
DVI.
FX G80GL 400 700 768 384-bit 67.2 Sí 112 134 Chip también
4600 GDDR3 usado en
GeForce
8800GTX, 2×
dual-link DVI.
FX G80GL 400 700 768 384-bit 67.2 Sí 154 FX 4600 con
4600 GDDR3 SDI,
SDI generador de
frecuencia
soportado
(externamente)
FX G92 500 800 512 ×2 256-bit 51.2 ×2 Sí 226 Dos GPU
4700 ×2 quadro FX
×2 GDDR3 3700 en la
misma tarjeta
gráfica
PCI-Express,
2× dual-link
DVI (DVI-I
×4), salida
S-Video.
FX G80GL 600 800 1536 384-bit 76.8 Sí 128 171 Chip también
5600 GDDR3 usado en
GeForce 8800
Ultra, requiere
dos conectores
de energía de
6-pines
suplementarios.
FX G80GL 600 800 1536 384-bit 76.8 Sí 191 FX 5600 con
5600 GDDR3 nuevo SDI,
SDI II generador de
frecuencia
soportado
(externamente)
[1] D10U-20 602 800 1536 384-bit 76.8 Sí 150 Chip también
CX
(GT200GL) GDDR3 usado la
versión de
55nm de la
GeForce GTX
260 (192
shaders),
salidas
Display Port y
dual-link DVI,
optimizada
para Adobe
Creative Suite
4.
NVIDIA Quadro 49
FX D10U-20 602 800 1536 384-bit 77 Sí 192 150 Chip también
4800 (GT200GL) GDDR3 usado la
versión de
55nm de la
GeForce GTX
260 (192
shaders).
Plug-in. CS4
FX D10U-30 650 1632 4096 512-bit 102 Sí 240 189 Chip también
5800 (GT200GL) GDDR3 usado en
GeForce GTX
285 (240
shaders).
Quadro Mobile
Quadro Núcleo Frecuencia Frecuencia Cantidad de memoria Tipo Memoria Núcleos Consumo Interfase conectores Notas
chip de núcleo de de Ancho de CUDA de de 3-pines
(MHz) memoria memroia banda energía estéreo
(MHz) (W)
FX G92M 550 800 Up to 1 GiB 256-bit 51.22 GiB/s 128 75 PCI Varios 128sp
3700M Express G92
FX G92M 675 1000 1 GiB 256-bit 64 GiB/s 128 100 PCI Varios 128sp
3800M Express G92
NVS G86M 400 594 128 MiB/256 MiB 64-bit 9.55 GiB/s PCI Varios Basada en
135M Express 8400M-GS
NVS G86M 400 600 128 MiB/256 MiB/512 MiB 64-bit 9.66 GiB/s PCI Varios Basada en
140M Express 8400M-GS
NVS G98M 580 700 256 MiB 64-bit 11.22 GiB/s PCI Varios Basada en
160M Express 9300M-GS
NVS G72GLM 450 500 128 MiB/256 MiB/512 MiB 128-bit 16.16 GiB/s PCI Varios Basada en
300M GDDR3 Express Go 7600
NVS G84M 575 700 128 MiB/256 MiB/512 MiB 128-bit 22.55 GiB/s PCI Varios Basada en
320M GDDR3 Express 8700M-GT
Referencias
[1] http:/ / www. nvidia. com/ object/ product_quadro_cx_us. html
Enlaces externos
• NVIDIA.com - Quadro vs. GeForce GPUs Technical Brief (http://www.nvidia.com/object/quadro_geforce.
html)
• NVIDIA.com - NVIDIA Quadro Plex (http://www.nvidia.com/page/quadroplex.html)
• Nvidia Nexus (http://developer.nvidia.com/object/nexus.html), NVIDIA.
Placa base 52
Placa base
La placa base, también conocida como placa madre o tarjeta madre
(del inglés motherboard o mainboard) es una tarjeta de circuito
impreso a la que se conectan los componentes que constituyen la
computadora u ordenador. Es una parte fundamental a la hora de armar
una PC de escritorio o portátil. Tiene instalados una serie de circuitos
integrados, entre los que se encuentra el circuito integrado auxiliar, que
sirve como centro de conexión entre el microprocesador, la memoria
de acceso aleatorio (RAM), las ranuras de expansión y otros
dispositivos.
• El reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.
• La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo,
fecha y hora), mientras el equipo no está alimentado por electricidad.
• La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste
último no se apague perdiendo la serie de configuraciones guardadas.
• La BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace
tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de
bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR
(Master Boot Record), o registradas en un disco duro o SSD, cuando arranca el sistema operativo. Actualmente
los ordenadores modernos sustituyen el MBR por el GPT y la BIOS por Extensible Firmware Interface.
• El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está
cayendo en desuso frente a HyperTransport y Quickpath.
• El bus de memoria conecta el chipset a la memoria temporal.
• El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las
ranuras de expansión.
• Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen:
• Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB
• Los puertos serie, por ejemplo para conectar dispositivos antiguos.
• Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.
Placa base 54
• Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.
• Los conectores RJ45, para conectarse a una red informática.
• Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor de la computadora.
• Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros,
unidades de estado sólido y unidades de disco óptico.
• Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.
• Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se
utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, una tarjeta gráfica
se puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz
antigua), PCI (en inglés Peripheral Component Interconnect), AGP (en inglés Accelerated Graphics Port) y, los
más recientes, PCI Express.
Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como
circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes
((10/100 Mbit/s)/(1 Gbit/s)), evitando así la adición de tarjetas de expansión.
En la placa también existen distintos conjuntos de pines que sirven para configurar otros dispositivos:
JMDM1: Sirve para conectar un modem por el cual se puede encender el sistema cuando este recibe una señal.
JIR2: Este conector permite conectar módulos de infrarrojos IrDA, teniendo que configurar la BIOS.
JBAT1: Se utiliza para poder borrar todas las configuraciones que como usuario podemos modificar y restablecer las
configuraciones que vienen de fábrica.
JP20: Permite conectar audio en el panel frontal.
JFP1 Y JFP2: Se utiliza para la conexión de los interruptores del panel frontal y los LEDs.
JUSB1 Y JUSB3: Es para conectar puertos USB del panel frontal.
Tipos de bus
Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la
computadora.
Los buses generales son los siguientes:
• Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del
microprocesador.
• Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la
dirección de memoria del dato o dispositivo al que se hace referencia.
• Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la
unidad central y los periféricos.
• Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y
el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.
• Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos
tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2.
La velocidad de transferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del
mínimo.
Placa base 55
Placa multiprocesador
Este tipo de placa base puede acoger a varios procesadores
(generalmente de 2, 4, 8 o más). Estas placas base multiprocesador
tienen varios zócalos de microprocesador, lo que les permite conectar
varios microprocesadores físicamente distintos (a diferencia de los de
procesador de doble núcleo).
Cuando hay dos procesadores en una placa base, hay dos formas de
manejarlos:
• El modo asimétrico, donde a cada procesador se le asigna una tarea
diferente. Este método no acelera el tratamiento, pero puede asignar
una tarea a una unidad central de procesamiento, mientras que la
otra lleva a cabo a una tarea diferente.
• El modo simétrico, llamado multiprocesamiento simétrico, donde
cada tarea se distribuye de forma simétrica entre los dos
procesadores.
Linux fue el primer sistema operativo en gestionar la arquitectura de
Una placa con dos procesadores.
doble procesador en x86.[cita requerida] Sin embargo, la gestión de
varios procesadores existía ya antes en otras plataformas y otros
sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no
uniformemente distribuida
Algunos fabricantes proveen placas base que pueden acoger hasta 8 procesadores (en el caso de socket 939 para
procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon).
Tipos
La mayoría de las placas de PC vendidas después de 2001 se pueden clasificar en dos grupos:
• Las placas base para procesadores AMD
• Slot A Duron, Athlon
• Socket A Duron, Athlon, Athlon XP, Sempron
• Socket 754 Athlon 64, Mobile Athlon 64, Sempron, Turion
• Socket 939 Athlon 64, Athlon FX , Athlon X2, Sempron, Opteron
• Socket 940 Opteron y Athlon 64 FX
• Socket AM2 Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom
• Socket F Opteron
• Socket AM2 + Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom
• Socket AM3 Phenom II X2/X3/X4/x6, Athlon II X2/X3/X4, Sempron 100 Series
• Socket AM3+ Sempron, Athlon II X2/X3/X4, Phenom II X2/X3/X4/X6, FX X4/X6/X8
• Socket FM1 A4X2, A6X3/X4, A8X4, Athlon II
• Socket FM2 APU A4, APU A6, APU A8, APU A10, Athlon II X2/X4
• Las placas base para procesadores Intel
• Socket 7: Pentium I, Pentium MMX
• Slot 1: Pentium II, Pentium III, Celeron
• Socket 370: Pentium III, Celeron
• Socket 423: Pentium 4
• Socket 478: Pentium 4, Celeron
Placa base 56
• Socket 775: Pentium 4, Celeron, Pentium D (doble núcleo), Core 2 Duo, Core 2 Quad, Core 2 Extreme, Xeon
• Socket 603 Xeon
• Socket 604 Xeon
• Socket 771 Xeon
• LGA1366 Intel Core i7, Xeon (Nehalem)
• LGA 1156 Intel Core i3, Intel Core i5, Intel Core i7 (Nehalem)
• LGA 2011 Intel Core i7, Xeon (Sandy Bridge)
• LGA 1155 Intel Core i7, Intel Core i5 y Intel Core i3 (Ivy Bridge)
• LGA 1150 Intel Core i7, Intel Core i5 y Intel Core i3 (Haswell)
Formatos
Las tarjetas madre necesitan tener dimensiones
compatibles con las cajas que las contienen, de
manera que desde los primeros computadores
personales se han establecido características
mecánicas, llamadas factor de forma. Definen la
distribución de diversos componentes y las
dimensiones físicas, como por ejemplo el largo y
ancho de la tarjeta, la posición de agujeros de
sujeción y las características de los conectores.
Fabricantes
Varios fabricantes se reparten el mercado de placas base, tales como Abit, Albatron, Aopen, ASUS, ASRock,
Biostar, Chaintech, Dell, DFI, ECS EliteGroup, Epox, Foxconn, Gigabyte Technology, Intel, MSI, QDI, Sapphire
Technology, Soltek, Super Micro, Tyan, VIA, XFX, Pc Chips, Zotac.
Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblan los componentes
que terceros han diseñado y fabricado.
Medio de almacenamiento (computación) 58
Disco duro
Disco Duro
Interior de un disco duro; se aprecian dos platos con sus respectivos cabezales.
Conectado a:
• controlador de disco; en los actuales ordenadores personales, suele estar conectado en la placa madre y es de vital
importancia en el computador. mediante uno de estos sitemas
• Interfaz IDE / PATA
• Interfaz SATA
• Interfaz SAS
• Interfaz SCSI (popular en servidores)
• Interfaz FC (exclusivamente en servidores)
• Interfaz USB
• NAS mediante redes de cable / inalámbricas
Fabricantes comunes:
• Western Digital
• Seagate
• Samsung
• Hitachi
• Fujitsu
En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de
almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales.
Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una
caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota
sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su
precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento
secundario para PC desde su aparición en los años 1960. Los discos duros han mantenido su posición dominante
gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de
almacenamiento secundario.
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados
actualmente: 3,5 " los modelos para PC y servidores, 2,5 " los modelos para dispositivos portátiles. Todos se
comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más
comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en
servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe
además FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más
particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que
Disco duro 60
dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash
miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la
normativa IEC y IEEE, en lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y son los
usados por sistemas operativos de Microsoft. Esto provoca que en algunos sistemas operativos sea representado
como múltiplos 1024 o como 1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en
algunos sistemas operativos sea representado como 465 GiB (es decir gibibytes; 1 GiB = 1024 MiB) y en otros como
500 GB.
Las unidades de estado sólido tienen el mismo uso que los discos duros y emplean las mismas interfaces, pero no
están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El
uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque
hoy en día ya son muchísimo más asequibles para el mercado doméstico.
Historia
Al principio los discos duros eran extraíbles,
sin embargo, hoy en día típicamente vienen
todos sellados (a excepción de un hueco de
ventilación para filtrar e igualar la presión
del aire).
El primer disco duro, aparecido en 1956, fue
el Ramac I, presentado con la computadora
IBM 350: pesaba una tonelada y su
capacidad era de 5 MB. Más grande que una
nevera actual, este disco duro trabajaba
todavía con válvulas de vacío y requería una
consola separada para su manejo.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado 40 GB
(40 000 MB). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 4 TB, esto es, 4000 GB
(4 000 000 MB).
En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque
no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad y
superioridad.
Estructura física
Dentro de un disco duro hay uno o varios discos (de
aluminio o cristal) concéntricos llamados platos
(normalmente entre 2 y 4, aunque pueden ser hasta 6 o
7 según el modelo), y que giran todos a la vez sobre el
mismo eje, al que están unidos. El cabezal (dispositivo
de lectura y escritura) está formado por un conjunto de
brazos paralelos a los platos, alineados verticalmente y
que también se desplazan de forma simultánea, en cuya
punta están las cabezas de lectura/escritura. Por norma
general hay una cabeza de lectura/escritura para cada
superficie de cada plato. Los cabezales pueden moverse
hacia el interior o el exterior de los platos, lo cual
combinado con la rotación de los mismos permite que Componentes de un disco duro. De izquierda a derecha, fila
superior: tapa, carcasa, plato, eje; fila inferior: espuma aislante,
los cabezales puedan alcanzar cualquier posición de la
circuito impreso de control, cabezal de lectura / escritura, actuador e
superficie de los platos.. imán, tornillos.
Direccionamiento
Hay varios conceptos para referirse a zonas del disco:
• Plato: cada uno de los discos que hay dentro del
disco duro.
• Cara: cada uno de los dos lados de un plato.
• Cluster: es un conjunto de sectores.
• Cabeza: número de cabezales.
• Pistas: una circunferencia dentro de una cara; la
pista 0 está en el borde exterior.
• Cilindro: conjunto de varias pistas; son todas las
circunferencias que están alineadas verticalmente
(una de cada cara).
• Sector : cada una de las divisiones de una pista. El
tamaño del sector no es fijo, siendo el estándar
actual 512 bytes, aunque la IDEMA [1] ha creado un
comité que impulsa llevarlo a 4 KiB. Antiguamente
el número de sectores por pista era fijo, lo cual
desaprovechaba el espacio significativamente, ya Cilindro, Cabeza y Sector
que en las pistas exteriores pueden almacenarse más
sectores que en las interiores. Así, apareció la
tecnología ZBR (grabación de bits por zonas) que
aumenta el número de sectores en las pistas
exteriores, y utiliza más eficientemente el disco
duro. Así las pistas se agrupan en zonas de pistas de
igual cantidad de sectores. Cuanto más lejos del
centro de cada plato se encuentra una zona, ésta
contiene una mayor cantidad de sectores en sus
pistas. Además mediante ZBR, cuando se leen
sectores de cilindros más externos la tasa de
transferencia de bits por segundo es mayor; por
tener la misma velocidad angular que cilindros
internos pero mayor cantidad de sectores.[2] Pista (A), Sector (B), Sector de una pista (C),
Clúster (D)
• Sector geométrico: son los sectores contiguos pero
de pistas diferentes.
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores
se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA
(direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un
único número. Éste es el que actualmente se usa.
Disco duro 64
Tipos de conexión
Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es
decir pueden ser SATA, IDE, SCSI o SAS:
• IDE: Integrated Drive Electronics ("Dispositivo electrónico integrado") o ATA (Advanced Technology
Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI
(Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su
versatilidad y asequibilidad. Son planos, anchos y alargados.
• SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación.
Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI
Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de
transmisión secuencial de información puede alcanzar teóricamente los 5 Mbit/s en los discos SCSI Estándares,
los 10 Mbit/s en los discos SCSI Rápidos y los 20 Mbit/s en los discos SCSI Anchos-Rápidos (SCSI-2). Un
controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita
(daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador,
lo que posibilita una mayor velocidad de transferencia.
• SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de
datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de
transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la
actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado.
Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.
• SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue
utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la
conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de
transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de
transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos
existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.
Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones
con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por
controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.
Factor de Forma
El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser
montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos
FDD "floppy-disk drives" (en inglés).
La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado
otros tipos de disquetes con unas dimensiones más pequeñas.
• 8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).
En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las
mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones
disponibles, la de la misma altura y la de la mitad (58,7 mm).
• 5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los
discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo:
82,5 mm máximo.
Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64
pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de
forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó
Disco duro 65
Estructura lógica
Dentro del disco se encuentran:
• El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones.
• Las particiones, necesarias para poder colocar los sistemas de archivos.
Funcionamiento mecánico
Un disco duro suele tener:
• Platos en donde se graban los datos.
• Cabezal de lectura/escritura.
• Motor que hace girar los platos.
• Electroimán que mueve el cabezal.
• Circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché.
• Bolsita desecante (gel de sílice) para evitar la humedad.
Disco duro 66
• Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire.
Integridad
Debido a la distancia extremadamente pequeña entre los cabezales y la superficie del disco, cualquier contaminación
de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco
en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la
pérdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro
eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre
fabricación.
El eje del sistema del disco duro depende de la presión del aire
dentro del recinto para sostener los cabezales y su correcta altura
mientras el disco gira. Un disco duro requiere un cierto rango de
presiones de aire para funcionar correctamente. La conexión al
entorno exterior y la presión se produce a través de un pequeño
agujero en el recinto (cerca de 0,5 mm de diámetro) normalmente
con un filtro en su interior (filtro de respiración, ver abajo). Si la
presión del aire es demasiado baja, entonces no hay suficiente
impulso para el cabezal, que se acerca demasiado al disco, y se da
el riesgo de fallos y pérdidas de datos. Son necesarios discos
fabricados especialmente para operaciones de gran altitud, sobre
3.000 m. Hay que tener en cuenta que los aviones modernos tienen
Cabezal del disco duro
una cabina presurizada cuya presión interior equivale normalmente
a una altitud de 2.600 m como máximo. Por lo tanto los discos
duros ordinarios se pueden usar de manera segura en los vuelos. Los discos modernos incluyen sensores de
temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos
(normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero). El aire dentro del disco
operativo está en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de
recirculación interna para quitar cualquier contaminante que se hubiera quedado de su fabricación, alguna partícula o
componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una
operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.
Presente y futuro
Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual
permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP – Green Power),
los cuales hacen un uso más eficiente de la energía.
Unidades híbridas
Las unidades híbridas son aquellas que combinan las ventajas de las unidades mecánicas convencionales con las de
las unidades de estado sólido. Consisten en acoplar un conjunto de unidades de memoria flash dentro de la unidad
mecánica, utilizando el área de estado sólido para el almacenamiento dinámico de datos de uso frecuente
(determinado por el software de la unidad) y el área mecánica para el almacenamiento masivo de datos. Con esto se
logra un rendimiento cercano al de unidades de estado sólido a un costo sustancialmente menor. En el mercado
actual (2012), Seagate ofrece su modelo "Momentus XT" con esta tecnología.[9]
Mantenimiento y cuidado
Los discos duros también necesitan cuidado, siga las siguientes instrucciones para evitar la perdida de datos y evitar
que el disco duro quede inservible:
1. No quitar la etiqueta ligeramente plateada que se encuentra a los lados y/o algunas veces en la parte frontal, esto
puede causar que entre polvo y raye el disco, asimismo el polvo que pueda contener electricidad puede mover los
datos y causar daños.
2. No tapar los agujeros pequeños, ya que son un filtro de aire y puede causar sobrecalentamiento.
3. Realizar periódicamente copias de seguridad de la información importante, eventos como apagones o ataques de
virus pueden dañar el disco duro o la información, si ocurre un apagón desconectar el ordenador.
Disco duro 68
4. Se recomienda crear al menos dos particiones: Una para el sistema operativo y los programas y otra para los datos
del usuario. De esta forma se pueden facilitar la copia de seguridad y la restauración, al posibilitar retroceder o
reinstalar completamente el sistema operativo sin perder los datos personales en el proceso.
5. Optimizar (desfragmentar) el disco duro regularmente usando la herramienta incluida en el sistema operativo o un
programa de otro fabricante para reducir el desgaste, facilitar la recuperación en caso de un problema, y mantener
una buena velocidad de respuesta. La mayoría de los expertos parecen coincidir que debe realizarse con una
frecuencia no mayor a una vez por semana, pero no menor a una vez al mes.
6. Descargar y usar un programa que lea los datos de los sensores del disco duro (S.M.A.R.T.), para vigilar la
condición del disco duro. Si indica problemas potenciales, copiar la información importante y reemplazar el disco
duro lo más pronto posible para evitar la pérdida de información.
7. Evitar que el disco sufra golpes físicos, especialmente durante su funcionamiento. Los circuitos, cabezales y
discos pueden dañarse.
8. Si el disco duro presenta problemas de confiabilidad, un funcionamiento anormalmente lento o aparecen sin
razón aparente archivos dañados o ilegibles, analizarlo con un comprobador de disco. También se recomienda
realizar una comprobación de rutina cada cierta cantidad de meses para detectar errores menores y corregirlos
antes de que se agraven.
Fabricantes
Los recursos tecnológicos y el saber hacer requeridos para el desarrollo
y la producción de discos modernos implica que desde 2007, más del
98 % de los discos duros del mundo son fabricados por un conjunto de
grandes empresas: Seagate (que ahora es propietaria de Maxtor y
Quantum), Western Digital (propietaria de Hitachi, a la que a su vez
fue propietaria de la antigua división de fabricación de discos de IBM)
y Fujitsu, que sigue haciendo discos portátiles y discos de servidores,
pero dejó de hacer discos para ordenadores de escritorio en 2001, y el
resto lo vendió a Western Digital. Toshiba es uno de los principales Un Western Digital 3,5 pulgadas 250 GB SATA
HDD.
fabricantes de discos duros para portátiles de 2,5 pulgadas y 1,8
pulgadas. TrekStor es un fabricante alemán que en 2009 tuvo
problemas de insolvencia, pero que actualmente sigue en activo. ExcelStor es un pequeño fabricante chino de discos
duros.
Decenas de ex-fabricantes de discos duros han terminado con sus empresas fusionadas o han cerrado sus divisiones
de discos duros, a medida que la capacidad de los dispositivos y la demanda de los productos aumentó, los beneficios
eran menores y el mercado sufrió un significativa consolidación a finales de los 80 y finales de los 90. La primera
víctima en el mercado de los PC fue Computer Memories Inc.; después de un incidente con 20 MB defectuosos en
discos en 1985, la reputación de CMI nunca se recuperó, y salieron del mercado de los discos duros en 1987. Otro
notable fracaso fue el de MiniScribe, quien quebró en 1990: después se descubrió que tenía en marcha un fraude e
inflaba el número de ventas durante varios años. Otras muchas pequeñas compañías (como Kalok, Microscience,
LaPine, Areal, Priam y PrairieTek) tampoco sobrevivieron a la expulsión, y habían
Disco duro 69
• 1988: Tandon vendió su división de fabricación de discos duros a Western Digital, que era un renombrado
diseñador de controladores.
• 1989: Seagate compró el negocio de discos de alta calidad de Control Data, como parte del abandono de Control
Data en la creación de hardware.
• 1990: Maxtor compró MiniScribe que estaba en bancarrota, haciéndolo el núcleo de su división de discos de gama
baja.
• 1994: Quantum compró la división de almacenamiento de Digital Equipment otorgando al usuario una gama de
discos de alta calidad llamada ProDrive, igual que la gama tape drive de Digital Linear Tape.
• 1995: Conner Peripherals, que fue fundada por uno de los cofundadores de Seagate junto con personal de
MiniScribe, anunciaron un fusión con Seagate, la cual se completó a principios de 1996.
• 1996: JTS se fusionó con Atari, permitiendo a JTS llevar a producción su gama de discos. Atari fue vendida a
Hasbro en 1998, mientras que JTS sufrió una bancarrota en 1999.
• 2000: Quantum vendió su división de discos a Maxtor para concentrarse en las unidades de cintas y los equipos
de respaldo.
• 2003: Siguiendo la controversia en los fallos masivos en su modelo Deskstar 75GXP, pioneer IBM vendió la
mayor parte de su división de discos a Hitachi, renombrándose como Hitachi Global Storage Technologies,
Hitachi GST.
• 2003: Western Digital compró Read-Rite Corp., quien producía los cabezales utilizados en los discos duros, por
95,4 millones de dólares en metálico.
• 2005: Seagate y Maxtor anuncian un acuerdo bajo el que Seagate adquiriría todo el stock de Maxtor. Esta
adquisición fue aprobada por los cuerpos regulatorios, y cerrada el 19 de mayo de 2006.
• 2007: Western Digital adquiere Komag U.S.A., un fabricante del material que recubre los platos de los discos
duros.
• 2009: Toshiba adquiere la división de HDD de Fujitsu y TrekStor se declara en bancarrota, aunque ese mismo año
consiguen un nuevo inversor para mantener la empresa a flote.
• 2011: Western Digital adquiere Hitachi GST y Seagate compra la división de HDD de Samsung.
Disco duro 70
Referencias
[1] http:/ / www. idema. org/
[2] http:/ / www. youbioit. com/ es/ article/ shared-information/ 5320/ como-funcionan-los-discos-rigidos Cómo funcionan los discos rígidos
[3] http:/ / www3. toshiba. co. jp/ storage/ english/ spec/ hdd/ mk4001. htm
[4] http:/ / www. tuexpertoit. com/ 2011/ 12/ 22/ la-diferencia-de-precio-entre-ssd-y-discos-duros-se-reduce/ Comparativas de precios SSD
versus disco duro
[5] http:/ / alt1040. com/ 2010/ 11/ discos-de-estado-solido-ssd-o-como-hacer-que-tu-computadora-sea-realmente-rapida?utm_source=self&
utm_medium=nav& utm_campaign=Relacionados Discos de estado sólido (SSD) o cómo hacer que tu computadora sea realmente rápida
[6] http:/ / sololinex. wordpress. com/ 2008/ 09/ 09/ comparativa-entre-disco-duro-y-disco-ssd-en-video/ #more-755 Comparativa entre disco
duro y disco SSD en vídeo
[7] http:/ / www. diarioti. com/ noticia/ Presentan_la_primera_supercomputadora_Flash_del_mundo/ 30931 Presentan la primera
supercomputadora Flash del mundo
[8] http:/ / www. orlandoalonzo. com. mx/ tecnologia/ ssd-la-verdad-sobre-el-consumo-de-energia/ SSD: la verdad sobre el consumo de energía
[9] http:/ / www. seagate. com/ www/ es-es/ products/ laptops/ laptop-hdd/
Bibliografía
• Ciriaco García de Celis (1994). « 12.7: El disco duro del AT (IDE, MFM, BUS LOCAL). (http://www.gui.uva.
es/udigital/1207.html)». El universo digital del IBM PC, AT y PS/2 (4ª edición). Facultad de Ciencias de
Valladolid: Grupo Universitario de Informática.
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Disco duro. Commons
• Video de su funcionamiento (http://video.google.com/videoplay?docid=-744683267829297106&q=hard+
drive+in+action&pl=true) (en inglés).
• Todo sobre el disco duro (http://www.monografias.com/trabajos14/discosduros/discosduros.shtml) (en
español).
• Disco duro y particiones (http://www.saulo.net/pub/ddypart) (en español).
• Historia del disco duro (http://www.virtuaside.com/docs/historia-hds.php) (en español).
• Video explicativo sobre el funcionamiento de los discos duros (http://www.microsiervos.com/archivo/
tecnologia/discos-duros-por-dentro.html) (en español).
• IDEMA (http://www.idema.org/) (en inglés).
Memoria de acceso aleatorio 71
Nomenclatura
La expresión memoria RAM se utiliza frecuentemente para describir a los módulos de memoria utilizados en los
computadores personales y servidores. En el sentido estricto, esta memoria es solo una variedad de la memoria de
acceso aleatorio: las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de
procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los
módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados
soldados sobre un circuito impreso independiente, en otros dispositivos como las consolas de videojuegos, la RAM
va soldada directamente sobre la placa principal.
Memoria de acceso aleatorio 72
Historia
Uno de los primeros tipos de memoria RAM
fue la memoria de núcleo magnético,
desarrollada entre 1949 y 1952 y usada en
muchos computadores hasta el desarrollo de
circuitos integrados a finales de los años 60 y
principios de los 70. Esa memoria requería que
cada bit estuviera almacenado en un toroide de
material ferromágnetico de algunos milímetros
de diámetro, lo que resultaba en dispositivos
con una capacidad de memoria muy pequeña.
Antes que eso, las computadoras usaban relés
y líneas de retardo de varios tipos construidas
para implementar las funciones de memoria
principal con o sin acceso aleatorio.
En 1969 fueron lanzadas una de las primeras Integrado de silicio de 64 bits sobre un sector de memoria de núcleo magnético
memorias RAM basadas en semiconductores (finales de los 60).
impreso principal, impedía la miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP,
aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los
pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de
expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.
A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido,
dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie
de mejoras en el direccionamiento como las siguientes:
• FPM-RAM (Fast Page Mode RAM)
Inspirado en técnicas como el "Burst Mode" usado en
procesadores como el Intel 486, se implantó un modo
direccionamiento en el que el controlador de memoria envía una
sola dirección y recibe a cambio esa y varias consecutivas sin
necesidad de generar todas las direcciones. Esto supone un ahorro
de tiempos ya que ciertas operaciones son repetitivas cuando se
desea acceder a muchas posiciones consecutivas. Funciona como
si deseáramos visitar todas las casas en una calle: después de la
primera vez no seria necesario decir el número de la calle
únicamente seguir la misma. Se fabricaban con tiempos de acceso
de 70 ó 60 ns y fueron muy populares en sistemas basados en el
486 y los primeros Pentium.
Módulos formato SIMM de 30 y 72 pines, los últimos
• EDO-RAM (Extended Data Output RAM) fueron utilizados con integrados tipo EDO-RAM.
Tecnologías de memoria
La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de
manera que siempre está sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y
EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que
permiten construir integrados que funcionen a una frecuencia superior a 66 MHz.
Tipos de DIMMs según su cantidad de Contactos o Pines:
• 72-pin SO-DIMM (no el mismo que un 72-pin SIMM), usados por FPM DRAM y EDO DRAM
• 100-pin DIMM, usados por printer SDRAM
• 144-pin SO-DIMM, usados por SDR SDRAM
• 168-pin DIMM, usados por SDR SDRAM (menos frecuente para FPM/EDO DRAM en áreas de trabajo y/o
servidores)
• 172-pin MicroDIMM, usados por DDR SDRAM
Memoria de acceso aleatorio 74
SDR SDRAM
Memoria síncrona, con tiempos de acceso
de entre 25 y 10 ns y que se presentan en
módulos DIMM de 168 contactos. Fue
utilizada en los Pentium II y en los Pentium
III , así como en los AMD K6, AMD Athlon
K7 y Duron. Está muy extendida la creencia
de que se llama SDRAM a secas, y que la
denominación SDR SDRAM es para
diferenciarla de la memoria DDR, pero no
Memorias RAM con tecnologías usadas en la actualidad.
es así, simplemente se extendió muy rápido
la denominación incorrecta. El nombre
correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos
disponibles son:
RDRAM
Se presentan en módulos RIMM de 184 contactos. Fue utilizada en los Pentium IV . Era la memoria más rápida en
su tiempo, pero por su elevado costo fue rápidamente cambiada por la económica DDR. Los tipos disponibles son:
• PC600: RIMM RDRAM, funciona a un máximo de 300 MHz.
• PC700: RIMM RDRAM, funciona a un máximo de 356 MHz.
• PC800: RIMM RDRAM, funciona a un máximo de 400 MHz.
• PC1066: RIMM RDRAM, funciona a un máximo de 533 MHz.
DDR SDRAM
Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del
bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos
en el caso de ordenador de escritorio y en módulos de 144 contactos para los ordenadores portátiles. Los tipos
disponibles son:
• PC1600 o DDR 200: funciona a un máx de 200 MHz.
• PC2100 o DDR 266: funciona a un máx de 266,6 MHz.
• PC2700 o DDR 333: funciona a un máx de 333,3 MHz.
• PC3200 o DDR 400: funciona a un máx de 400 MHz.
• PC4500 o DRR 500: funciona a una máx de 500 MHz
Memoria de acceso aleatorio 75
DDR2 SDRAM
Las memorias DDR 2 son una mejora de las
memorias DDR (Double Data Rate), que
permiten que los búferes de entrada/salida
trabajen al doble de la frecuencia del núcleo,
permitiendo que durante cada ciclo de reloj se
realicen cuatro transferencias. Se presentan en
módulos DIMM de 240 contactos. Los tipos
disponibles son:
DDR3 SDRAM
Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento
en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM
DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles,
debido a una ubicación diferente de la muesca. Los tipos disponibles son:
• PC3-6400 o DDR3-800: funciona a un máx de 800 MHz.
• PC3-8500 o DDR3-1066: funciona a un máx de 1066,6 MHz.
• PC3-10600 o DDR3-1333: funciona a un máx de 1333,3 MHz.
• PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.
• PC3-14900 o DDR3-1866: funciona a un máx de 1866,6 MHz.
• PC3-17000 o DDR3-2133: funciona a un máx de 2133,3 MHz.
• PC3-19200 o DDR3-2400: funciona a un máx de 2400 MHz.
• PC3-21300 o DDR3-2666: funciona a un máx de 2666,6 MHz.
Memoria de acceso aleatorio 76
La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al
establecimiento de estándares de la industria como los JEDEC.
• Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 ó 32 bits
• Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits.
• Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.
Memoria de acceso aleatorio 77
• Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No
es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía
en dos etapas.Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada estándar de
módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad
máxima por módulo.
• Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia
a los integrados. Están las líneas de comunicación para el integrado de presencia que sirve para identificar cada
módulo. Están las líneas de control entre las que se encuentran las llamadas RAS (row address strobe) y CAS
(column address strobe) que controlan el bus de direcciones, por último están las señales de reloj en las memorias
sincrónicas SDRAM.
Algunos controladores de memoria en sistemas como PC y servidores se encuentran embebidos en el llamado "North
Bridge" o "Puente Norte" de la placa base. Otros sistemas incluyen el controlador dentro del mismo procesador (en
el caso de los procesadores desde AMD Athlon 64 e Intel Core i7 y posteriores). En la mayoría de los casos el tipo
de memoria que puede manejar el sistema está limitado por los sockets para RAM instalados en la placa base, a pesar
que los controladores de memoria en muchos casos son capaces de conectarse con tecnologías de memoria distintas.
Una característica especial de algunos controladores de memoria, es el manejo de la tecnología canal doble (Dual
Channel), donde el controlador maneja bancos de memoria de 128 bits, siendo capaz de entregar los datos de manera
intercalada, optando por uno u otro canal, reduciendo las latencias vistas por el procesador. La mejora en el
desempeño es variable y depende de la configuración y uso del equipo. Esta característica ha promovido la
modificación de los controladores de memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875 de
Memoria de acceso aleatorio 78
Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal doble , reemplazo el 754 de canal sencillo).
Los equipos de gama media y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble canal
o superior, como en el caso del zócalo (o socket, en inglés) 1366 de Intel, que usaba un triple canal de memoria, o su
nuevo LGA 2011 que usa cuádruple canal.
Referencias
[1] http:/ / download. micron. com/ pdf/ datasheets/ modules/ ddr2/ HTJ_S36C512_1Gx72. pdf
[2] http:/ / www. theinquirer. net/ inquirer/ news/ 1014319/ fb-dimm-dead-rddr3-king
Símbolo USB
Tipo Bus
Historia de producción
Fabricante IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital Equipment Corporation y NEC
Sustituye a Puerto serie, puerto paralelo, puerto de juegos, Apple Desktop Bus, PS/2
Especificaciones
Conectable en caliente Sí
Externo Sí
Electrico 5 voltios CC
Ancho 1 bit
Protocolo Serial
Conector Único
Patillaje
Universal Serial Bus 80
Conectores tipo A (izquierda) y B (derecha) vistos desde la parte posterior (cable) a la frontal
(conector).
Pin 2 Data-
Pin 3 Data+
Pin 4 Masa
El Universal Serial Bus (USB) (bus universal en serie BUS) es un estándar industrial desarrollado a mediados de
los años 1990 que define los cables, conectores y protocolos usados en un bus para conectar, comunicar y proveer de
alimentación eléctrica entre ordenadores y periféricos y dispositivos electrónicos. La iniciativa del desarrollo partió
de Intel que creó el USB Implementers Forum[1] junto con IBM, Northern Telecom, Compaq, Microsoft, Digital
Equipment Corporation y NEC en 1996 se lanzó la primera especificación (USB 1.0), la cual no fue popular, hasta
1998 con (USB 1.1). Actualmente agrupa a más de 685 compañías.[2]
USB fue diseñado para estandarizar la conexión de periféricos, como mouse, teclados, memorias USB, joysticks,
escáneres, cámaras digitales, teléfonos móviles, reproductores multimedia, impresoras, dispositivos
multifuncionales, sistemas de adquisición de datos, módems, tarjetas de red, tarjetas de sonido, tarjetas
sintonizadoras de televisión y grabadora de DVD externa, discos duros externos y disquetera externas. Su éxito ha
sido total, habiendo desplazado a conectores como el puerto serie, puerto paralelo, puerto de juegos, Apple Desktop
Bus o PS/2 a mercados-nicho o a la consideración de dispositivos obsoletos a eliminar de los modernos ordenadores,
pues muchos de ellos pueden sustituirse por dispositivos USB que implementen esos conectores.
Su campo de aplicación se extiende en la actualidad a cualquier dispositivo electrónico o con componentes, desde los
automóviles (las radios de automóvil modernas van convirtiéndose en reproductores multimedia con conector USB o
iPod) a los reproductores de Blu-ray Disc o los modernos juguetes como Pleo. Se han implementado variaciones
para su uso industrial e incluso militar. Pero en donde más se nota su influencia es en los teléfonos inteligentes
(Europa ha creado una norma por la que todos los móviles deberán venir con un cargador microUSB), tabletas,
PDAs y videoconsolas, donde ha reemplazado a conectores propietarios casi por completo.
Desde 2004 , aproximadamente 6 mil millones de dispositivos se encuentran actualmente en el mercado global, y
alrededor de 2 mil millones se venden cada año.
Algunos dispositivos requieren una potencia mínima, así que se pueden conectar varios sin necesitar fuentes de
alimentación extra. Para ello existen concentradores (llamados USB hubs) que incluyen fuentes de alimentación para
aportar energía a los dispositivos conectados a ellos, pero algunos dispositivos consumen tanta energía que necesitan
su propia fuente de alimentación. Los concentradores con fuente de alimentación pueden proporcionarle corriente
eléctrica a otros dispositivos sin quitarle corriente al resto de la conexión (dentro de ciertos límites).
En el caso de los discos duros, sólo una selecta minoría implementan directamente la interfaz USB como conexión
nativa, siendo los discos externos mayoritariamente IDE o Serial ATA con un adaptador en su interior. Incluso
existen cajas externas y cunas que implementan conectores eSATA y USB, incluso USB 3.0. Estas y las mixtas
Universal Serial Bus 81
USB/FireWire han expulsado del mercado de discos externos a SCSI y las conexiones por puerto paralelo.
Velocidades de transmisión
Pin Nombre Color del cable Descripción
2 D− Blanco Data −
3 D+ Verde Data +
• Ediciones previas:
El estándar USB evolucionó a través de varias versiones antes de su lanzamiento oficial en 1996:
USB 0.7: Lanzado en noviembre de 1994.
USB 0.8: Lanzado en diciembre de 1994.
USB 0.9: Lanzado en abril de 1995.
USB 0.99: Lanzado en agosto de 1995.
USB 1.0 Release Candidate: Lanzado en noviembre de 1995.
Los dispositivos USB se clasifican en cuatro tipos según su velocidad de transferencia de datos:
• Baja velocidad (1.0): Tasa de transferencia de hasta 1,5 Mbit/s (188 kB/s). Utilizado en su mayor parte por
dispositivos de interfaz humana (Human Interface Device, en inglés) como los teclados, los ratones (mouse), las
cámaras web, etc.
• Velocidad completa (1.1): Tasa de transferencia de hasta 12 Mbit/s (1,5 MB/s) según este estándar, pero se dice
en fuentes independientes que habría que realizar nuevamente las mediciones. Ésta fue la más rápida antes de la
especificación USB 2.0, y muchos dispositivos fabricados en la actualidad trabajan a esta velocidad. Estos
dispositivos dividen el ancho de banda de la conexión USB entre ellos, basados en un algoritmo de impedancias
LIFO.
• Alta velocidad (2.0): Tasa de transferencia de hasta 480 Mbit/s (60 MB/s) pero con una tasa real práctica máxima
de 280 Mbit/s (35 MB/s). El cable USB 2.0 dispone de cuatro líneas, un par para datos, y otro par de
alimentación.
• Superalta velocidad (3.0): Tiene una tasa de transferencia de hasta 4,8 Gbit/s (600 MB/s). La velocidad del bus
es diez veces más rápida que la del USB 2.0, debido a que han incluido 5 contactos adicionales, desechando el
conector de fibra óptica propuesto inicialmente, y será compatible con los estándares anteriores. En octubre de
2009 la compañía taiwanesa ASUS lanzó la primera placa base que incluía puertos USB 3.0, tras ella muchas
otras le han seguido y actualmente se ve cada vez más en placas base y portátiles nuevos, conviviendo junto con
el USB 2.0.[3][4]
Las señales del USB se transmiten en un cable de par trenzado con impedancia característica de 90 Ω ± 15%, cuyos
hilos se denominan D+ y D-. Éstos, colectivamente, utilizan señalización diferencial en half dúplex excepto el USB
3.0 que utiliza un segundo par de hilos para realizar una comunicación en full dúplex. La razón por la cual se realiza
la comunicación en modo diferencial es simple, reduce el efecto del ruido electromagnético en enlaces largos. D+ y
D- suelen operar en conjunto y no son conexiones simples. Los niveles de transmisión de la señal varían de 0 a 0,3 V
para bajos (ceros) y de 2,8 a 3,6 V para altos (unos) en las versiones 1.0 y 1.1, y en ±400 mV en alta velocidad (2.0).
En las primeras versiones, los alambres de los cables no están conectados a masa, pero en el modo de alta velocidad
se tiene una terminación de 45 Ω a masa o un diferencial de 90 Ω para acoplar la impedancia del cable. Este puerto
sólo admite la conexión de dispositivos de bajo consumo, es decir, que tengan un consumo máximo de 100 mA por
cada puerto; sin embargo, en caso de que estuviese conectado un dispositivo que permite 4 puertos por cada salida
Universal Serial Bus 82
USB (extensiones de máximo 4 puertos), entonces la energía del USB se asignará en unidades de 100 mA hasta un
máximo de 500 mA por puerto. Con la primera fabricación de un PC con USB 3.0 en 2009, ahora tenemos 1 A (un
amperio) por puerto, lo cual da 5 W (cinco vatios) en lugar de 0,5 A (500 mA, 2,5W) como máximo.
Miniplug/Microplug
Pin Nombre Color Descripción
2 D- Blanco Data -
3 D+ Verde Data +
Compatibilidad y conectores
Memoria USB
Prolongador USB3.0
Los cables de datos son un par trenzado para reducir el ruido y las interferencias
Tipos diferentes de conectores USB (de izquierda a derecha): micro USB macho, mini USB, tipo B macho, tipo A
hembra, tipo A macho.
Una memoria USB como ésta implementará normalmente la clase de dispositivo de almacenamiento masivo USB
El estándar USB especifica tolerancias mecánicas relativamente amplias para sus conectores, intentando maximizar
la compatibilidad entre los conectores fabricados por la compañía ―una meta a la que se ha logrado llegar. El
estándar USB, a diferencia de otros estándares también define tamaños para el área alrededor del conector de un
dispositivo, para evitar el bloqueo de un puerto adyacente por el dispositivo en cuestión.
Las especificaciones USB 1.0, 1.1 y 2.0 definen dos tipos de conectores para conectar dispositivos al servidor: A y
B. Sin embargo, la capa mecánica ha cambiado en algunos conectores. Por ejemplo, el IBM UltraPort es un conector
USB privado localizado en la parte superior del LCD de los ordenadores portátiles de IBM. Utiliza un conector
mecánico diferente, mientras mantiene las señales y protocolos característicos del USB. Otros fabricantes de
artículos pequeños han desarrollado también sus medios de conexión pequeños, y ha aparecido una gran variedad de
ellos, algunos de baja calidad.
Una extensión del USB llamada "USB On The Go" (sobre la marcha) permite a un puerto actuar como servidor o
como dispositivo; esto se determina por qué lado del cable está conectado al aparato. Incluso después de que el cable
está conectado y las unidades se están comunicando, las 2 unidades pueden "cambiar de papel" bajo el control de un
programa. Esta facilidad está específicamente diseñada para dispositivos como PDA, donde el enlace USB podría
conectarse a un PC como un dispositivo, y conectarse como servidor a un teclado o ratón. El "USB-On-The-Go"
también ha diseñado 3 conectores pequeños, el mini-A y el mini-B, así que esto debería detener la proliferación de
conectores miniaturizados de entrada.
Universal Serial Bus 84
Wireless USB
Wireless USB (normalmente abreviado W-USB o WUSB) es un protocolo de comunicación inalámbrica por radio
con gran ancho de banda que combina la sencillez de uso de USB con la versatilidad de las redes inalámbricas.
Utiliza como base de radio la plataforma Ultra-WideBand desarrollada por WiMedia Alliance, que puede lograr tasas
de transmisión de hasta 480 Mbit/s (igual que USB 2.0) en rangos de tres metros y 110 Mbit/s en rangos de diez
metros y opera en los rangos de frecuencia de 3,1 a 10,6 GHz. Actualmente se está en plena transición y aún no
existen muchos dispositivos que incorporen este protocolo, tanto clientes como anfitriones. Mientras dure este
proceso, mediante los adaptadores y/o cables adecuados se puede convertir un equipo WUSB en uno USB y
viceversa.
USB 3.0
La principal característica es la multiplicación por 10 de la velocidad de transferencia, que pasa de los 480 Mbit/s a
los 4,8 Gbit/s (600 MB/s).
Otra de las características de este puerto es su "regla de inteligencia": los dispositivos que se enchufan y después de
un rato quedan en desuso, pasan inmediatamente a un estado de bajo consumo.
A la vez, la intensidad de la corriente se incrementa de los 500 a los 900 miliamperios, que sirve para abastecer a un
teléfono móvil o un reproductor audiovisual portátil en menos tiempo.
Por otro lado, aumenta la velocidad en la transmisión de datos, ya que en lugar de funcionar con tres líneas, lo hace
con cinco. De esta manera, dos líneas se utilizan para enviar, otras dos para recibir, y una quinta se encarga de
suministrar la corriente. Así, el tráfico es bidireccional (Full dúplex).
A finales de 2009, fabricantes como Asus o Gigabyte presentaron placas base con esta nueva revisión del bus. La
versión 3.0 de este conector universal es 10 veces más rápida que la anterior. Aquellos que tengan un teclado o un
ratón de la versión anterior no tendrán problemas de compatibilidad, ya que el sistema lo va a reconocer al instante,
aunque no podrán beneficiarse de los nuevos adelantos de este puerto usb serial bus.
En la feria Consumer Electronics Show (CES), que se desarrolló en Las Vegas, Estados Unidos, se presentaron
varios aparatos que vienen con el nuevo conector. Tanto Western Digital como Seagate anunciaron discos externos
equipados con el USB 3.0, mientras que Asus, Fujitsu y HP anunciaron que tendrán modelos portátiles con este
puerto.
Según se comenta en algunos blogs especializados[cita requerida], desde que se anunció el USB 3.0 Intel estaría
intentando retrasar su adopción como nuevo estándar para impulsar su propio conector alternativo, llamado
Thunderbolt, aunque el USB ya cuenta con el aval de toda la industria mientras que Thunderbolt sólo con el de la
misma Intel y Apple. Esta última es conocida por tener una cuota de mercado de alrededor del 5% en computadoras
domésticas y portátiles.
Principales diferencias entre USB 2.0 y 3.0 La principal diferencia apreciable, es la velocidad de transferencia de
datos, que es muy superior en el estándar USB 3.0. El soporte de formatos HD es casi nulo en USB 2.0, pero es
ampliamente soportado por USB 3.0. Los dispositivos USB 3.0 se pueden conectar en puertos USB 2.0 y viceversa.
Características de USB 3.0 A diferencia del USB 2.0, esta nueva tecnología (USB 3.0 Super Speed), es casi diez
veces más rápida, ya que transfiere datos a 600 MB/s. También, podemos notar que cuenta con soporte para
dispositivos HD externos, lo que aumenta su rendimiento.
Universal Serial Bus 85
USB On-The-Go
USB On-The-Go, frecuentemente abreviado como USB OTG, es una especificación que permite a los dispositivos
USB como reproductores digitales de audio, teléfonos móviles o tabletas, actuar como servidores facilitando que se
puedan conectar memorias y discos duros USB, ratones o teclados.[5]
Comparativa de velocidades
Conexiones de dispositivos externos
• Firewire 800: 100 MB/s
• Firewire s1600: 200 MB/s
• Firewire s3200: 400 MB/s
• USB 1.0: 0,19 MB/s
• USB 1.1: 1,5 MB/s
• USB 2.0: 60 MB/s
• USB 3.0: 600 MB/s
• USB 3.1: 1280 MB/s
Conexiones de dispositivos externos de alta velocidad Cargador de teléfono MicroUSB
• e-SATA: 300 MB/s[6]
• USB 3.0: 600 MB/s[7]
• Thunderbolt: 1200 MB/s[8]
• USB 3.1: 1280 MB/s
Conexiones para tarjetas de expansión
• PCI Express 1.x (x1): 250 MB/s
• PCI Express 2.0 (x1): 500 MB/s
• PCI Express 1.x (x8): 2000 MB/s
• PCI Express 2 (x8): 4000 MB/s
• PCI Express 1.x (x16): 4000 MB/s
USB mini ventiladores
• PCI Express 2 (x16): 8000 MB/s
Referencias
[1] About USB Implementers Forum, Inc. (http:/ / www. usb. org/ about)
[2] Company List (https:/ / www. usb. org/ members_landing/ directory?complex_search_companies=1) del USB Implementers Forum
[3] Shankland, Stephen. USB 3.0 brings optical connection in 2008. (http:/ / www. news. com/ 8301-10784_3-9780794-7. html) CNET
News.com. Retrieved on 2007-09-19.
[4] Demerjian, Charlie. Gelsinger demos USB 3.0, PICe 3.0 and other new toys. (http:/ / www. theinquirer. net/ ?article=42440) The Inquirer.
Consultado el 2007-09-19.
[5] en:USB_On-The-Go
[6] http:/ / en. wikipedia. org/ wiki/ Serial_ATA#eSATA
[7] http:/ / www. usb. org/ developers/ ssusb
[8] http:/ / www. apple. com/ es/ thunderbolt/
Enlaces externos
Wikilibros
• Wikilibros en inglés alberga un libro o manual sobre Serial Programming:USB Technical Manual.
• Wikimedia Commons alberga contenido multimedia sobre Universal Serial BusCommons.
• USB,incluyendo documentación (http://www.usb.org) (en inglés)
• Puertos E/S: Puertos USB (http://www.zator.com/Hardwre/H2_5_3.htm)
• US Ecológico (http://www.elonido13.com/detalle-noticia.asp?id=1103)
• Linux USB Project (http://www.linux-usb.org/) (en inglés)
Fuente de alimentación
En electrónica, una fuente de alimentación es un dispositivo que
convierte la tensión alterna, en una o varias tensiones, prácticamente
continuas, que alimentan los distintos circuitos del aparato electrónico
al que se conecta (ordenador, televisor, impresora, router, etc.).
Clasificación
Las fuentes de alimentación, para dispositivos electrónicos, pueden
clasificarse básicamente como fuentes de alimentación lineales y
conmutadas. Las lineales tienen un diseño relativamente simple, que Fig. 1 - Fuente de alimentación para PC formato
ATX (sin cubierta superior, para mostrar su
puede llegar a ser más complejo cuanto mayor es la corriente que
interior y con el ventilador a un lado).
deben suministrar, sin embargo su regulación de tensión es poco
eficiente. Una fuente conmutada, de la misma potencia que una lineal,
será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.
Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida.
La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el
ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es
diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor
continuo. La salida puede ser también un filtro de condensador o uno del tipo LC.
Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra
parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.
Fuente de alimentación 89
Especificaciones
Una especificación fundamental de las fuentes de alimentación es el rendimiento, que se define como la potencia
total de salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en
este aspecto.
El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la
corriente.
La fuente debe mantener la tensión de salida al voltaje solicitado independientemente de las oscilaciones de la línea,
regulación de línea o de la carga requerida por el circuito, regulación de carga.
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Fuente de alimentaciónCommons.
• Explicación de los circuitos que forman un Fuente de alimentación [1]
Referencias
[1] http:/ / www. ifent. org/ lecciones/ CAP16. htm
Serial ATA 90
Serial ATA
SATA : Serial Advanced Technology Attachment
Historia de producción
Diseñado en 2003
Especificaciones
Externo Sí, con eSATA. Y por USB, con case o caja externa.
Pines 7
Patillaje
Serial ATA o SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de
datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, lectores y
regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo
todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores
velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y
capacidad para conectar unidades al instante, es decir, insertar el dispositivo sin tener que apagar el ordenador o que
sufra un cortocircuito como con los viejos Molex.
Actualmente es una interfaz aceptada y estandarizada en las placas base de PC. La Organización Internacional Serial
ATA (SATA-IO) es el grupo responsable de desarrollar, de manejar y de conducir la adopción de especificaciones
estandarizadas de Serial ATA. Los usuarios de la interfaz SATA se benefician de mejores velocidades, dispositivos
Serial ATA 91
de almacenamientos actualizables de manera más simple y configuración más sencilla. El objetivo de SATA-IO es
conducir a la industria a la adopción de SATA definiendo, desarrollando y exponiendo las especificaciones estándar
para la interfaz SATA.
Historia
A principios del año 2000 se formó un grupo con el nombre de Serial ATA Working Group OG. Los miembros
fundadores del grupo continuaron formando el Serial ATA II Working Group para seguir con el desarrollo de la
siguiente generación de especificaciones para Serial ATA. La nueva organización, SATA-IO, toma las tareas de
mantenimiento de las especificaciones, promoción y venta de Serial ATA. Además de crear una futura interfaz con
especificaciones de velocidad que encabecen la tecnología de almacenamiento durante la siguiente década.
El cambio de Serial ATA II Working Group a una asociación industrial formal fue tomado por el Serial ATA II
Steering Committee que encontró que un beneficio comercial mutuo les daría mayor ventaja a la hora de promover
cualquier actividad necesaria para la adopción de Serial ATA. La SATA-IO se dedica a construir un mercado robusto
y maduro para las ofertas de Serial ATA. Y, en su caso, seguirá actividades tales como: un programa de
concienciación tecnológica y de logo, laboratorios de interoperabilidad y encuentros cara a cara.
La diferencia principal entre un grupo de trabajo y una asociación industrial formal es que la segunda es una entidad
independiente legalmente. Así es posible tener un presupuesto más formalizado y es capaz de amparar actividades
para el desarrollo de SATA. Los miembros de SATA-IO tienen la capacidad de influir o contribuir directamente al
desarrollo de las especificaciones de SATA.
Miembros
La adición de miembros a SATA-IO está abierta miembros a la especificación y al sitio Web del desarrollo de las
especificaciones.
• Elegibilidad para participar en los laboratorios de interoperabilidad de Serial ATA (Plugfests).
• Oportunidades para participar en programas de marketing y eventos, como cartas de prensa, muestras de
productos en el sitio Web, etc.
• Uso de los logos SATA-IO.
• Descuentos para eventos SATA-IO.
• Promoción de la compañía y enlaces desde el sitio Web de SATA-IO.
Los promotores del grupo SATA-IO incluyen a Dell Computer Corporation, Maxtor Corporation, Seagate
Technology, Western Digital Corporation, Hitachi High-Technologies Corporation y Vitesse Semiconductor. El
número actual de miembros es de 206 compañías que incluyen a todas las compañías conocidas del mundo
informático, ya sea de software como de hardware. Sun Microsystems, Hewlett-Packard, Samsung, IBM, etc.
Para hacerse miembro del SATA-IO hay que firmar el acuerdo de calidad de miembro (Membership Agreement) y
pagar una cuota anual de $1,500 en las oficinas de SATA-IO.
Velocidades
Al referirse a velocidades de transmisión, conviene recordar que en ocasiones se confunden las unidades de medida,
y que las especificaciones de la capa física se refieren a la tasa real de datos, mientras que otras especificaciones se
refieren a capacidades lógicas.
La primera generación específica en transferencias de 150 MB por segundo, también conocida por SATA 150 MB/s
o Serial ATA-150. Actualmente se comercializan dispositivos SATA II, a 300 MB/s, también conocida como Serial
ATA-300 y los SATA III con tasas de transferencias de hasta 600 MB/s.
Las unidades que soportan la velocidad de 3Gb/s son compatibles con un bus de 1,5 Gb/s.
Serial ATA 92
En la siguiente tabla se muestra el cálculo de la velocidad real de SATA I 1,5 Gb/s, SATA II 3 Gb/s y SATA III 6
Gb/s:
Bits/clock 1 1 1
bits/Byte 8 8 8
Topología
SATA es una arquitectura "punto a
punto". Es decir, la conexión entre
puerto y dispositivo es directa, cada
dispositivo se conecta directamente a
un controlador SATA, no como
sucedía en los viejos PATA que las
interfaces se segmentaban en maestras
y esclavas.
Cables y conexiones
Los conectores y los cables son la
diferencia más visible entre las
unidades SATA y las ATA. Al
contrario que los ATA, se usa el
mismo conector en las unidades de
almacenamiento de equipos de
escritorio o servidores (3,5 pulgadas) y
los de los portátiles (2,5 pulgadas). Gráfico de la topología SATA: host – multiplicador - dispositivo.
Esto permite usar las unidades de 2,5
pulgadas en los sistemas de escritorio sin necesidad de usar adaptadores a la vez que disminuyen los costes.
SATA Externo
Fue estandarizado a mediados de 2004, con definiciones específicas de cables, conectores y requisitos de la señal
para unidades eSATA externas. eSATA se caracteriza por:
• Velocidad de SATA en los discos externos (se han medido 115 MB/s con RAID externos)
• Sin conversión de protocolos de PATA/SATA a USB/Firewire, todas las características del disco están
disponibles para el anfitrión.
• La longitud de cable se restringe a 2 metros; USB y Firewire permiten mayores distancias.
• Se aumentó la tensión de transmisión mínima y máxima a 500mV - 600mV (de 400 mV - 600 mV)
• Voltaje recibido disminuido a 240 mV - 600 mV (de 325 mV - 600 mV)
• Capacidad de disposición de los discos en RAID 0 y RAID
Actualmente, la mayoría de las placas base han empezado a incluir conectores eSATA, también es posible usar
adaptadores de bus o tarjetas PC Card y CardBus para portátiles que aún no integran el conector.
Serial ATA 93
Alternativas
También en SCSIW se está preparando un sistema en serie, que además es compatible con SATA, esto es, se podrán
conectar discos SATA en una controladora SAS (Serial Attached SCSI). El Serial ATA transfiere los datos por un
bus de 7 hilos mucho más delgado y fino que el anterior Parallel ATA que lo hacía por uno de 80 o 40 hilos, lo que
permite una mayor circulación de aire en ventilación dentro del equipo disminuyendo así su calentamiento interno y
externo.
Enlaces externos
• Organización Internacional Serial ATA (SATA-IO) [1]
• Serial ATA International Organisation [2]
• Tecnologías de interfaces de almacenamiento [3]
• Grupo de trabajo T13 [4]
• International Committee of Information Technology Standards [5]
• La lista de los miembros actuales de SATA-IO se puede encontrar en la página oficial de SATA-IO [6].
• Wikimedia Commons alberga contenido multimedia sobre Serial ATACommons.y los conectores SATA
(castellano)
Referencias
[1] http:/ / www. serialata. org
[2] http:/ / www. sata-io. org
[3] http:/ / www. itnews. ec/ marco/ 000016. aspx
[4] http:/ / www. t13. org
[5] http:/ / www. incits. org
[6] http:/ / www. sata-io. org/ membershiplist. asp
ATX 94
ATX
El estándar ATX (Advanced Technology Extended) se
desarrolló como una evolución del factor de forma[1]
de Baby-AT, para mejorar la funcionalidad de los
actuales E/S y reducir el costo total del sistema. Este
fue creado por Intel en 1995. Fue el primer cambio
importante en muchos años en el que las
especificaciones técnicas fueron publicadas por Intel en
1995 y actualizadas varias veces desde esa época, la
versión más reciente es la 2.2 [1] publicada en 2004.
Ventajas de ATX
• Integración de los puertos E/S en la propia placa base.
• La rotación de 90º de los formatos anteriores.
• El procesador está en paralelo con los slots de memoria, cerca de la toma de aire de la fuente de alimentación,
aprovechando el flujo de aire y reduciendo la temperatura.
• Los slots AGP, PCI, PCI-e, están situados horizontalmente con el procesador.
• Tiene mejor refrigeración.
• Reduce costes de fabricación y mantenimiento.
ATX 95
Molex de 24 pines (20+4) (placa base). Molex de 24 pines (20+4) (fuente alimentación).
+3.3 V 1 13 +3.3 V
+3.3 V 2 14 -12 V
Tierra 3 15 Tierra
+5 V 4 16 PS_ON
Tierra 5 17 Tierra
+5 V 6 18 Tierra
Tierra 7 19 Tierra
Power OK 8 20 -5 V(opcional)
+5 VSB 9 21 +5 V
+12 V 10 22 +5 V
+12 V 11 23 +5 V
+3.3 V 12 24 Tierra
Si se conecta directamente al formato de la antigua AT, el interruptor de entrada de la fuente de alimentación está
conectado a la placa base ATX. Esto hace que podamos apagar el equipo mediante el software en sí. Sin embargo, lo
que significa es que la placa base sigue siendo alimentada por una tensión de espera, que puede ser transmitida a las
tarjetas de expansión. Esto permite funciones tales como Wake on LAN o Wake on Modem "encendido-apagado",
ATX 96
donde el propio ordenador vuelve a encenderse cuando se utiliza la LAN con un paquete de reactivación o el módem
recibe una llamada. La desventaja es el consumo de energía en modo de espera y el riesgo de daños causados por
picos de voltaje de la red eléctrica, incluso si el equipo no está funcionando.
Para iniciar una fuente de alimentación ATX, es necesario cortocircuitar el PS-ON (PowerSupplyOn) con tierra
(COM). Sin embargo, la fuente de alimentación nunca tiene una carga fija para poder ser activada, ya que puede ser
dañada. Debido a la evolución de los potentes procesadores y tarjetas gráficas ha sido necesario añadir al molex de
20pin cuatro pines más, es decir el conector utilizado actualmente en la placa base ATX es de 24 pines que disponen
de un conducto de +12 V, +5 V, 3,3 V y tierra.
Las fuentes, para cumplir la norma, también tienen que respetar los límites de ruido y oscilación en sus salidas de
voltaje, estos límites son 120mV para 12+, 50mV para 5V+ y 3,3V+. Estos valores son pico a pico.
Enlaces externos
• Conector de alimentación ATX de 20 pines; funciones de los pines [2]
• Conector de alimentación ATX de 24 pines; funciones de los pines [3]
Una fuente ATX puede ser usada como una fuente de laboratorio de electrónica con unas pocas modificaciones. [4]
Referencias
[1] http:/ / www. formfactors. org/ FFDetail. asp?FFID=1& CatID=1
[2] http:/ / todohard. awardspace. com/ docs/ ConectorATXpower/
[3] http:/ / todohard. awardspace. com/ docs/ ConectorATXpower24/
[4] http:/ / web. archive. org/ web/ http:/ / www. bilbaoelectronics. com/ fuente-atx-laboratorio. html
Tarjeta de expansión 97
Tarjeta de expansión
Las tarjetas de expansión son dispositivos
con diversos circuitos integrados, y
controladores que, insertadas en sus
correspondientes ranuras de expansión,
sirven para expandir las capacidades de un
ordenador. Las tarjetas de expansión más
comunes sirven para añadir memoria,
controladoras de unidad de disco,
controladoras de vídeo, puertos serie o
paralelo y dispositivos de módem internos.
Por lo general, se suelen utilizar
indistintamente los términos «placa» y
«tarjeta» para referirse a todas las tarjetas de
expansión.
Instalación de una tarjeta de expansión.
En la actualidad las tarjetas suelen ser de
tipo PCI, PCI Express o AGP. Como
ejemplo de tarjetas que ya no se utilizan tenemos la de tipo Bus ISA.
Gracias al avance en la tecnología USB y a la integración de audio, video o red en la placa base, hoy en día son
menos imprescindibles para tener un PC completamente funcional.
El primer microordenador en ofrecer un bus de tarjeta tipo ranura fue el Altair 8800, desarrollado en 1974-1975.
Inicialmente, las implementaciones de este bus eran de marca registrada (como Apple II y Macintosh), pero en 1982
fabricantes de computadoras basadas en el Intel 8080/Zilog Z80 que ejecutaban CP/M ya habían adoptado el
estándar S-100. IBM lanzó el bus XT, con el primer IBM PC en 1981; se llamaba entonces el bus PC, ya que el IBM
XT, que utilizaba el mismo bus (con una leve excepción) no se lanzó hasta 1983. XT (también denominado ISA de 8
bits) fue reemplazado por ISA (también denominado ISA de 16 bits), conocido originalmente como el bus AT, en
1984. El bus MCA de IBM, desarrollado para el PS/2 en 1987, competía con ISA, pero cayó en desgracia debido a la
aceptación general de ISA de parte de la industria, y la licencia cerrada que IBM mantenía sobre el bus MCA. EISA,
la versión extendida de 32 bits abogada por Compaq, era común en las placas base de los PC hasta 1997, cuando
Microsoft lo declaró un «subsistema heredado» en el libro blanco industrial PC 97. VESA Local Bus, un bus de
expansión al principio de los 1990 que estaba ligado intrínsecamente a la CPU 80486, se volvió obsoleto (además del
procesador) cuando Intel lanzó la CPU Pentium en 1993.
El bus PCI se lanzó en 1991 para reemplazar a ISA. El estándar (ahora en la versión 3.0) se encuentra en las placas
base de los PC aun hoy en día. Intel lanzó el bus AGP en 1997 como una solución dedicada de aceleración de video.
Aunque se denominaba un bus, AGP admite una sola tarjeta a la vez. A partir de 2005, PCI Express ha estado
reemplazando a PCI y a AGP. Este estándar, aprobado en 2004, implementa el protocolo lógico PCI a través de una
interfaz de comunicación en serie.
Después del bus S-100, este artículo sólo menciona buses empleados en PCs compatibles con IBM/Windows-Intel.
La mayoría de las otras líneas de computadoras que no eran compatibles con IBM, inclusive las de Tandy,
Commodore, Amiga y Atari, ofrecían sus propios buses de expansión. Aun muchas consolas de videojuegos, tales
como el Sega Genesis, incluían buses de expansión; al menos en el caso del Genesis, el bus de expansión era de
marca registrada, y de hecho las ranuras de cartucho de la muchas consolas que usaban cartuchos (excepto el Atari
2600) calificarían como buses de expansión, ya que exponían las capacidades de lectura y escritura del bus interno
del sistema. No obstante, los módulos de expansión conectados a esos interfaces, aunque eran funcionalmente
Tarjeta de expansión 98
iguales a las tarjetas de expansión, no son técnicamente tarjetas de expansión, debido a su forma física.
Para sus modelos 1000 EX y 1000 HX, Tandy Computer diseñó la interfaz de expansión PLUS, una adaptación de
las tarjetas del bus XT con un factor de forma más pequeño. Porque es eléctricamente compatible con el bus XT
(también denominado ISA de 8 bits o XT-ISA), un adaptador pasivo puede utilizarse para conectar tarjetas XT a un
conector de expansión PLUS. Otra característica de tarjetas PLUS es que se pueden apilar. Otro bus que ofrecía
módulos de expansión capaces de ser apilados era el bus «sidecar» empleado por el IBM PCjr. Éste pudo haber sido
eléctricamente igual o similar al bus XT; seguramente poseía algunas similitudes ya que ambos esencialmente
exponían los buses de dirección y de datos de la CPU 8088, con búferes y preservación de estado, la adición de
interrupciones y DMA proveídos por chips complementarios de Intel, y algunas líneas de detección de fallos
(corriente idónea, comprobación de Memoria, comprobación de Memoria E/S). Otra vez, PCjr sidecars no son
técnicamente tarjetas de expansión, sino módulos de expansión, con la única diferencia siendo que el sidecar es una
tarjeta de memoria envuelta en una caja de plástico (con agujeros que exponen los conectores).
PCI-Express
PCI Express (anteriormente conocido por las siglas 3GIO, en el caso
de las "Entradas/Salidas de Tercera Generación", en inglés: 3rd
Generation In/Out) es un nuevo desarrollo del bus PCI que usa los
conceptos de programación y los estándares de comunicación
existentes, pero se basa en un sistema de comunicación serie mucho
Ranura PCI-Express 1x
más rápido. Este sistema es apoyado principalmente por Intel, que
empezó a desarrollar el estándar con nombre de proyecto Arapahoe
después de retirarse del sistema Infiniband.
PCI Express es abreviado como PCI-E o PCIe, aunque erróneamente se le suele abreviar como PCI-X o PCIx. Sin
embargo, PCI Express no tiene nada que ver con PCI-X OG que es una evolución de PCI, en la que se consigue
aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI
2.1 ya que, aunque su velocidad es mayor que PCI-Express, presenta el inconveniente de que al instalar más de un
dispositivo la frecuencia base se reduce y pierde velocidad de transmisión.
PCI-Express 99
Estructura
Este bus está estructurado como carriles punto a punto, full-duplex, trabajando en serie. En PCIe 1.1 (el más común
en 2007) cada carril transporta 250 MB/s en cada dirección. PCIe 2.0 dobla esta tasa a 500 MB/s y PCIe 3.0 la dobla
de nuevo (1 GB/s por carril).
Cada ranura de expansión lleva uno, dos, cuatro, ocho o dieciséis carriles de datos entre la placa base y las tarjetas
conectadas. El número de carriles se escribe con una x de prefijo (x1 para un carril simple y x16 para una tarjeta con
dieciséis carriles); x16 de 500MB/s dan un máximo ancho de banda de 8 GB/s en cada dirección para PCIE 2.x. En
el uso más común de x16 para el PCIE 1.1 proporciona un ancho de banda de 4 GB/s (250 MB/s x 16) en cada
dirección. En comparación con otros buses, un carril simple es aproximadamente el doble de rápido que el PCI
normal; una ranura de cuatro carriles, tiene un ancho de banda comparable a la versión más rápida de PCI-X 1.0, y
ocho carriles tienen un ancho de banda comparable a la versión más rápida de AGP.
Una ranura PCi Express 3.0 tiene 1 GB/s direccional y 2 GB/s bidireccional, por lo que logran en el caso de x16 un
máximo teórico de 16 GB/s direccionales y 32 GB/s bidireccion
Uso
PCI-Express está pensado para ser usado sólo como bus
local, aunque existen extensores capaces de conectar
múltiples placas base mediante cables de cobre o
incluso fibra óptica. Debido a que se basa en el bus
PCI, las tarjetas actuales pueden ser reconvertidas a
PCI Express cambiando solamente la capa física. La
velocidad superior del PCI Express permitirá
reemplazar casi todos los demás buses, AGP y PCI
incluidos. La idea de Intel es tener un solo controlador
PCI Express comunicándose con todos los dispositivos, Slots PCI Express (de arriba a abajo: x4, x16, x1 y x16), comparado
en vez de con el actual sistema de puente norte y puente con uno tradicional PCI de 32 bits, tal como se ven en la placa DFI
LanParty nF4 Ultra-D
sur.
PCI Express no es todavía suficientemente rápido para
ser usado como bus de memoria. Esto es una desventaja que no tiene el sistema similar HyperTransport, que también
puede tener este uso. Además no ofrece la flexibilidad del sistema InfiniBand, que tiene rendimiento similar, y
además puede ser usado como bus interno externo.
Este conector es usado mayormente para conectar tarjetas gráficas. PCI Express en 2006 es percibido como un
estándar de las placas base para PC, especialmente en tarjetas gráficas. Marcas como Advanced Micro Devices y
nVIDIA entre otras tienen tarjetas gráficas en PCI Express.
También ha sido utilizado en múltiples ocasiones como puesto para la transferencia de unidades de estado sólido de
alto rendimiento, con tasas superiores al Gigabyte por segundo.
PCI-Express 100
Factores de forma
• Tarjeta de baja altura
• Mini Card: un reemplazo del formato Mini PCI (con buses PCIe x1, USB 2.0 y SMBus en el conector)
• ExpressCard: sucesor del formato PC card (con PCIe x1 y USB 2.0; conectable en caliente)
• XMC: similar al formato CMC/PMC (con PCIe x4 o Serial RapidI/O)
• AdvancedTCA: un complemento de CompactPCI y PXI para aplicaciones tecnológicas; soporta topologías de
backplane basadas en comunicación serial
• AMC: un complemento de la especificación AdvancedTCA; soporta procesadores y módulos de entrada/salida en
placas ATCA (PCIe x1,x2,x4 o x8).
• PCI Express External Cabling
• Mobile PCI Express Module (MXM) Una especificación de módulos gráficos para portátiles creada por NVIDIA.
• Advanced eXpress I/O Module (AXIOM) diseño de módulos gráficos creada por ATI Technologies.
Referencias
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre PCI-ExpressCommons.
• PCI-Express en Hispatech (http://www.hispatech.com/ver_articulo.php?cod=21)
• Intel Developer Network for PCI Express Architecture (http://www.intel.com/technology/pciexpress/devnet/
)
• Rapid I/O en HispaTech (http://hispatech.com/articulos/html/ibap/rapid_io/pag1.php)
Las unidades de discos ópticos son una parte integrante de los aparatos
de consumo autónomos como los reproductores de CD, reproductores de DVD y grabadoras de DVD. También son
usados muy comúnmente en las computadoras para leer software y medios de consumo distribuidos en formato de
disco, y para grabar discos para el intercambio y archivo de datos. Las unidades de discos ópticos (junto a las
memorias flash) han desplazado a las disqueteras y a las unidades de cintas magnéticas para este propósito debido al
bajo coste de los medios ópticos y la casi ubicuidad de las unidades de discos ópticos en las computadoras y en
hardware de entretenimiento de consumo.
Unidad de disco óptico 101
Láser y óptica
La parte más importante de una unidad de disco óptico es el camino óptico, ubicado en un pickup head (PUH), que
consiste habitualmente de un láser semiconductor, un lente que guía el haz de laser, y fotodiodos que detectan la luz
reflejada en la superficie del disco.
En los inicios, se usaban los lásers de CD con una longitud de onda de 780 nm, estando en el rango infrarrojo. Para
los DVD, la longitud de onda fue reducida a 650 nm (color rojo), y la longitud de onda para el Blu-ray fue reducida a
405 nm (color violeta).
Se usan dos servomecanismos principales, el primero para mantener una distancia correcta entre el lente y el disco, y
para asegurar que el haz de laser es enfocado en un punto de láser pequeño en el disco. El segundo servo mueve un
cabezal a lo largo del radio del disco, manteniendo el haz sobre una estría, un camino de datos en espiral continuo.
En los medios de solo lectura (ROM, read only media), durante el proceso de fabricación la estría, hecha de surcos
(pits), es presionada sobre una superficie plana, llamada área (land). Debido a que la profundidad de los surcos es
aproximandate la cuarta o sexta parte de la longitud de onda del láser, la fase del haz reflejado cambia en relación al
haz entrante de lectura, causando una interferencia destructiva mutua y reduciendo la intensidad del haz reflejado.
Esto es detectado por fotodiodos que emiten señales eléctricas.
Una grabadora codifica (graba, quema) datos en un disco CD-R, DVD-R, DVD+R, o BD-R grabable (llamado
virgen o en blanco), calentando selectivamente partes de una capa de tinte orgánico con un láser. Esto cambia la
reflexividad del tinte, creando así marcas que pueden ser leídas como los surcos y áreas en discos planchados. Para
los discos grabables, el proceso es permanente y los medios pueden ser escritos una sola vez. Si bien el láser lector
habitualmente no es más fuerte que 5 mW, el láser grabador es considerablemente más poderoso. A mayor velocidad
de grabación, menor es el tiempo que el láser debe calentar un punto en el medio, entonces su poder tiene que
aumentar proporcionalmente. Los lásers de las grabadoras de DVD a menudo alcanzan picos de alrededor de 100
mW en ondas continuas, y 225 mW de impulsos.
Para medios regrabables como CD-RW, DVD-RW, DVD+RW, o BD-RE, el láser es usado para derretir una
aleación de metal cristalina en la capa de grabación del disco. Dependiendo de la cantidad de energía aplicada, la
sustancia puede volver a adoptar su forma cristalina original o quedar en una forma amorfa, permitiendo que sean
creadas marcas de reflexividad variante.
Los medios de doble cara pueden ser usados, pero no son de fácil acceso con una unidad estándar, ya que deben ser
volteados físicamente para acceder a los datos en la otra cara.
Los medios de doble capa (DL, double layer) tienen dos capas de datos independientes separadas por una capa
semireflexiva. Ambas capas son accesibles por el mismo lado, pero necesitan que la óptica cambie el foco del láser.
Unidad de disco óptico 102
Los medios grabables tradicionales de una capa (SL, single layer) son producidos con una estría en espiral moldeada
en la capa protectiva de policarbonato (no en la capa de grabación de datos), para dirigir y sincronizar la velocidad
del cabezal grabador. Los medios grabables de doble capa tiene: una primera capa de policarbonato con una estría
(superfical), una primera capa de datos, una capa semireflexiva, una segunda capa de policarbonato (de espaciado)
con otra estría (profunda), y una segunda capa de datos. La primera estría en espiral habitualmente comienza sobre el
borde interior y se extiende hacia fuera, mientras que la segunda estría comienza en el borde exterior y se extiende
hacia dentro.
Algunas unidades tienen soporte para la tecnología de impresión fototérmica LightScribe de Hewlett-Packard que
permite etiquetar discos recubiertos especialmente.
Mecanismo de rotación
El mecanismo de rotación de las unidades ópticas difiere significativamente del de los discos duros, en que el
segundo mantiene una velocidad angular constante (VAC), en otras palabras un número constante de revoluciones
por minuto (RPM). Con la VAC, usualmente en la zona exterior del disco se consigue un mejor throughput
(rendimiento) en comparación con la zona interior.
Por otra parte, las unidades ópticas fueron desarrolladas con la idea de alcanzar un throughput constante,
inicialmente en las unidades de CD igual a 150 KiB/s. Era una característica importante para hacer streaming de
datos de audio, que siempre tiende a necesitar una tasa de bits (bit rate) constante. Pero para asegurar que no se
desperdicia la capacidad del disco, un cabezal también tendría que transferir datos a una tasa lineal máxima todo el
tiempo, sin detenerse en el borde exterior del disco. Esto ha conducido a que las unidades ópticas (hasta hace poco)
operaran a una velocidad lineal constante (VLC). La estría en espiral en el disco pasaba bajo el cabezal a una
velocidad constante. Por supuesto la implicación de la VLC, en contraposición a la VAC, hace que la velocidad
angular del disco ya no sea constante, por lo tanto el motor rotatorio tiene que ser diseñado para variar la velocidad
entre 200 RPM en el borde exterior y 500 RPM en el borde interior.
Las unidades de CD más recientes mantenían el paradigma VLC, pero evolucionaron para alcanzar velocidades de
rotación mayores, popularmente descritas en múltiplos de una velocidad base (150 KiB/s). Como resultado, una
unidad de 4X, por ejemplo, rotaría a 800-2000 RPM, transfiriendo datos a 600 KiB/s continuamente, lo que es igual
a 4 x 150 KiB/s.
La velocidad de base del DVD, o "velocidad 1x", es de 1,385 MB/s, igual a 1,32 MiB/s, aproximadamente 9 veces
más rápido que la velocidad base del CD. La velocidad base de una unidad de Blu-ray es de 6,74 MB/s, igual a 6,43
MiB/s.
Existen límites mecánicos respecto a cuan rápido puede girar un disco. Después de una cierta de rotación, cerca de
10.000 RPM, el estrés centrífugo puede causar que el plástico del disco se arrastre y posiblemente se destruya. En el
borde exterior de un CD, 10.000 RPM equivalen aproximadamente a una velocidad de 52x, pero en el borde interior
solo a 20x. Algunas unidades disminuyen aún más su velocidad de lectura máxima a cerca de 40x argumentando que
los discos vírgenes no tendrán peligro de daños estructurales, pero los discos insertados para leer pueden sí tenerlo.
Sin las velocidades de rotación más altas, un mayor rendimiento de lectura puede conseguirse leyendo
simultáneamente más de un punto en una estría de datos, pero las unidades con tales mecanismos son más caras,
menos compatibles, y muy raras.
Unidad de disco óptico 103
Mecanismos de carga
Las unidades ópticas actuales usan o un mecanismo de carga de bandeja, donde el disco es cargado en una bandeja
motorizada u operada manualmente, o un mecanismo de carga de sócalo, donde el disco se desliza en un sócalo y es
retraído hacia dentro por rodillos motorizados. Las unidades de carga de sócalo tienen la desventaja de no ser
compatibles con los discos más pequeños de 80 mm o cualquier tamaño no estándar; sin embargo, la videoconsola
Wii parece haber derrotado este problema, ya que es capaz de cargar DVD de tamaño estándar y discos de
GameCube de 80 mm en la misma unidad con carga de sócalo.
Un menor número de modelos de unidades, la mayoría unidades portables compactas (como un Discman), tienen un
mecanismo de carga superior (por arriba) en el cual la tapa de la unidad se abre hacia arriba y el disco es colocado
directamente sobre el rotor.
Algunas de las primeras unidades de CD-ROM usaban un mecanismo en el cual los CD tenían que ser insertados en
cartuchos o cajas especiales, similares en apariencia a un disquete de 3.5". Esto se hacía para proteger al disco de
daños accidentales causados por introducirlos en cajas plásticas más duras, pero no ganó aceptación debido al costo
adicional y los problemas de compatibilidad, como que las unidades necesitarían inconvenientemente que los discos
fueran insertados en un cartucho antes de usarse.
Interfaces de computadora
La mayoría de las unidades internas para computadoras personales, servidores y estaciones de trabajo son diseñadas
para encajar en una bahía de 5.25" y conectarse mediante una interfaz ATA o SATA. Las unidades externas
usualmente se conectan mediante interfaces USB o FireWire. Algunas versiones portables para usar con laptops se
alimentan mediante baterías o mediantes su bus de interfaz.[cita requerida]
Existen unidades con interfaz SCSI, pero son menos comunes y tienden a ser más caras, debido al costo de sus
chipsets de interfaz y sus conectores SCSI más complejos.
Cuando la unidad de disco óptico fue desarrollada por primera vez, no era fácil de añadir a las computadoras.
Algunas computadores como la IBM PS/2 estaban estandarizadas para los disquetes de 3.5" y los discos duros de
3.5", y no incluían un lugar para un dispositivo interno más grande. Además las PC de IBM y sus clones al comienzo
únicamente incluían una sola interfaz ATA, la cual para el momento en el que él se introducía CD, ya estaba siendo
en uso para soportar dos discos duros. Las primeras laptops no tenían incorporada una intefaz de alta velocidad para
soportar un dispositivo de almacenamiento externo.
Esto fue resuelto mediante varias técnicas:
Unidad de disco óptico 104
• Las primeras tarjetas de sonido podían incluir una segunda intefaz ATA, si bien a menudo se limitaba a soportar
una sola unidad óptica y ningún disco duro. Esto evolucionó en la segunda interfaz ATA moderna incluido como
equipamiento estándar.
• Se desarrolló una unidad externa de puerto paralelo que se conectaba entre la impresora y la computadora. Esto
era lento pero una opción para las laptops.
• También se desarrolló una intefaz de unidad óptica PCMCIA para laptops.
• Se podía instalar una tarjeta SCSI en las PC de escritorio para incorporar una unidad SCSI externa, aunque SCSI
era mucho más caro que las otras opciones.
Compatibilidad
Todas las grabadoras no graban todos los medios ópticos ni todos las lectoras leen todos. La mayoría de las unidades
ópticas son retrocompatibles con sus modelos anteriores hasta el CD, si bien esto no es exigido por los estándares.
Comparado con una capa de 1.2 mm de policarbonato de un CD, el haz de laser de un DVD solo debe penetrar 0.6
mm para alcanzar la superficie de grabación. Esto permite a la unidad de DVD enfocar el haz en un punto de menor
tamaño para leer surcos (pits) pequeños. Los lentes de DVD soportan un enfoque diferente para CD o DVD con el
mismo láser.
Abajo se muestra una tabla con los distintos discos ópticos y lo que puede hacer cada hardware, tanto de grabación
como de lectura, con ellos. En ésta observamos que el hardware para CD sólo se puede usar para ellos, el de DVD se
puede usar para CD y DVD y no para BD y el de BD se puede utilizar para todos los formatos.
CD CD-R CD-RW DVD DVD-R DVD+R DVD-RW DVD+RW DVD+R BD BD-R BD-RE
planchado planchado DL planchado
Reproductor Lectura [1] [2] Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
Lectura Lectura
Audio CD
Unidad de Lectura Lectura Lectura Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
CD-ROM
Grabadora Lectura Escritura Lectura Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
de CD-R
Grabadora Lectura Escritura Escritura Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
de CD-RW
Unidad de Lectura [3] Lectura Lectura [4] Lectura Lectura Lectura [5] Ninguno Ninguno Ninguno
Lectura Lectura Lectura
DVD-ROM
Grabadora Lectura Escritura Escritura Lectura Escritura [6] [7] Lectura Lectura Ninguno Ninguno Ninguno
Lectura Lectura
de DVD-R
Grabadora Lectura Escritura Escritura Lectura Escritura Lectura [8] Lectura Lectura Ninguno Ninguno Ninguno
Escritura
de
DVD-RW
Grabadora Lectura Escritura Escritura Lectura Lectura Escritura Lectura [9] Lectura Ninguno Ninguno Ninguno
Lectura
de DVD+R
Grabadora Lectura Escritura Escritura Lectura Lectura Escritura Lectura Escritura Lectura Ninguno Ninguno Ninguno
de
DVD+RW
Grabadora Lectura Escritura Escritura Lectura Escritura Escritura Escritura Escritura Lectura Ninguno Ninguno Ninguno
de
DVD±RW
Unidad de disco óptico 105
Grabadora Lectura Escritura Escritura Lectura [10] Escritura Escritura Escritura Escritura Ninguno Ninguno Ninguno
Escritura
de
DVD±RW
/ DVD+R
DL
Unidad de Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura
BD-ROM
Grabadora [11] Escritura Escritura Lectura Escritura Escritura Escritura Escritura Escritura Lectura Escritura Lectura
Lectura
de BD-R
Grabadora Lectura Escritura Escritura Lectura Escritura Escritura Escritura Escritura Escritura Lectura Escritura Escritura
de BD-RE
[1] Algunos tipos de medios de CD-R con tintes menos reflexivos pueden causar problemas.
[2] Puede que no funcione en unidades no compatibles con MultiRead.
[3] Puede no funcionar (http:/ / www2. osta. org/ osta/ html/ cddvd/ intro. html) en algunas de las primeras unidades de DVD-ROM.
[4] A large-scale Un test de compatibilidad (http:/ / www. cdrinfo. com/ Sections/ Reviews/ Specific. aspx?ArticleId=7664) realizado por
cdrinfo.com en julio de 2003 denotó que los discos DVD-R eran reproducibles por un 96,74%, los DVD+R por un 87,32%, los DVD-RW por
un 87.68% y los DVD+RW por un 86,96% de los reproductores de DVD y unidades de DVD-ROM de consumo.
[5] La compatibilidad de lectura con las unidades de DVD existentes puede variar mucho con la marca de medios de DVD+R DL usada.
[6] Es necesaria información acerca de la compatibilidad de lectura.
[7] Puede no funcionar en unidades no compatibles con DVD Multi.
[8] El firmware de la grabadora puede rehusarse a grabar en algunas marcas de medios de DVD-RW.
[9] Es necesaria información acerca de la compatibilidad de lectura.
[10] Hacia abril de 2005, todas las grabadoras de DVD+R DL en el mercado son compatibles con Super Multi.
[11] Hacia octubre de 2006, las unidades de BD recientemente lanzadas son capaces de leer y escribir medios de CD.
Rendimiento de grabación
Las unidades ópticas de grabación indican tres velocidades. La primera velocidad es para las operaciones de
grabación de una sola vez (R), la segunda para las operaciones de regrabación (RW o RE), y la última para
operaciones de solo lectura (ROM). Por ejemplo una unidad de CD de 12x/10x/32x es capaz de grabar discos CD-R
a una velocidad de 12x (1,76 MB/s), grabar discos CD-RW a una velocidad de 10x (1,46 MB/s), y leer cualquier
disco CD a una velocidad de 32x (4,69 MB/s).
A finales de los años 1990, los subdesbordamientos de búfer (buffer underruns) se volvieron un problema muy
común a medida que las grabadoras de CD de alta velocidad comenzaban a hacer su aparición en las computadoras
hogareñas y de oficina, las cuales (por una variedad de razones) no podían mantener el flujo de datos de la grabadora
constantemente alimentando. Entonces, la grabadora era obligada a detener el proceso de grabación, dejando una
pista truncada que usualmente hacía inútil al disco.
En respuesta a esto, los fabricantes de grabadoras de CD comenzaron a distribuir unidades con "protección contra
subdesbordamiento de búfer" (bajo varias marcas comerciales, como "BURN-Proof" de Sanyo y "Lossless Link" de
Yamaha). Estas protecciones pueden suspender y resumir el proceso de grabación de tal manera que la brecha que la
detención produce pueda ser correctamente tratada por la lógica de correción de errores integrada en las unidades de
CD-ROM y reproductores de CD. Las primeras unidades de este tipo tenían velocidades de 12x y 16x.
Unidad de disco óptico 106
Esquemas de grabación
La grabación de CD en computadoras personales era originariamente una tarea orientada a batch en la que se
necesitaba software de autoría especializado para crear una "imagen" de los datos a grabar, y para grabarla a un disco
en una sesión. Esto era aceptable para fines de archivo, pero limitaba la conveniencia general de los discos CD-R y
CD-RW como medios de almacenamiento removibles.
La escritura de paquetes (packet writing) es un esquema en el que la grabadora escribe incrementalmente en los
discos en pequeñas ráfagas, o paquetes. La escritura de paquetes secuencial llena el disco con paquetes de abajo
hacia arriba. Para hacerlo legible en unidades de CD-ROM y DVD-ROM, el disco debe ser cerrado en cualquier
momento escribiendo una tabla de contenidos al comienzo del disco; tras la escritura de la tabla de contenidos, ya no
se podrán añadir más paquetes al disco. La escritura de paquetes, junto con el soporte del sistema operativo y un
sistema de archivos como UDF, puede ser usado para simular una escritura de acceso aleatorio como en medios
como las memorias flash y discos magnéticos.
La escritura de paquetes de tamaño fijo (en los medios CD-RW y DVD-RW) divide el disco en paquetes acolchados
(de mayor tamaño) de tamaño fijo. Este acolchonamiento reduce la capacidad del disco, pero le permite a la
grabadora iniciar y detener la grabación en un paquete individual sin afectar a sus vecinos. Esto se asemeja tanto al
acesso de escritura de bloque ofrecido por medios magnéticos que muchos sistemas de archivo funcionarán de igual
manera. No obstante, tales discos no son legibles por la mayoría de las unidades de CD-ROM y DVD-ROM o en la
mayoría de los sistemas operativos sin drivers adicionales.
El formato de disco DVD+RW va más allá mediante la introducción de indicaciones de temporización más precisas
en las estría de datos del disco permitiendo así que bloques de datos individuales sean reemplazados sin afectar la
retrocompatibilidad (una característica denominada "vinculación sin pérdida" [lossless linking]). El formato en sí fue
diseñado para tratar con grabaciones discontinuas debido a que se esperaba que fuera ampliamente usado en
grabadores de video digital (en inglés digital video recorders o DVR). Muchos de estos grabadores usan esquemas
de compresión de video de tasas variables que requieren que la grabación se realize en pequeñas ráfagas; algunos
permiten reproducir y grabar al mismo tiempo, grabando rápidamente de forma alternada en la cola del disco
mientras se lee desde otro lugar.
Mount Rainier intenta hacer que los discos CD-RW y DVD+RW escritos por paquetes sean tan convenientes para
usar como los medios magnéticos removibles haciendo que el firmware dé formato a nuevos discos en segundo
plano y gestione los defectos de medios (mapeando automáticamente las partes del disco que han sido desgastadas
mediante ciclos de borrado para reservar espacio en otra parte del disco). Hacia febrero de 2007, Windows Vista
ofrece soporte nativo para Mount Rainier. Todas las versiones anteriores de Windows necesitan de una solución
ajena, al igual que Mac OS X.
Referencias
Enlaces externos
• How CD Burners Work (http://www.howstuffworks.com/cd-burner.htm) en HowStuffWorks
• Understanding CD-R & CD-RW (http://www.osta.org/technology/cdqa.htm) (en inglés)
• Guide to CD Writing and writing standards (http://www.pcnineoneone.com/howto/cdburnadv1.html)
• CD-Recordable FAQ (http://www.cdrfaq.org) (en inglés)
• CD/DVD/Blu-ray news and reviews (http://www.cdfreaks.com) (en inglés)
• Why Audio CD-R Discs Won't Always Play (http://www.oggfrog.com/howto/cds-wont-play/) (en inglés)
• How to Fix a Faulty CD Burner Driver (http://www.windows-media-player-updates.com/
fixafaultycdburnerdriver.html) (en inglés)
• An IDE ODD (Top) and a SATA ODD (Bottom). Both are designed for laptops (http://www.newmodeus.com/
pics/OBHD/OBHD-SATA-Compare.jpg) (en inglés)
• An IDE ODD. It is 5.25-inch in form factor (http://www.hardwarezone.com/img/data/articles/2005/1500/
rear_view.jpg) (en inglés)
• A SATA ODD. It is 5.25-inch in form factor (http://www.pcstats.com/articleimages/200708/
LGGSAH62N_sata2.jpg) (en inglés)
• Optical drives for laptops. SATA connector vs. slim ATAPI connector (http://www.laptopparts101.com/
cd-dvd-optical-drive/) (en inglés)
Tarjeta de red
Una tarjeta de red o adaptador de red es
un periférico que permite la comunicación
con aparatos conectados entre sí y también
permite compartir recursos entre dos o más
computadoras (discos duros, CD-ROM,
impresoras, etc). A las tarjetas de red
también se les llama NIC (por network
interface card; en español "tarjeta de
interfaz de red"). Hay diversos tipos de
adaptadores en función del tipo de cableado
o arquitectura que se utilice en la red
(coaxial fino, coaxial grueso, Token Ring,
etc.), pero actualmente el más común es del
tipo Ethernet utilizando una interfaz o
conector RJ-45. Tarjeta de interfaz de red (NIC).
Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de un
computador o impresora, se suele utilizar para referirse también a dispositivos integrados (del inglés embedded) en la
placa madre de un equipo,
Tarjeta de red 108
Token Ring
Las tarjetas para red Token Ring han caído hoy en día casi en
Tarjeta de red PCI de 10Mbps.
desuso, debido a la baja velocidad y elevado costo respecto de
Ethernet. Tenían un conector DB-9. También se utilizó el
conector RJ-45 para las NICs (tarjetas de redes) y los MAUs
(Multiple Access Unit- Unidad de múltiple acceso que era el
núcleo de una red Token Ring).
ARCNET
Las tarjetas para red ARCNET utilizaban principalmente conectores BNC y/o RJ-45.
Ethernet
Las tarjetas de red Ethernet utilizan conectores RJ-45 (10/100/1000) BNC (10), AUI (10), MII (100), GMII (1000).
El caso más habitual es el de la tarjeta o NIC con un conector RJ-45, aunque durante la transición del uso
mayoritario de cable coaxial (10 Mbit/s) a par trenzado (100 Mbit/s) abundaron las tarjetas con conectores BNC y
RJ-45 e incluso BNC / AUI / RJ-45 (en muchas de ellas se pueden ver serigrafiados los conectores no usados). Con
la entrada de las redes Gigabit y el que en las casas sea frecuente la presencias de varios ordenadores comienzan a
verse tarjetas y placas base (con NIC integradas) con 2 y hasta 4 puertos RJ-45, algo antes reservado a los servidores.
Pueden variar en función de la velocidad de transmisión, normalmente 10 Mbit/s] ó 10/100 Mbit/s. Actualmente se
están empezando a utilizar las de 1000 Mbit/s, también conocida como Gigabit Ethernet y en algunos casos 10
Gigabit Ethernet, utilizando también cable de par trenzado, pero de categoría 6, 6e y 7 que trabajan a frecuencias más
altas.
Las velocidades especificadas por los fabricantes son teóricas, por ejemplo las de 100 Mbit/s realmente pueden llegar
como máximo a unos 78,4 Mbit/s [cita requerida].
Wi-Fi
También son NIC las tarjetas inalámbricas o wireless, las cuales vienen en diferentes variedades dependiendo de la
norma a la cual se ajusten, usualmente son 802.11b, 802.11g y 802.11n. Las más populares son la 802.11b que
transmite a 11 Mbit/s (1,375 MB/s) con una distancia teórica de 100 metros y la 802.11g que transmite a 54 Mbit/s
(6,75 MB/s).
La velocidad real de transferencia que llega a alcanzar una tarjeta WiFi con protocolo 11.b es de unos 4 Mbit/s (0,5
MB/s) y las de protocolo 11.g llegan como máximo a unos 20 Mbit/s[cita requerida]. Actualmente el protocolo que se
viene utilizando es 11.n que es capaz de transmitir 600 Mbit/s. Actualmente la capa física soporta una velocidad de
300 Mbit/s, con el uso de dos flujos espaciales en un canal de 40 MHz. Dependiendo del entorno, esto puede
traducirse en un rendimiento percibido por el usuario de 100 Mbit/s.
Tarjeta de sonido 110
Tarjeta de sonido
Una tarjeta de sonido o placa de sonido es
una tarjeta de expansión para computadoras
que permite la salida de audio controlada
por un programa informático llamado
controlador (en inglés driver). El uso típico
de las tarjetas de sonido consiste en hacer,
mediante un programa que actúa de
mezclador, que las aplicaciones multimedia
del componente de audio suenen y puedan
ser gestionadas. Estas aplicaciones incluyen
composición de audio y en conjunción con
la tarjeta de videoconferencia también puede
hacerse una edición de vídeo, presentaciones
multimedia y entretenimiento (videojuegos).
Algunos equipos (como los personales)
tienen la tarjeta ya integrada, mientras que
otros requieren tarjetas de expansión. Tarjeta de sonido Sound Blaster Live! 5.1.
Enlaces externos
• Wikimedia Commons alberga
contenido multimedia sobre Tarjeta de
sonidoCommons.
• ¿Qué es... una tarjeta de sonido? [1]
• Guía sobre las tarjetas de sonido. [2]
• [[Categoría:Tarjetas de sonido| [3]] La AdLib Music Synthesizer Card, la primera tarjeta de
sonido popular
Referencias
[1] http:/ / www. conozcasuhardware. com/ quees/ tsonido1. htm
[2] http:/ / pchardware. org/ sonido. php
[3] http:/ / www. grabandoencasa. com. ar/ ?m=
Estas tarjetas también pueden ser usadas para captar señales de alguna
fuente de video como cámaras filmadoras, reproductores de DVD o
VHS, etc. y a su vez ser difundidas a través de codificador de video
(como Windows Encoder) para trasmitirse por Internet.
Las sintonizadoras se distribuyen junto a sus drivers y un software que
permite la sintonización, memorizado, visualización y grabación
directa o programada de los canales. También existe software gratuito A DVB-S2 tuner card.
de terceros que funciona con cualquier tarjeta sintonizadora y que en
muchos casos mejora la calidad de la visualización y de la grabación obtenida por el software original de la
sintonizadora:
Tarjeta sintonizadora de televisión 112
• Dscaler [1]
• Kastor!TV [2]
• MythTV
• Tvtime [3]
• Xawtv [4]
• Zapping [5]
Las sintonizadoras permiten la visualización de teletexto y disponen de
mando a distancia por infrarrojos. Adjuntan un receptor para dicho
mando, que se conecta a un puerto del ordenador, generalmente el D-Link external TV tuner.
COM1. Es posible utilizar el mando para manejar otras aplicaciones
del ordenador mediante software específico (ej: LIRC) que convierte los botones pulsados en el mando en códigos de
teclado. Por ejemplo el software puede convertir la pulsación de la tecla "Play" del mando en la pulsación de la tecla
"P" del teclado del ordenador.
Tipos
Actualmente existen distintos tipos de sintonizadora, según el tipo de emisión de televisión que queramos recibir en
el ordenador:
• Analógicas. Sintonizan los canales analógicos recibidos por antena (la televisión "de toda la vida") y/o por cable
(por ejemplo de la compañía De TV por Cable).
• Digitales. Las de tipo DVB-T (las más habituales y recientes señales de video) sintonizan los canales de la
televisión digital terrestre TDT, que se recibe por antena. Las de tipo DVB-C sintonizan los canales de la
televisión digital por cable, pero no los de TDT. Actualmente no hay modelos "combinados" DVB-T/C
• Satélite. Sintonizan los canales de la televisión recibidos por antena parabólica (por ejemplo, del satélite
Hispasat).
También existen modelos híbridos, que son capaces de sintonizar al mismo tiempo dos o más de estos tipos de
emisión. Algunos modelos añaden también la sintonización de radio FM.
Las sintonizadoras analógicas soportan un sistema de color determinado: PAL, SECAM o NTSC.
Aportando a lo anterior ya existe un sintonizador o antena tipo wi-fi que captura todo tipo de televisora ya que
trabaja satelitalmente además que incluye el respectivo software de uso.Son de muy buen usos para los lugares de
dificial accceso
Fabricantes
• ADS Tech [6]
• Avermedia [7]
• Conceptronic [8]
• Encore Electronics [9]
• Freecom [10]
• Hauppauge [11]
• LifeView [12]
• Redbell [13]
• Pinnacle Systems [14]
• Zaapa [15]
Tarjeta sintonizadora de televisión 113
Referencias
[1] http:/ / deinterlace. sourceforge. net/
[2] http:/ / www. kastortv. org/
[3] http:/ / tvtime. sourceforge. net/
[4] http:/ / linux. bytesex. org/ xawtv/
[5] http:/ / zapping. sourceforge. net
[6] http:/ / www. adstech. com/ es/
[7] http:/ / www. avermedia. es
[8] http:/ / www. conceptronic. net
[9] http:/ / encore-la. com. ar/
[10] http:/ / www. freecom. com
[11] http:/ / www. hauppauge. fr/ Spain
[12] http:/ / www. lifeview. com. tw/
[13] http:/ / www. redbell. es/
[14] http:/ / www. pinnaclesys. com/
[15] http:/ / www. zaapa. net
Computadora portátil
Una computadora portátil u ordenador portátil (en inglés: laptop o notebook) es un ordenador personal móvil o
transportable, que pesa normalmente entre 1 y 3 kg. Los ordenadores portátiles son capaces de realizar la mayor
parte de las tareas que realizan los ordenadores de escritorio, también llamados "de torre", con similar capacidad y
con la ventaja de su peso y tamaño reducidos; sumado también a que tienen la capacidad de operar por un período
determinado sin estar conectadas a una red eléctrica.
La palabra inglesa laptop traducida al castellano significa: lap (regazo) y top (encima) es decir, una computadora que
puede apoyarse sobre las piernas.
Computadora portátil.
Computadora portátil 114
Historia
La primera computadora portátil considerada como tal
fue la Epson HX-20,desarrollada en 1981, a partir de la
cual se observaron los grandes beneficios para el
trabajo de científicos, militares, empresarios y otros
profesionales que vieron la ventaja de poder llevar con
ellos su computadora con toda la información que
necesitaban de un lugar a otro.
Impacto social
"Lo crucial es que el crecer en una sociedad moderna ha sufrido tres cambios fundamentales: la modificación de las
relaciones familiares, la restructuración de las fases de la niñez y de la juventud, y un crecimiento de los aparatos
tecnológicos día a día".[1] La comunicación es fundamental especialmente para los jóvenes que viven en esta época
de modernización.
Los aparatos tecnológicos como las computadoras portátiles, han hecho esta comunicación de persona a persona
inferior ya que a través de esta tecnología uno se puede comunicar sin necesidad de estar de frente a la otra persona.
El poder comunicarse a través de estos medios le han facilitado a muchos sus trabajos ya que tienen "mayor libertad
y comodidad",[2] por esto es una gran ventaja. Pero también existe una desventaja de estos avances en la tecnología
como la computadora portátil, nos han hecho ser personas más individualistas, o sea apartes de la sociedad, y en una
sociedad tan competitiva como esta las personas deben desarrollarse tanto en el ámbito social como en el
tecnológico, y crear un balance entre ambos para poder progresar.
El impacto social de la tecnología y la ciencia han sido soporte de la elevación del bienestar de una población y su
calidad de vida, sin descuidar los aspectos materiales relacionados con ellos, tales como la alimentación, la vivienda,
el transporte, las comunicaciones y toda la actividad de infraestructura económica que resulta imprescindible para el
desarrollo un país y sus personas.[3]
Computadora portátil 116
Componentes
Muchos de los componentes de un ordenador portátil son similares a los componentes de los ordenadores de
escritorio, pero habitualmente son de menor tamaño, con componentes similares, algunos de los cuales se citan a
continuación:
• CPU de bajo consumo: Intel Core i3/i5/i7, Intel Core 2 Duo, Intel Core, Intel Atom, AMD Turion, AMD Phenom
o AMD Fusion.
• Disco duro de 2,5" (6,35 cm) o menor, frente a los discos de 3,5" (8,89 cm) de los ordenadores de escritorio.
También Unidades de estado sólido.
• Módulos de memoria RAM SO-DIMM (Small Outline DIMM) más pequeños que los DIMM usuales en los
ordenadores de escritorio.
• Unidad lectora y grabadora de CD, DVD o Blu-Ray de formato reducido (slim).
• Teclado integrado, que suelen tener una distancia de recorrido más corta para las combinaciones y para un
reducido grupo de teclas. No suele contar con teclado numérico y las teclas de función pueden estar colocadas en
sitios que difieren de un teclado de ordenador de sobremesa.
• Pantalla integrada tipo TFT u OLED que a su vez realiza la función de tapa del portátil y facilita su movilidad.
Los portátiles más modernos cuentan con una pantalla de 13 pulgadas (33 cm) o mayor, con resoluciones de
1280×800 (16:10) o 1366 × 768 (16:9) pixeles o superiores. Algunos modelos utilizan pantallas con resoluciones
comunes en ordenadores de sobremesa (por ejemplo, 1440×900, 1600×900 y 1680×1050.) Los modelos con
retroiluminación basada en LED tienen un menor consumo de electricidad y ángulos de visión más anchos. Los
que cuentan con pantallas de 10 pulgadas (25 cm) o menos poseen una resolución de 1024×600, mientras que los
de 11,6 (29 cm) o 12 pulgadas (30 cm) tienen resoluciones estándares de portátiles.
• Panel táctil para manejar el puntero en lugar del ratón.
• Cargador o abreviadamente PSU (del inglés Power Supply Unit, fuente de alimentación), que tiende a ser
universal (denominado Universal Power Adapter for Mobile Devices - UPAMD). Los portátiles se pueden cargar
en uso, para optimizar tiempo y energía. Producen un voltaje de corriente continúa de unos 12 voltios (en el rango
de 7,2 a 14,8 voltios).
• Batería, que suele tener típicamente una duración de 2 a 4 horas en equipos de 15,6". Una batería de 6 celdas en
un netbook con Intel Atom puede proporcionar una duración de unas 6 horas dependiendo del modelo y el uso.
Common Building Block es el estándar de Intel y los principales fabricantes de portátiles para los componentes.
Características
• Por lo general funcionan con una batería o con un adaptador que permite tanto cargar la batería como dar
suministro de energía (incluso con el ordenador apagado, generalmente mediante el puerto USB). El Consorcio
Wireless Power está desarrollando una especificación para la recarga inalámbrica de las baterías de los
ordenadores portátiles.
• Suelen poseer una pequeña batería que permite mantener el reloj y otros datos en caso de falta de energía.
• En general, a igual precio, los portátiles suelen tener menos potencia que los ordenadores de mesa, incluso menor
capacidad en los discos duros, menos capacidad gráfica y audio, y menor potencia en los microprocesadores. De
todas maneras, suelen consumir menos energía y son más silenciosos.
• Cuentan al menos tres puertos USB, para aumentar su portabilidad.
• Pueden llevar drivers genéricos y programas genéricos (similares a Mobile Partner, pero también libres), para usar
módems USB.
• Suelen contar con una pantalla LCD y un touchpad (pad táctil).
• A partir de 2008, aproximadamente, cuentan con conexión Wifi.
• Algunos modelos recientes (2013), cuentan con bluetooth.
Computadora portátil 117
• En general cuentan con tarjeta PC (antiguamente PCMCIA) o ExpressCard para tarjetas de expansión, aunque es
un slot que desde 2009 está desapareciendo.
• No hay todavía un factor de forma industrial estándar para los portátiles, es decir, cada fabricante tiene su propio
estilo de diseño y construcción. Esto incrementa los precios de los componentes en caso de que haya que
reemplazarlos o repararlos, y hace que resulten más difíciles de conseguir. Incluso a menudo existen
incompatibilidades entre componentes de portátiles de un mismo fabricante.
Subportátil
Son una nueva clase de portátiles que eliminan la unidad óptica, y reducen la potencia de otros componentes como la
tarjeta gráfica, con el fin de disminuir el tamaño físico de las máquinas (y en ocasiones el coste), capaces de entrar en
el bolsillo de un pantalón, como en el caso de los VAIO serie P.
Su capacidad de procesamiento es notablemente menor que los portátiles normales, por eso necesitan sistemas
operativos diseñados específicamente, además del uso de almacenamiento remoto.
Fabricantes y marcas
Muchas marcas, incluidas las más importantes, no diseñan y no fabrican sus ordenadores portátiles. En su lugar, un
pequeño número de fabricantes de diseños originales (ODM) diseñan los nuevos modelos de ordenadores portátiles,
y las marcas eligen los modelos que se incluirán en su alineación. En 2006, siete ODM principales fabricaron 7 de
cada 10 ordenadores portátiles en el mundo, con el más grande (Quanta Computer) que tiene 30% de cuota de
mercado mundial. Por lo tanto, a menudo son modelos idénticos a disposición tanto de una multinacional y de una
empresa de bajo perfil ODM de marca local. La gran mayoría de ordenadores portátiles en el mercado son fabricados
por un puñado de fabricantes de diseños originales (ODM).
Los más importantes son:
• Quanta Computer vende a (entre otros)
HP / Compaq, Dell, Toshiba, Sony,
Fujitsu, Acer, NEC, Gateway y Lenovo /
IBM - tenga en cuenta que Quanta es en
la actualidad, el mayor fabricante de
ordenadores portátiles en el mundo.
• Compal vende a Toshiba, HP / Compaq,
Acer y Dell.
• Wistron Corporation (fabricación y ex
división de diseño de Acer) vende a HP /
Compaq, Dell, IBM, NEC, Acer y
Lenovo / IBM.
• Flextronics (ex Arima Informática
Dell Adamo XPS.
división de portátiles Corporation) vende
a HP / Compaq, NEC, y Dell.
• ECS vende a IBM, Fujitsu y Dell.
• Asus vende a Apple (iBook), Sony y Samsung.
• Inventec vende a HP / Compaq, Toshiba, y BenQ.
• Uniwill vende a Lenovo / IBM y Fujitsu, y PC World Reino Unido propia marca de Adviento.
Entre los fabricantes de desknotes, se incluyen:
• Apple: iMac G5
• Dell
Computadora portátil 118
• ECS
• Hewlett-Packard
• Sony
• Toshiba
• Clevo
• Hitachi
• HP
Ventajas
En la actualidad, una computadora de escritorio puede soportar cualquier tipo de UCP, memoria, gráfico; por lo
tanto, una computadora portátil de escritorio debería poder ofrecer el mismo tipo de soporte que el correspondiente a
una computadora de escritorio. Una computadora de escritorio presenta algunas ventajas:
• Tradicionalmente, un usuario de una computadora portátil tenía que esperar a que se lanzara una especificación
similar a la de una computadora de 9 a 12 meses. Con las computadoras portátiles de escritorio, se reduce esta
espera. Se puede disfrutar de la misma tecnología, sin esperar tanto tiempo y mantener cierta portabilidad
utilizando un producto para computadoras de escritorio.
• Tiene la misma cantidad de puertos o más que una computadora de escritorio. Algunas computadoras portátiles
con algunos años poseen entrada de PCMCIA, como la tienen algunas computadoras portátiles para el módem
(RJ-11), puerto RJ-45, Wifi y la salida VGA. La computadora portátil también tiene puertos USB, spika y algunos
modelos recientes (2013) inclusive bluetooth para expansiones y conexiones como DVD-RW, impresora,
teléfonos móviles y para otros dispositivos móviles.
• La actualización y la sustitución de componentes es más fácil que con una computadora portátil tradicional para:
UCP, memoria RAM, unidades de disco duro, placas madre, monitores LCD y chasis. Todas ellas pueden ser
cambiadas por el usuario, a diferencia de los portátiles.
• Puede incluir una batería externa para funcionar de la misma manera que una computadora de escritorio
tradicional y un bastidor vacío para una futura batería interior.
• Tiene las mismas ventajas de una computadora portátil: las computadoras portátiles de escritorio deben tener la
ventaja de la movilidad de una computadora portátil, deben ser transportables y mucho más ligeras y pequeñas
que una computadora de escritorio. Las computadoras portátiles de escritorio son ideales para aquellos que
quieran tener una computadora personal de gran potencia y transportable para usarla en lugares con muy poco
espacio.
• Uno de sus componentes es un panel de pantalla grande, claro y plano (la pantalla ocupa pocos espacio sin
sacrificar el área de visión).
• Puede poseer bastidores modulares extraíbles (los cuales no están presentes en una computadora de escritorio).
• Consume menos energía.
• Ocupa poco espacio y, por lo tanto, permite disfrutar de más espacio libre.
• Pesa poco.
• Son necesarios pocos cables para su funcionamiento por lo que la conexión de dispositivos se hace más fácil que
con un ordenador de sobremesa tradicional.
Computadora portátil 119
Desventajas
• La pantalla se sitúa por debajo de la línea de visión.
Se necesita inclinar la cabeza constantemente, lo que
resulta una postura perjudicial. Para trabajos
puntuales no supone una gran molestia, pero si el
aparato se utiliza como un ordenador de trabajo
durante días y meses pues crear problemas en la
columna.
• Las baterías por el momento no pueden cubrir siete
u ocho horas de funcionamiento, una jornada laboral
media. Por lo que la movilidad se ve reducida.
• Los distintos tipos de "ratón" que traen son más
incómodos y menos manejables que los de
sobremesa. Se han probado de botón y por pantalla,
pero ninguna de las dos soluciones alcanza las
Ordenador portátil con accesorios y periféricos para compensar sus prestaciones y la comodidad de los de "torre".
desventajas. • Los teclados suelen ser menos manejables que los
externos. Son más pequeños, pese a los nuevos
portátiles con pantalla más panorámica. El tecleo con ellos no suele ser tan preciso como con los teclados de
sobremesa.
• Puede ser imposible o por lo menos caro de colocar otro disco duro además del principal.
Para solventar estos problemas se han fabricado varias soluciones, especialmente la primera. Existen en el mercado
soportes para ordenadores portátiles regulables en altura, con lo cual se logra colocar el borde superior de la pantalla
en la línea de los ojos. Desgraciadamente una solución así dificulta mucho utilizar el teclado, al estar mucho más alto
el aparato y exigir tener los brazos en vilo permanentemente. Los portátiles equipados con varios puertos USB
admiten el mismo tipo de teclado y de ratón que se utilizan para las máquinas de escritorio. Sin embargo, en muchos
equipos del siglo XX y primera década del siglo XXI, sólo podía conectarse un periférico por este sistema,
posteriormente se ha ido incrementando el número. Dicho incremento ha permitido también conectar discos duros
externos, pese a que estos dispositivos sufren una demora en el acceso a los datos por necesitar arrancar la primera
vez que se les hace trabajar.
Las soluciones existentes para compensar las desventajas de un portátil aumentan el número de cables, perdiendo
con ello uno de sus puntos fuertes frente a los aparatos de "torre".
Referencias
[1] Tully, C. J. (2007). La socialización en el presente digital: informalización y contextualización. Revista Iberoamericana de Ciencia,
Tecnología y Sociedad, 3(8), 9-22.
[2] Deepak, G., & Pradeep, B. S. (2012). Challenging uses and limitations of mobile computers. Int.J.Computer Techology & Applications, 3(1),
177-181.
[3] Chia, J., & Escalona, C. I. (2009). La medición del impacto de la ciencia de la tecnología y la innovación: análisis de una experiencia. Revista
Iberoamericana de Ciencia, Tecnología y Sociedad, 5(13), 83-96.
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Computadora portátilCommons.
• Consorcio Wireless Power (http://www.wirelesspowerconsortium.com/)
• Desktop notebooks stake their claim (http://archive.is/20130308004421/http://news.com.com/
2100-1040-979763.html?tag=nl) — artículo en C|NET News.com (http://archive.is/20121208135346/http://
Computadora portátil 120
Netbook
Una netbook es una categoría de computadora portátil, 21 Unidos
en noviembre del año 2000.[1] El término fue reintroducido por
Intel en febrero de 2008[2] con su actual significado.
Historia
El término "netbook" fue originalmente introducido por Psion en
1999 como una marca para designar a computadoras pequeñas con
suficiente poder para usarse en oficinas y tener acceso a internet.
Las Psion Netbook fueron una línea de computadoras que tenían el
ECS G1OIL
sistema operativo Psion Epoc y luego WinCE. Debido a lo
pequeño de su mercado, el alto costo y el sistema operativo no
estándar, estas computadoras de Psion nunca obtuvieron un mercado significante y fueron discontinuadas.
Su desarrollo comenzó en 2007 cuando Asus reveló la ASUS Eee PC. Al principio diseñada para mercados
emergentes, la computadora de 23 x 17 cm (8.9" × 6.5") pesaba aproximadamente 0.9 kilogramos (2 libras) y tenía
una pantalla de 18 cm (7 pulgadas), un teclado de aproximadamente el 85% del tamaño de un teclado normal, un
dispositivo de memoria en tarjeta, una versión adaptada de Linux, una interfaz simplificada orientada al uso en una
netbook.
Se afirma también que han tomado la idea de la iniciativa de Nicholas Negroponte, One Laptop Per Child (un
portátil por niño). A partir de 2010, la mayoría de netbooks vienen con una pantalla de 25,6 cm (10.1 pulgadas), y
con mejores procesadores (lo normal son 1.6 Ghz). Aunque su punto débil sigue siendo la tarjeta gráfica y la
frecuencia del núcleo.
La mayoría también tienen un procesador Intel Atom, que incorpora la función HyperThreading, la cual simula la
función de un procesador doble núcleo, utilizando dos líneas de procesos a la vez.
Características
Los netbooks son más pequeños que los portátiles tradicionales pero más grandes que los UMPC. Generalmente
poseen pantallas de menor tamaño, de entre 17,8 cm (7") y 35,56 cm (14") ca., y un peso que varía desde menos de
uno hasta dos kilogramos. El ahorro en peso y tamaño generalmente se obtiene omitiendo algunos puertos o
unidades ópticas, además de utilizar chipsets de menor potencia.
Los sistemas operativos usados son Windows XP Home, Windows 7 Starter, Windows CE (propietarios, de
Microsoft), y otros de código abierto basados en GNU/Linux, entre los cuales varios de ellos han sido especialmente
programados para su uso en estos ordenadores, como el Ubuntu Netbook Remix. Sin embargo, las netbooks no son
lo suficientemente potentes para tareas como la edición de vídeo o para juegos de gráficos pesados, pero con ciertos
programas emuladores de síntesis de imágenes y procesos de aligeramiento pueden ejecutarlos en un rango de
calidad bajo-medio, y generalmente no tienen unidades ópticas (aunque se les puede conectar una unidad externa).
Un término derivado es nettop, que identifica a las computadoras que tienen características similares de tamaño,
prestaciones y precio, pero no son portátiles, sino de escritorio.
Netbook 121
Pueden costar menos de 300 dólares estadounidenses. El bajo costo hace que Microsoft no pueda cobrarle lo mismo
por el software a los fabricantes para computadoras- según dice cobra menos de 15 dólares por subportátil-. Han
ganado popularidad, durante la actual recesión, pues son baratas y el impulso de hacerla más atrayentes por los
fabricantes de PC, como Hewlett-Packard (HP), Dell, Acer y Lenovo, para impulsar las ventas.
Se estima que para 2011 más de 50 millones de netbooks estarán en circulación.[3]
Ejemplos
Pueden ser categorizados como subportátiles dispositivos como:
• Airis Kira
• Asus Eee PC
• Acer Aspire one
• Dell E, Mini o Inspiron 910
• Fujitsu Siemens Amilo Mini
• Gdium
• HP 2133 Mini-Note PC
• Intel Classmate PC
• Lanix Neuron LT10
• Lenovo S10
• LG X110
• MSI Wind (y sus clones como Medion Akoya Mini y Advent 4211, entre otros)
• Samsung NC10
• Toshiba Satellite NB105
• VIA NanoBook y sus derivados como el Everex Cloudbook y Belinea S Book 1
• VIA OpenBook
• Sony VAIO P-Series
Netbook 122
Sistemas Operativos
A continuación se expone una lista con los distintos sistemas operativos que se suelen utilizar en estas computadoras.
Windows En una de las encuestas en los Estados Unidos de enero de 2009 se descubrió que más del 90% de los
netbooks que se vendían traían instalado el Windows XP.[4]
Microsoft ha colaborado en el aumento de las ventas de netbooks con Windows XP, bajando para estos, desde junio
de 2008 hasta junio de este año, el costo de éste. Sin embargo, a partir del primer trimestre de 2009, y con el
aumento de las prestaciones de las netbooks, muchos modelos de los que se habrían anunciado con Windows XP
saldrían a la venta con el nuevo y novedoso Windows 7, lo que también influyó en el aumento de su precio.
Linux
Las estadísticas estiman que el 32% de las subportátiles de todo el mundo utilizan este sistema operativo,[5] uno de
los más conocidos después de Windows.
Una de las principales causas de que el 32% de netbooks tengan instalado Linux es que, para instalar cualquier tipo
de aplicación o programa, no necesitamos buscarlo en Internet, sino en sus repositorios, en los que es mucho más
fácil, rápido, sencillo y seguro. Sin embargo, las primeras netbooks como el Eee PC, no hicieron uso de este
beneficio al deshabilitar el acceso a la gama completa de software de Linux disponible.
Se han generado diversas variantes de Linux o distribuciones completamente nuevas, que optimizan las prestaciones
de la pequeña pantalla y la capacidad de procesamiento de los Intel Atom que suelen incorporar, algunas de las
nuevas versiones son Ubuntu Netbook Remix (basada en Ubuntu), fácil Peasy, Jolicloud o Moblin.
Mac OS X
Pueden encontrarse Mac OS X en ejecución en varias netbooks que no son de la propiedad de Apple Inc.,[6] aunque
esto viola los términos de dicha organización. Apple se ha quejado a sitios que albergan información sobre cómo
instalar el sistema operativo sobre algunas netbooks (como YouTube). Los responsables de estos sitios han
reaccionado y han eliminado estos videos.
Referencias
[1] Datos de registro en la Oficina de Marcas y Patentes de Estados Unidos (USPTO) (http:/ / assignments. uspto. gov/ assignments/ q?db=tm&
sno=75215401)
[2] Intel to Sell Chips for Laptops Priced as Low as $250 (http:/ / www. bloomberg. com/ apps/ news?pid=20601103& sid=az8hQRcc_a. c&
refer=us)
[3] HP unveils small laptop for schoolkids (http:/ / web. archive. org/ web/ 20080409201158/ news. yahoo. com/ s/ ap/ 20080408/ ap_on_hi_te/
hewlett_packard_small_laptops)
[4] Datos de las estadísticas realizadas sobre Windows en 2009 (Realizada por los oficiales de Windows) (http:/ / www. informationweek. com/
news/ windows/ operatingsystems/ showArticle. jhtml?articleID=216402927)
[5] Datos de las estadísticas sobre linux 2009 (ABI) (http:/ / www. computerworld. com/ s/ article/ 9140343/
Linux_s_share_of_netbooks_surging_not_sagging_says_analyst)
[6] Mac funcionando en un PC (http:/ / www. youtube. com/ watch?v=lkuUj8G7p3A)
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Netbook. Commons
Ultrabook 123
Ultrabook
Un ultrabook es un tipo de ordenador portátil que se caracteriza por
ser extremadamente ligero y delgado, en comparación con sus
antecesores los netbooks y los subportátiles. "Ultrabook" fue solicitado
como marca registrada por Intel en el año 2011, en una iniciativa para
crear un mercado de PC en competencia con el MacBook Air de
Apple. Sin embargo, el término ha pasado a ser de uso común para
hacer referencia a este tipo de ordenadores, a pesar de que pueden
albergar procesadores y chipsets de otros fabricantes, como AMD o
VIA.
Asus UX21 ultrabook
Cronograma de Intel
Intel tiene planeada una estrategia dividida en tres fases, cada fase teniendo como protagonista la familia de
procesadores del momento.
Primera fase
En esta etapa los ultrabooks encajan con la descripción básica ideada por Intel, utilizando procesadores basados en
Sandy Bridge (segunda generación Intel Core i).
Segunda fase
Se introducirán nuevos modelos basados en Core i Ivy Bridge, reduciendo aún más el consumo. Añade
funcionalidades de seguridad como el seguimiento del portátil. Gracias a Ivy Bridge también incluirá mejoras en la
GPU integrada como soporte para DirectX 11 y OpenGL.
Ultrabook 124
Intel pretende que forme parte de la especificación de la segunda generación de ultrabooks la tecnología Thunderbolt
y un puerto a modo de docking station. Con el ancho de banda del puerto Thunderbolt (10 Gbps) y la capacidad de
encadenar dispositivos, los ultrabooks verían resuelta una parte de la problemática de tener chasis tan delgados: falta
de conectividad. El puerto adicional serviría para añadir, ya sea mediante cable o mediante una docking station
propiamente dicha, puertos USB, SATA, PCIe y en general la conectividad que cabría esperar de un puerto de
expansión. El conector Thunderbolt además tendría la capacidad de transportar la señal DisplayPort.
En esta generación habrá modelos que, aparte de la GPU integrada Intel, también llevarán una GPU dedicada. Nvidia
será el primer fabricante que integre sus nuevas GeForce GT620M en este segmento de mercado.
Por último, Intel ha declarado que persigue el lanzamiento de ultrabooks con pantalla táctil basados en Windows 8.
Tercera fase
La tercera generación de ultrabooks se servirá de la arquitectura Intel Haswell. Planeada para 2013, traería a los
ultrabooks procesadores con una TDP de 15W y NFC integrado. Además, específicamente para los ultrabooks,
Haswell significaría la integración del puente sur en el mismo empaquetado que la CPU, de forma similar a cuando
Intel integró el puente norte en sus procesadores, convirtiendo por tanto a Haswell en el primer SoC basado en
arquitectura x86. Los 15W de TDP son para el paquete completo de CPU y el resto de componentes integrados.
Crítica
La principal crítica de los ultrabooks, al menos en la primera generación, consiste en un precio de lanzamiento no
demasiado atractivo. Los fabricantes alegan que no pueden rebajar mucho más los costes debido a que tan sólo con
el hardware de Intel se les va un tercio de los costes de fabricación si se tiene en cuenta el objetivo de lanzar
ordenadores por 1000 o menos dólares. Es por ello que le pidieron a Intel una rebaja del 50%, sin embargo ésta sólo
accedió a un 20% ya que más rebaja significaría quedar por debajo del 60% de beneficio estratégico.
Analistas de la industria prevén que si el coste para el consumidor de estos portátiles no baja, los ultrabooks se
convertirán en un mercado selecto, como lo es ahora el MacBook Air a pesar de ser ya actualmente más baratos que
éste, algo poco atractivo para los fabricantes de PC donde el grueso de ventas se sitúa en los 500-700 euros.
Debido a esta crítica del coste por parte de los fabricantes, Intel creó el fondo inicial para ayudarles económicamente.
Sin embargo, a pesar de los esfuerzos, las ventas de ultrabooks no parecen haber cumplido los objetivos previstos.
Aún con todo Intel planea conseguir una rebaja de precio con las sucesivas generaciones de ultrabooks y espera que
para 2013 sea un segmento completamente asentado, llegando a un 40% del total de ventas de ordenadores portátiles
para 2015.
En recientes declaraciones recogidas por Charlie Demerjian del sitio de tecnología Semiaccurate.com Intel ha
reconocido que el concepto de "Ultrabook" ha fallado y ha cancelado su posterior desarrollo.
Ultrabook 125
Referencias
126
Windows
Windows 7
Windows 7
Desarrollador
Microsoft Corporation
Sitio web oficial
[1] [2]
España — Latinoamérica
Información general
Núcleo NT 6.1
Idiomas Multilingüe
En español
Soporte técnico
Período de soporte estándar hasta el 13 de enero de 2015. Después, período de soporte extendido hasta el 14 de enero de 2020. El soporte técnico de
Windows 7 RTM sin Service Pack finalizó el 9 de abril de 2013.
Artículos relacionados
• Desarrollo de Windows 7
• Ediciones de Windows 7
Windows 7 es una versión de Microsoft Windows, línea de sistemas operativos producida por Microsoft
Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas,
equipos portátiles, tablet PC, netbooks y equipos media center. El desarrollo de Windows 7 se completó el 22 de
octubre de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su
equivalente para servidores Windows Server 2008 R2.[5]
A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a
Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT
Windows 7 127
6.0, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era
compatible. Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz para
volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más
fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.
Diversas presentaciones ofrecidas por la compañía en 2008 se enfocaron en demostrar capacidades multitáctiles, una
interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas simplificado y fácil de usar
denominado «Grupo en el hogar», además de importantes mejoras en el rendimiento general del sistema operativo.
Desarrollo
El desarrollo de este sistema operativo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20
de julio de 2007 se reveló que ese sistema operativo era llamado internamente por Microsoft como la versión «7».
Hasta ese momento la compañía había declarado que Windows 7 tendría soporte para plataformas de 32 bits y 64
bits, aunque la versión para servidores que comparte su mismo núcleo (Windows Server 2008 R2, que sucedería a
Windows Server 2008) sería exclusivamente de 64 bits.
El 13 de octubre de 2008 fue anunciado que «Windows 7», además de haber sido uno de tantos nombres en código,
sería el nombre oficial de este nuevo sistema operativo. Mike Nash dijo que esto se debía a que con Windows 7 se
«apunta a la simplicidad, y el nombre debía reflejarlo».
Ya para el 7 de enero de 2009, la versión beta se publicó para suscriptores de Technet y MSDN. El 9 de enero se
habilitó brevemente al público general mediante descarga directa en la página oficial, pero hubo problemas con los
servidores, que obligaron a retirar la posibilidad de descarga hasta horas más tarde, después de solventar el problema
añadiendo más servidores. Por esos percances, Microsoft cambió el límite de descargas inicial de 2,5 millones de
personas como disculpa por el problema del retraso, y creó un nuevo límite que no sería numérico sino por fecha,
hasta el 10 de febrero del 2009.
El 5 de mayo se liberó la versión Release Candidate en 5 idiomas, entre ellos el español. Estuvo disponible para
descargar hasta el 20 de agosto de 2009.
El 2 de junio Microsoft anunció que la salida mundial de Windows 7 tendría lugar el 22 de octubre.[6]
El 24 de julio, los directivos de Microsoft Steve Ballmer y Steven Sinofsky anunciaron la finalización del proceso de
desarrollo con la compilación de la versión RTM, destinada a la distribución de Windows.[7]
Otro asunto presente en el desarrollo de este sistema, y gracias a los comentarios de los usuarios, fue el minimizar la
intrusión habilitando la personalización del Control de cuentas de usuario, ya que éste fue considerado como molesto
en Windows Vista debido a sus constantes alertas en simples acciones como las de mantenimiento que invocaban
funciones propias del sistema operativo.[8]
En una carta escrita por el vicepresidente de negocios para Windows de Microsoft Corporation, William Veghte, se
mencionan apartes sobre la visión que se tuvo para Windows 7:
Hemos aprendido mucho a través de los comentarios que ustedes han compartido con nosotros acerca de
Windows Vista, y esa retroalimentación juega un papel importante en nuestro trabajo para Windows 7. Nos
han dicho que desean una programación más estructurada y predecible para la liberación de Windows...
...nuestro enfoque hacia Windows 7 es basarnos en la misma arquitectura de fondo de Windows Vista Service
Pack 1, de manera que las inversiones que ustedes y nuestros socios han realizado en Windows Vista
continúen redituando con Windows 7. Nuestro objetivo es asegurar que el proceso de migración de Windows
Vista a Windows 7 sea transparente.[9]
Windows 7 128
Características
Windows 7 incluye varias características nuevas, como mejoras en el reconocimiento de escritura a mano, soporte
para discos duros virtuales, rendimiento mejorado en procesadores multinúcleo, mejor rendimiento de arranque,
DirectAccess y mejoras en el núcleo. Windows 7 añade soporte para sistemas que utilizan múltiples tarjetas gráficas
de proveedores distintos (heterogeneous multi-adapter o multi-GPU), una nueva versión de Windows Media Center
y un gadget, y aplicaciones como Paint, Wordpad y la calculadora rediseñadas. Se añadieron varios elementos al
Panel de control, como un asistente para calibrar el color de la pantalla, un calibrador de texto ClearType, Solución
de problemas, Ubicación y otros sensores, Administrador de credenciales, iconos en el área de notificación, entre
otros. El Centro de Seguridad de Windows se llama aquí Centro de actividades, y se integraron en él las categorías
de seguridad y el mantenimiento del equipo.
La barra de tareas fue rediseñada, es más ancha, y los botones de las ventanas ya no traen texto, sino únicamente el
icono de la aplicación. Estos cambios se hacen para mejorar el desempeño en sistemas de pantalla táctil. Estos iconos
se han integrado con la barra «Inicio rápido» usada en versiones anteriores de Windows, y las ventanas abiertas se
muestran agrupadas en un único icono de aplicación con un borde, que indica que están abiertas. Los accesos
directos sin abrir no tienen un borde. También se colocó un botón para mostrar el escritorio en el extremo derecho de
la barra de tareas, que permite ver el escritorio al posar el puntero del ratón por encima.
Se añadieron las «Bibliotecas», que son carpetas virtuales que agregan el contenido de varias carpetas y las muestran
en una sola vista. Por ejemplo, las carpetas agregadas en la biblioteca «Vídeos» son: «Mis vídeos» y «Vídeos
públicos», aunque se pueden agregar más, manualmente. Sirven para clasificar los diferentes tipos de archivos
(documentos, música, vídeos, imágenes).
Una característica llamada «Jump lists» guarda una lista de los archivos abiertos recientemente. Haciendo clic
derecho a cualquier aplicación de la barra de tareas aparece una jump list, donde se pueden hacer tareas sencillas
según la aplicación. Por ejemplo, abrir documentos recientes de Office, abrir pestañas recientes de Internet Explorer,
escoger listas de reproducción en el reproductor, cambiar el estado en Windows Live Messenger, anclar sitos o
documentos, etcétera.
Interfaz
• El equipo de desarrollo de la interfaz Ribbon de Microsoft Office 2007 formó parte activa en el rediseño de
algunos programas y características de Windows 7, y dicha interfaz se incluyó en las herramientas Paint y
Wordpad.
• Windows 7 permite ahora la personalización del equipo, al guardar temas completos, lo que incluye color de
ventanas, imágenes incluidas, conjunto de sonidos, incluso protector de pantalla (las anteriores versiones se
limitaban simplemente al color de las ventanas).
• La calculadora, que anteriormente sólo disponía de funciones científicas y estándares en otras versiones (desde
Windows 95 hasta Windows Vista), ahora incluye funciones propias de programación y de estadística. Además,
permite convertir entre unidades del Sistema Internacional de Unidades y el Sistema Inglés; cálculo entre fechas y
hojas de cálculo para hipoteca, alquiler de vehículos y consumos de combustible. Al igual que en las calculadoras
reales, guarda la secuencia de operaciones realizadas por el usuario. -lhkljh* La barra lateral de Windows, más
conocida como Windows Sidebar, se ha eliminado; ahora los gadgets puedan ubicarse libremente en cualquier
lugar del escritorio, ya sea en el lado derecho, izquierdo, arriba o abajo, sin contar con la Sidebar.
• Reproductor de Windows Media 12 es el nuevo reproductor multimedios, incluido como estándar en las versiones
de Windows 7. A diferencia de sus otras versiones, deja de tener una ubicación fija para los controles más básicos
(como Reproducir, Detener, Repetir, Volumen y la barra buscadora), la cual se desvanece en tanto se retira el
puntero del ratón. Ahora incluye tres simples pestañas para reproducir, grabar discos o sincronizar a dispositivos;
además de manejar formatos ajenos a la empresa, como MOV, MP4, xvid y divx, entre otros. En cambio, es la
primera versión del programa que no aparecerá en versiones anteriores de Windows y la primera que no maneja
Windows 7 129
los metadatos de los archivos (como la adición de letra a las canciones). Versiones N del sistema operativo no lo
incluirán, por lo que tendrán que descargarse separadamente.
• Aero Peek: Las previsualizaciones de Windows Aero se han mejorado y son más interactivas y útiles. Cuando se
posa el ratón sobre una aplicación abierta, éste muestra una previsualización de la ventana, donde muestra el
nombre, la previsualización y la opción de cerrarla; además, si se coloca el ratón sobre la previsualización, se
obtiene una mirada a pantalla completa y al quitarlo se regresa al punto anterior. Además se incorporó esta misma
característica a Windows Flip.
• Aero Shake: Cuando se tienen varias ventanas abiertas, al hacer clic sostenido en la Barra de Título y agitarla, las
otras ventanas abiertas se minimizan. Al repetir esta acción, las ventanas vuelven a su ubicación anterior.
• Windows Flip 3D es una función de Windows Aero que mejora la función Windows Flip; muestra, a través de un
efecto en 3D, las ventanas abiertas y permite así una búsqueda más rápida y eficaz en múltiples ventanas. A
diferencia de la opción Windows Flip, que se activa con Alt+Tab ↹, esta función se activa con la combinación ⊞
Win+Tab ↹. Además, mejora la función de las teclas Alt+Tab ↹, la cual muestra una miniventana en tiempo real de
las aplicaciones en ejecución (característica ya incluida en Windows Vista).
• Aero Snap: Consiste en que al mover una ventana hacia los laterales de la pantalla, la ventana se ajusta
automáticamente a la mitad del escritorio. Si se mueve al borde superior, la ventana se maximiza, y se restaura al
arrastrarla ligeramente hacia abajo. Esto es útil para ver o intercambiar el contenido de dos ventanas
simultáneamente, pero no es muy funcional con resoluciones de pantalla demasiado bajas. Este mismo método se
puede realizar con las siguientes combinaciones de teclas (También en Windows 8):
1. Maximizar: ⊞ Win+↑
2. Lado Izquierdo: ⊞ Win+←
3. Lado Derecho: ⊞ Win+→
4. Minimizar: ⊞ Win+↓
• Anclaje: En Windows 7 es posible anclar los programas favoritos en la barra de tareas para facilitar su acceso.
Existen dos maneras de hacerlo:
1. Arrastrando el icono del programa o archivo hacia la barra de tareas.
2. Cuando se esté ejecutando el programa en la barra de tareas, pulsar el botón secundario del mouse y
seleccionar la opción Anclar. Internet Explorer 9 permite, además, anclar páginas favoritas de la misma forma
en la barra de tareas.
Multitáctil
El 27 de mayo de 2008, Steve Ballmer y Bill Gates, en la conferencia «D6: All Things Digital», dieron a conocer la
nueva interfaz multitáctil, y dijeron que era «sólo una pequeña parte» de lo que vendría con Windows 7. Más tarde,
Julie Larson Green, vicepresidente corporativa, mostró posibles usos, como hacer dibujos en Paint, agrandar o
reducir fotos y recorrer un mapa en Internet, arrastrar y abrir elementos, simplemente con toques en la pantalla.
Modo XP
Windows 7 permite integrar la nueva versión Windows Virtual PC, que sirve para ejecutar un equipo virtual
Windows XP en forma transparente para el usuario (la aplicación dentro de la máquina virtualizada se ve como otra
opción en el menú de Windows 7 y su ejecución es directa, sin pasar por el menú de inicio del XP virtualizado). Si
bien Microsoft ya había liberado MED-V dentro de su paquete MDOP, que cumple la misma función en entornos
Hyper-V, ésta es una solución orientada a usuarios avanzados y pequeñas empresas que no necesitan herramientas
para administración centralizada. La funcionalidad se debe descargar de forma independiente en el sitio web de
Microsoft Virtual PC [10], aunque requiere una licencia válida de las ediciones Professional, Ultimate y Enterprise de
Windows 7. Asimismo, el «modo XP» en un principio requiere procesadores con capacidad de virtualización por
hardware, a diferencia del anterior Virtual PC 2007 o Virtual PC 2008, pero mediante una actualización desde
Windows Update se puede ejecutar el «modo XP» en ordenadores sin virtualización por hardware.
Compatibilidad
Las versiones cliente de Windows 7 se lanzaron en versiones para arquitectura 32 bits y 64 bits en las ediciones
Home Basic, Home Premium, Professional y Ultimate. No obstante, las versiones servidor de este producto fueron
lanzadas exclusivamente para arquitectura 64 bits.
Esto significa que las versiones cliente de 32 bits aún soportan programas Windows 16 bits y MS-DOS. Y las
versiones 64 bits (incluidas todas las versiones de servidor) soportan programas tanto de 32 como de 64 bits.
Otras características
Microsoft decidió no incluir los programas Windows Mail, Windows Movie Maker y Windows Photo Gallery en
Windows 7, y los puso a disposición a modo de descarga en el paquete de servicios en red, Windows Live Essentials.
Esto se decidió así para facilitar las actualizaciones de estos programas, aligerar el sistema operativo, dejar escoger al
usuario las aplicaciones que quiere tener en su equipo y evitar futuras demandas por monopolio.
Actualizaciones
Service Pack 1
El primer Service Pack (SP1) de Windows 7 fue anunciado por primera vez el 18 de marzo de 2010. Más adelante
ese año, el 12 de julio, se publicaría una versión beta. Microsoft confirmó que dicho service pack tendría poca
trascendencia en comparación con otros service packs disponibles para versiones anteriores de Windows,
particularmente Windows Vista, por lo que este service pack corrige principalmente algunos errores y problemas de
seguridad encontrados anteriormente en la versión RTM de Windows 7 mejorando algo igualmente la estabilidad,
compatibilidad y rendimiento del sistema. Cabe mencionar que un cambio notable es que la red Wi-Fi
predeterminada al equipo carga durante el inicio del sistema, por lo que internet está disponible desde el momento
que aparece el escritorio.
Para el 26 de octubre de 2010, Microsoft publicó de manera oficial una versión Release Candidate del Service Pack
1 para Windows 7, con un número de versión "6.1.7601.17105". Después, el 9 de febrero de 2011, Microsoft publicó
la versión terminada y final (RTM) del Service Pack 1 para Windows 7 y Windows Server 2008 R2 a sus socios
OEM, con un número de versión "6.1.7601.17514.101119-1850". Tras esto, el 16 de febrero, se haría disponible para
suscriptores de los servicios MSDN y TechNet, así como clientes de licencias por volumen. Finalmente, el 22 de
febrero, el Service Pack 1 se hizo disponible de forma generalizada para ser descargado desde la página del centro de
descargas de Microsoft, así como también mediante el servicio de actualizaciones automáticas Windows Update.
También está disponible de forma integrada en todos los ISOs de todas las ediciones de Windows.
Windows 7 131
Ediciones
Existen seis ediciones de Windows 7, construidas una sobre otra de manera incremental, aunque solamente se
centrarán en comercializar dos de ellas para el común de los usuarios: las ediciones Home Premium y Professional.
A estas dos, se suman las versiones Starter, Home Basic, y Ultimate, además de la versión Enterprise, que está
destinada a grupos empresariales que cuenten con licenciamiento Open o Select de Microsoft.
• Starter: Es la versión de Windows 7 con menos funcionalidades. Posee una versión incompleta de la interfaz
Aero que no incluye los efectos de transparencia Glass, Flip 3D o las vistas previas de las ventanas en la barra de
inicio y además no permite cambiar el fondo de escritorio. Está dirigida a PC de hardware limitado —como
netbooks—, siendo licenciada únicamente para integradores y fabricantes OEM. Incluye una serie de restricciones
en opciones de personalización y de programas, además de ser la única edición de Windows 7 sin disponibilidad
de versión para hardware de 64 bits.
• Home Basic: Versión con más funciones de conectividad y personalización, aunque su interfaz seguirá siendo
incompleta como en la edición Starter. Sólo estará disponible para integradores y fabricantes OEM en países en
vías de desarrollo y mercados emergentes.
• Home Premium: Además de lo anterior, se incluye Windows Media Center, el tema Aero completo y soporte
para múltiples códecs de formatos de archivos multimedia. Disponible en canales de venta minoristas como
librerías, tiendas y almacenes de cadena.
• Professional: Equivalente a Vista Business, pero ahora incluye todas las funciones de la versión Home Premium
más «Protección de datos» con «Copia de seguridad avanzada», red administrada con soporte para dominios,
impresión en red localizada mediante Location Aware Printing y cifrado de archivos. También disponible en
canales de venta al público.
• Ultimate: Añade características de seguridad y protección de datos como BitLocker en discos duros externos e
internos, Applocker, Direct Access, BranchCache, soporte a imágenes virtualizadas de discos duros (en formato
VHD) y el paquete de opción multilenguaje hasta 35 idiomas.
• Enterprise: Esta edición provee todas las características de Ultimate, con características adicionales para asistir
con organizaciones IT. Únicamente se vende por volumen bajo contrato empresarial Microsoft software
Assurance. También es la única que da derecho a la suscripción del paquete de optimización de escritorio MDOP.
• Ediciones N: Las ediciones N están disponibles para actualizaciones y nuevas compras de Windows 7 Home
Premium, Professional y Ultimate. Las características son las mismas que sus versiones equivalentes, pero no
incluyen Windows Media Player. El precio también es el mismo, ya que Windows Media Player puede
descargarse gratuitamente desde la página de Microsoft.
Requisitos de hardware
A finales de abril del 2009 Microsoft dio a conocer los requerimientos finales de Windows 7.
Windows 7 132
Procesador 1 GHz
Tarjeta gráfica Dispositivo de gráficos DirectX 9 con soporte de controladores WDDM 1.0 (para Windows Aero)
Opcionalmente, se requiere un monitor táctil para poder acceder a las características multitáctiles de este sistema.
Acogida
En julio de 2009, tras solo ocho horas, la demanda de reservas de Windows 7 en Amazon.co.uk sobrepasó la
demanda que tuvo Windows Vista en sus primeras 17 semanas. Con ello, se convirtió en el producto con mayor
cantidad de reservas en la historia de Amazon, sobrepasando en ventas al anterior récord, el último libro de Harry
Potter. En Japón y tras 36 horas, las versiones de 64 bits de las ediciones Professional y Ultimate de Windows 7 se
agotaron. Dos semanas después del lanzamiento, se anunció que su cuota de mercado sobrepasó totalmente la de
Snow Leopard, la más reciente actualización del sistema operativo Apple Mac OS X, el cual fue lanzado dos meses
antes. De acuerdo con Net Applications, Windows 7 alcanzó un 4% de cuota de mercado en menos de tres semanas;
en comparación, le tomó a Windows Vista siete semanas en alcanzar la misma meta. El 29 de enero de 2010,
Microsoft anunció que habían vendido más de 60 millones de licencias de Windows 7.[11]
Las evaluaciones hechas a Windows 7 fueron en su mayoría positivas, destacando su facilidad de uso en
comparación con su predecesor, Windows Vista. CNET le dio a Windows 7 Home Premium una puntuación de 4,5
sobre 5 estrellas, señalando que «es más de lo que Vista debió ser, [y es] a donde Microsoft necesitaba dirigirse». PC
Magazine lo puntuó con 4 de 5 declarando que Windows 7 era «un gran avance sobre Windows Vista, con menos
problemas de compatibilidad, una barra de tareas con más herramientas, capacidades de conexión a redes más
simples y un arranque más veloz». Maximum PC le dio a 7 una puntuación de 9 sobre 10 y llamó a Windows 7 un
«enorme salto hacia adelante en usabilidad y seguridad», destacando la nueva barra de tareas declarando que «paga
por sí sola el precio de entrada». PC World denominó a Windows 7 como un «sucesor digno» de Windows XP y
declaró que las pruebas de velocidad mostraban a Windows 7 ligeramente más rápido que Windows Vista. PC World
también consideró a Windows 7 como uno de los mejores productos del año. En su evaluación de Windows 7,
Engadget declaró que Microsoft había tomado un «fuerte paso hacia adelante» con Windows 7 y reportó que la
velocidad de Windows 7 era una característica de importancia, particularmente en ventas de equipos tipo netbook.
También, los diarios estadounidenses New York Times, USA Today, The Wall Street Journal, y The Telegraph le
dieron evaluaciones favorables.
En España, la campaña publicitaria de Microsoft para Windows 7 promocionó a la localidad «Sietes» en Asturias
como sitio de lanzamiento, con lo cual se pintaron fachadas, además de donar equipos, capacitar y enseñar a los
habitantes del pueblo sobre el uso de tecnologías informáticas como Internet. En este escenario rural, se destacó la
idiosincrasia y el folclor del pueblo junto a sus habitantes con el lema de «Sietes: un pueblo de expertos en Windows
7».[12] En España, la revista PC Actual destacó a Windows 7 como «más rápido, amigable, estable y seguro; menos
exigente con el hardware».
Windows 7 133
Regulación antimonopolio
Para cumplir con las regulaciones antimonopólicas de la Unión Europea, Microsoft propuso el uso de una «pantalla
de elección» (en inglés ballot screen), permitiendo a los usuarios desactivar, descargar e instalar o seleccionar como
predeterminado a cualquier navegador web, con ello eliminando la necesidad de editar una edición de Windows sin
Internet Explorer (previamente denominada «Windows 7 E»). La pantalla de elección llegó en respuesta a críticas
sobre Windows 7 E, además de preocupaciones dadas a conocer por fabricantes y ensambladores sobre la posibilidad
de confusión de algunos usuarios si una versión de Windows 7 con Internet Explorer sería vendida junto con una que
no lo tuviese; por ello, Microsoft anunció que descartaría versiones especiales para Europa y que se distribuirían los
mismos paquetes estándares y de actualización que en otras partes del mundo.
Al igual que con versiones anteriores de Windows, se publicó una edición «N» de Windows 7 (la cual no incluye
Windows Media Player) en Europa, aunque sólo está disponible a la venta desde la tienda online de Microsoft o
mediante ofertas de socios específicos.
Referencias
[1] http:/ / windows. microsoft. com/ es-ES/ windows7/ products/ windows-7
[2] http:/ / windows. microsoft. com/ es-XL/ windows7/ products/ windows-7
[3] http:/ / windowsteamblog. com/ windows/ archive/ b/ windows7/ archive/ 2009/ 07/ 22/ windows-7-has-been-released-to-manufacturing. aspx
[4] http:/ / windowsteamblog. com/ international/ b/ latam/ archive/ 2011/ 02/ 10/
microsoft-anuncia-liberaci-243-n-a-fabricante-de-windows-server-2008-r2-y-windows-7-sp1. aspx
[5] Hoy sale a la venta, Windows 7, la nueva versión del sistema operativo de Microsoft (http:/ / www. publico. es/ ciencias/ 262706/ windows/
penultima/ oportunidad/ microsoft)
[6] Windows 7 de Microsoft saldrá al mercado a fines de octubre (http:/ / lta. reuters. com/ article/ businessNews/ idLTASIE5511XV20090602)
[7] Desempeño de arranque (en inglés) (http:/ / blogs. msdn. com/ e7/ archive/ 2008/ 08/ 29/ boot-performance. aspx)
[8] Futuras mejoras del Control de Cuentas de Usuario (http:/ / blogs. msdn. com/ e7/ archive/ 2008/ 10/ 08/ user-account-control. aspx) (en
inglés)
[9] Actualización sobre el Plan de Desarrollo de Windows (http:/ / www. microsoft. com/ latam/ windows/ letter. mspx)
[10] http:/ / www. microsoft. com/ spain/ windows/ virtual-pc/ download. aspx
[11] Earnings take-away: Microsoft is still powered by Windows (http:/ / blogs. zdnet. com/ microsoft/ ?p=5079& tag=nl. e539)
[12] Sietes: un pueblo de expertos — Microsoft Windows 7 (http:/ / www. sietesunpueblodeexpertos. com/ )
[13] Windows 7 Pecados — El caso en contra de Microsoft y el software privativo (http:/ / es. windows7sins. org/ )
[14] Windows 7 Pecados — Carta (http:/ / es. windows7sins. org/ letter/ )
[15] Windows 7 Pecados — Listado de compañías (http:/ / es. windows7sins. org/ companies. html)
Windows 7 134
Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Windows 7. Commons
• Sitio web oficial de Windows 7: Microsoft España (http://windows.microsoft.com/es-ES/windows7/products/
windows-7) — Microsoft Latinoamérica (http://windows.microsoft.com/es-XL/windows7/products/
windows-7) — Microsoft USA (http://windows.microsoft.com/en-US/windows7/products/windows-7) (en
inglés)
• Paseo por Windows 7 (http://www.vivelive.com/tour/)
• The Windows Blog (http://windowsteamblog.com/) — Blog oficial en inglés
• El blog de Windows para América Latina (http://windowsteamblog.com/international/b/latam/) — Blog
oficial en español
• Laboratorio Windows 7 (http://www.microsoft.com/latam/socios/laboratoriowindows7/) — Micrositio
interactivo sobre Windows 7
• Descarga de Windows Virtual PC y el «modo XP» (http://www.microsoft.com/spain/windows/virtual-pc/
download.aspx)
Predecesor: Sistema operativo para equipos de escritorio, parte de la familia Microsoft Sucesor:
Windows Windows Windows
Vista 22 de octubre de 2009 – Presente 8
2006 2012
Windows 8
Windows 8
Desarrollador
Microsoft
Sitio web oficial
[1] [2]
España — Latinoamérica
Información general
Núcleo NT 6.2.9200.16384
Idiomas Multilingüe
En español
Windows 8 135
Soporte técnico
Período de soporte estándar hasta el 9 de enero de 2018. Después, período de soporte extendido hasta el 10 de enero de 2023.
Artículos relacionados
• Desarrollo de Windows 8
• Ediciones de Windows 8
Windows 8 es la versión actual del sistema operativo de Microsoft Windows, producido por Microsoft para su uso
en computadoras personales, incluidas computadoras de escritorio en casa y de negocios, computadoras portátiles,
netbooks, tabletas, servidores y centros multimedia. Añade soporte para microprocesadores ARM, además de los
microprocesadores tradicionales x86 de Intel y AMD. Su interfaz de usuario ha sido modificada para hacerla más
adecuada para su uso con pantallas táctiles, además de los tradicionales ratón y teclado. Microsoft también anunció
que Aero Glass no estará presente en la versión final de Windows 8.
Historia y desarrollo
Primeros anuncios
El desarrollo de Windows 8 comenzó antes de que Windows 7 fuera lanzado en 2009. En enero de 2011, en el
Consumer Electronics Show (CES), Microsoft anunció que Windows 8 añadirá soporte para Procesadores ARM,
además de los tradicionales x86 de Intel y AMD. El 1 de junio de 2011, Microsoft desveló oficialmente la interfaz de
Windows 8 además de características nuevas en la Taipei Computex 2011 en Taipéi (Taiwán) por Mike Angiulo y en
la D9 conference en California (Estados Unidos) por Julie Larson-Green y el presidente de Microsoft Windows
Steven Sinofsky. Un mes antes de que la conferencia BUILD se llevara a cabo, Microsoft abrió un blog llamado
"Building Windows 8" para usuarios y desarrolladores el 15 de agosto de 2011.
Developer Preview
Microsoft desveló nuevas características y mejoras de Windows 8 durante el primer día de la conferencia BUILD el
13 de septiembre de 2011. Microsoft también lanzó la Windows Developer Preview (compilación 8102) de
Windows 8 el mismo día, la cual incluyó SDKs y herramientas de desarrolladores (tales como Visual Studio Express
y Expression Blend) para desarrollar aplicaciones para la nueva interfaz de Windows 8. Según Microsoft, hubo más
de 500.000 descargas de la Developer Preview durante las primeras 12 horas de lanzamiento. La Developer Preview
también introdujo la pantalla de Inicio. El botón Inicio en el escritorio abría la pantalla de Inicio en vez del menú
Inicio.
El 16 de febrero de 2012, Microsoft decidió posponer la fecha de expiración de la Developer Preview. Originalmente
fijada para expirar el 11 de marzo de 2012, ahora expirará el 15 de enero de 2013.
Consumer Preview
El 29 de febrero de 2012, Microsoft lanzó la Consumer Preview de Windows 8, la versión beta de Windows 8,
compilación 8250. Por primera vez desde Windows 95, el botón Inicio ya no está presente en la barra de tareas,
aunque la pantalla de Inicio todavía se abre al hacer clic en el rincón inferior izquierdo de la pantalla y al hacer clic
en Inicio en la denominada barra Charm. El presidente de Windows Steven Sinofsky dijo que más de 100.000
cambios se habían hecho desde el lanzamiento de la Developer Preview. El día después de su lanzamiento, la
Consumer Preview había sido descargada más de 1 millón de veces. Al igual que la Developer Preview, la Consumer
Preview expirará el 15 de enero de 2013.
Windows 8 136
Release Preview
En la conferencia Developers Day en Japón, Steven Sinofsky anunció que la Release Preview de Windows 8
(compilación 8400) sería lanzada durante la primera semana de junio. El 28 de mayo de 2012, la Release Preview de
Windows 8 (Edición x64 en chino simplificado estándar, edición no específica para China, compilación 8400) se
filtró en varios sitios chinos y de BitTorrent. El 31 de mayo de 2012, la Release Preview fue lanzada al público por
Microsoft.
Los cambios más grandes en la Release Preview fueron la adición de las aplicaciones Deportes, Viajes y Noticias,
junto a una versión integrada de Adobe Flash Player en Internet Explorer. A diferencia de las versiones preliminares
anteriores, la Release Preview expirará un día después, el 16 de enero de 2013.
Versión final
El 1 de agosto de 2012, se anunció que la versión RTM de Windows 8 (compilación 9200) ya estaba lista. Un día
después de este anuncio, una copia de la versión final de Windows 8 Enterprise N (producida para mercados
europeos) se filtró en la web y varios días después también se habían filtrado ediciones Professional y Enterprise
ambas de 32 y 64 bits. El 15 de agosto de 2012, Windows 8 comenzó a estar disponible para su descarga para
suscriptores de MSDN y TechNet. Windows 8 también se hizo disponible a clientes de Software Assurance el día
siguiente. Windows 8 estuvo disponible para descarga de estudiantes (con una suscripción de DreamSpark Premium)
el 22 de agosto de 2012, antes de lo anunciado.
Microsoft lanzó Windows 8 para su disponibilidad general el 26 de octubre de 2012.[3]
Relativamente pocos cambios fueron hechos con respecto a la Release Preview en la versión final. Un tutorial
explicando cómo usar la nueva interfaz Metro fue incluido, y el escritorio fue sutilmente cambiado para estar más en
línea con la interfaz Metro. Algunas aplicaciones incluidas también fueron cambiadas.
El presidente de Intel informó a sus empleados que Windows 8 aún no está preparado para lanzarse al público debido
a los bugs y que esto perjudicará a Microsoft.[4]
Esta interfaz tiene el nombre clave de ModernUI, y aunque siempre inicia primero, el usuario es libre de ignorarlo y
usar el escritorio clásico si así lo desea.
Escritorio Clásico se activa pulsando en su propio icono. Estando ya activado; con la tecla logotipo de Windows se
alterna entre escritorio clásico e Inicio.
Windows 8 137
• Apps: Programas específicos de la pantalla inicio, esta ocupan toda la pantalla y no tienen una X para cerrar, ya
que no las necesitan (aunque un truco para forzar el cierre de una app, es mover el puntero del ratón [o los dedos]
al borde superior de la pantalla y deslizar hacia abajo). Para cambiar entre apps se puede pulsar ⊞ Win+Tab ↹. Las
teclas Alt+Tab ↹ también cumplen la misma función si no se está en la app de escritorio. En caso de pantallas
táctiles se toca la esquina superior izquierda de la pantalla.
Al usar una app, las otras entran en un estado de suspensión hasta que recuperen el foco.
• El explorador de archivos ahora tiene una interfaz que deja al alcance del ratón (o de los dedos en una pantalla
táctil) funciones antes escondidas.
• Windows 8 es nativamente compatible con discos Blu-ray; en contraparte, ya no dispone de soporte para lectura
de películas de vídeo y audio en formato DVD.
• Los mensajes arcaicos (incluyendo la Pantalla azul de la muerte, la comprobación de disco y las actualizaciones)
son modernizados con fuentes más suaves y diseños sencillos.
• Algunas versiones admiten la característica Windows To Go.
• Compatibilidad natural con USB 3.0.
• Los siguientes programas ya no se disponen en Windows 8: Windows DVD Maker (creación de DVD caseros),
Windows Media Center (administración de multimedia y televisión), Maletín (sistema de sincronización de
archivos; perdido aunque recuperable); Juegos (incluyendo Chess Titans, Mahjong Titans, Purble Place,
Buscaminas, Corazones y las dos versiones de Solitario).
• Fin del Menú Inicio: Este botón, creado desde Windows 95, ha sido desincluido de la barra de tareas para ser
movido a la parte derecha de la pantalla, donde coexiste con los Accesos, una lista de cinco comandos: Búsqueda,
Compartir, Dispositivos y Configuración. El sistema de listas que lo caracterizó fue rediseñado para presentar, en
primer plano, los programas instalados; y en el segundo, la lista completa de programas y comandos.
• Internet Explorer 10: Aparte de incluirse como aplicación táctil, también se dispone como aplicación de
escritorio; y ahora soporta HTML5 y CSS3, incluyendo una plataforma como Adobe Flash Player.
• Paint: Aunque la herramienta de dibujo de Windows aún existe al instalarse, se produjo una nueva aplicación de
nombre «FreshPaint», la cual amplía y moderniza el sistema de dibujo.
• Aplicaciones: Los gadgets, que existieron desde Windows Vista, son remodelados como pequeñas aplicaciones;
por lo que el escritorio queda permanentemente libre; como había sido siempre desde Windows XP. La
combinación de teclas ⊞ Win+Tab ↹ intercambia las aplicaciones abiertas en lugar de las ventanas del escritorio,
pero si se está en el escritorio las teclas Alt+Tab ↹ cambian entre programas de escritorio. Se añade una nueva
Tienda de Aplicaciones, la cual administra la instalación de las susodichas.
• Interfaz Ribbon: El sistema de menús con comandos, presentada
primero en Office 2007 y mejorada en Office 2010, es ahora parte
del Explorador de Windows. Al igual que en la suite ofimática,
aparecen nuevas pestañas con funciones características del tipo de
carpeta.
• Imágenes de disco: A partir de este sistema operativo, es factible
“montar” imágenes de disco cual unidades virtuales.
• Sincronización: Como en Microsoft Office 2013, ahora Windows 8
permite que la configuración y preferencias de usuario se mejoran
Pantalla azul de la muerte en Windows 8
con el uso de la cuenta Microsoft; lo que permite transportar la
configuración en cualquier computadora.
• Historial de Archivos: Esta función hace regularmente copias de seguridad de las librerías hacia una memoria
USB o un disco duro externo; esta característica no reemplaza imagen de sistema.
Además puede restaurar copias de seguridad de windows 7, en la sección recuperación de archivos windows 7
Windows 8 138
• Configuración de PC: Una app metro para cambiar opciones sobre Pantalla Inicio, como colores y
notificaciones.
• Pantalla de bloqueo: Ahora es una pantalla personalizable por el usuario que transmite notificaciones y protege
el equipo contra el uso no autorizado. Además de fecha y hora, sólo seis apps como máximo pueden mostrar sus
notificaciones aquí.
Ediciones
El 16 de abril de 2012, Microsoft anunció que Windows 8 estará disponible en cuatro ediciones principales.
Windows 8 y Windows 8 Pro estará disponible para la venta a los consumidores en la mayoría de los países. Las
otras ediciones no están disponibles en el comercio minorista. El nuevo Windows RT sólo está disponible
preinstalado por los fabricantes de dispositivos basados en ARM (principalmente tabletas ofimáticas), mientras que
la edición Enterprise sólo estará disponible mediante licencias por volumen.
Tarjeta gráfica Dispositivo de gráficos DirectX 9 con soporte de controladores WDDM 1.0
Ofertas de actualización
El 2 de julio de 2012, Microsoft anunció que una vez que Windows 8 se encuentre disponible (que será el 26 de
octubre de 2012), a partir de esa fecha y hasta el 31 de enero de 2013 habrá dos formas de actualización (una de US$
69 y otra de US$ 39) desde cualquier versión anterior de Windows a Windows 8 Pro. Estas dos formas se suman a la
confirmada por Microsoft a finales de mayo de 2012, en la que ofrecerá a US$ 15 la actualización a Windows 8 Pro
a todos los usuarios que compren una nueva computadora (de escritorio o portátil) con Windows 7 preinstalado en
todas sus ediciones exceptuando Starter y Enterprise.
En ninguno de los anuncios o confirmaciones de estos precios promocionales se especificó que sería a largo plazo o
precio fijo para la actualización a Windows 8 o Windows 8 Pro.
Anteriormente, Microsoft anunció que Windows Media Center, un programa para la reproducción de CD/DVD
multimedia, no será incluido en Windows 8, pero esta promoción permitirá a los usuarios instalar este programa de
manera gratuita una vez que se complete el proceso de actualización.
La actualización de Windows 7 a Windows 8 Pro será el proceso más sencillo para los usuarios, ya que los archivos,
configuraciones y programas permanecerán intactos. Para los que actualicen desde Windows Vista, solo las
configuraciones y los archivos personales se conservarán, a excepción de los programas. Si la actualización se realiza
desde Windows XP, solo se conservarán los archivos personales (configuraciones y programas serán desechados).
Los programas podrán ser reinstalados (en el supuesto caso de que el usuario tenga los programas de instalación ya
sea en un medio físico o almacenado en el equipo, y los códigos de registro o números de serie de tales programas).
Windows 8 140
Las computadoras con Windows 7 compradas entre el 2 de junio de 2012 y el 31 de enero de 2013, podrán
registrarse y descargar la actualización a Windows 8 Pro, a través del sitio web Windows Upgrade Offer [9] por el
precio de US$ 15 hasta el 28 de febrero de 2013. El requisito para acceder a esta oferta es que el equipo debe ser
nuevo y adquirido entre el 2 de junio de 2012 y el 31 de enero de 2013 y que cuente con un certificado de
autenticidad de Windows 7 OEM válido con su clave de producto y preinstalado con cualquiera de las siguientes
versiones:
• Windows 7 Home Basic
• Windows 7 Home Premium
• Windows 7 Professional
• Windows 7 Ultimate
Windows 7 Starter y Enterprise son las dos versiones que no accederán al precio de US$ 15 para la actualización a
Windows 8 Pro. La actualización debe ser realizada a través de un registro en el sitio web de Windows Update Offer
[10]
. Después del registro (el cual debe ser realizado desde la PC que califica para la oferta, ya que la misma puede
ser validada) los usuarios que se registren, recibirán un correo de confirmación. Una vez que Windows 8 haya sido
publicado, los usuarios recibirán otro correo con un código de promoción y las instrucciones para la compra y
descarga de la actualización a Windows 8 Pro. Dicho código será usado durante la compra de la actualización al
precio promocional de US$ 15.
Como manera opcional, podrá solicitarse la actualización en un DVD por un pago adicional (un precio estimado de
US$ 15 sin incluir costos de envío; no se ha mencionado si los usuarios que paguen US$ 39 por la actualización,
deberán abonar este suplemento); los que descarguen la actualización de Windows 8, tendrán la opción de crear su
propio DVD o USB de instalación de la actualización.
Garantía
Las actualizaciones de Windows 8 Pro obtenidas a los precios promocionales tendrán 90 días de soporte sin costo
por parte de Microsoft, los cuales serán contabilizados desde el momento de la instalación y activación de Windows
8.
Logo
El 19 de febrero de 2012, Microsoft oficialmente desveló el nuevo lo