CENTRO DE EDUCACIÓN
TÉCNICO PRODUCTIVA
“Año de la recuperación y consolidación de la economía peruana”
CENTRO DE EDUCACIÓN TÉCNICO PRODUCTIVA
“CÉSAR VALLEJO”
PROGRAMA DE ESTUDIO
PROGRAMACIÓN DE SISTEMAS
DE INFORMACIÓN
MÓDULO I
SOPORTE INFORMÁTICO Y
DESARROLLO DE SOFTWARE
CICLO
TÉCNICO
TEMA: TRABAJO MONOGRAFICO
DOCENTE: ENOC PEZO MARIN
DIRECTOR: Dr. MAYER VÁSQUEZ RÍOS
SUB DIRECTOR: Lic. ROBINSON TORRES REATEGUI
TURNO: NOCHE
FECHA: 04/04/2025
ESTUDIANTE: EDDY ANDRYE REATEGUI HEMERYTH
PUCALLPA-PERÚ
COMPONENTES DE UNA COMPUTADORA
Los componentes de una computadora:
Una computadora es un sistema informático compuesto por dos aspectos básicos:
el hardware, que significa “soporte físico”, y el software, que se refiere a lo intangible o
el “programa”.
Hardware de una computadora:
El hardware hace referencia a los diferentes elementos tangibles de una computadora,
y puede ser interno o externo.
El hardware interno está conformado principalmente por:
Placa madre (o motherboard). Es la placa principal de cualquier sistema
informático al que todos los demás dispositivos se conectan, tanto de manera
directa (como los circuitos eléctricos interconectados) como indirecta (a través
de puertos USB u otro tipo de conectores). Cuenta con un software básico
llamado BIOS que le permite realizar y sincronizar sus funciones básicas (como
la transmisión de datos, la administración de la energía eléctrica y el
reconocimiento de la conexión física de otros componentes externos).
Procesador. Es la Unidad Central de Procesamiento (CPU), es decir, el
cerebro de la computadora que controla todo lo que ejecuta el ordenador y es
responsable de realizar los cálculos y la comprensión de datos. Hay varios tipos
de CPU que se diferencian, entre otras cosas, por su velocidad para procesar la
información. Esa velocidad se mide en una unidad de frecuencia llamada Hertz
(o Hercio en es Software de una computadora procesador, más rápido será el
rendimiento de la computadora. En la actualidad, las dos marcas principales de
CPU son AMD e Intel.
Memoria interna RAM. Es la memoria que almacena información, de manera
temporal y rápida, para que la computadora la utilice en el momento. Su
capacidad de almacenamiento se mide en unidades llamadas gigabytes (GB). A
mayor cantidad de memoria RAM, más rápido puede funcionar la computadora,
por ejemplo, para abrir y usar varios programas a la vez. El contenido de la
memoria RAM se elimina tan pronto se apaga la computadora porque no
almacena datos (archivos, videos, programas, etc.), sino que conserva
información sobre las acciones que se están realizando con esos datos. No
almacena el archivo o el programa en sí, sino la información para ejecutarlo.
Memoria interna ROM. Es la memoria que almacena información de manera
permanente y que se denomina de “solo lectura”, es decir, el usuario no puede
alterar el contenido una vez que se almacenó esa información, solo puede
instalarlo o desinstalarlo. La memoria ROM almacena todo lo relacionado con
instrucciones o lo que también se denomina BIOS (sistema básico o programa
de arranque) y que comprende las instrucciones de cómo se inicia la máquina o
cómo funcionan los programas, entre otros.
Placa de video. También conocida como “tarjeta gráfica” es un dispositivo de
hardware interno que se conecta a la placa madre y permite que la
computadora muestre imágenes en el monitor. Requiere de la instalación de un
software para que le indique a la computadora cómo usar esa placa de video. El
usuario puede modificar la configuración de la imagen proyectada en el
monitor, por ejemplo, la calidad (mayor o menor definición), el tamaño, entre
otros.
Placa de sonido. Es un dispositivo de hardware interno que se conecta a la
placa madre y se clasifica según los canales que utiliza, por ejemplo, estéreo,
cuadrafónico (sonido envolvente), MIDI (conector de uso profesional), entre
otros. La función principal de la placa es permitir a la computadora
reproducir sonidos (música, voz o cualquier señal de audio) a través de
altavoces o auriculares. También recibe sonidos del usuario a través de la
conexión de un micrófono.
Dispositivo de almacenamiento secundario. Es la memoria que almacena datos
de manera permanente (o hasta que el usuario los elimine), como documentos,
planillas, imágenes, videos, audios, copias de seguridad de los archivos, entre
otros. Son datos almacenados que la computadora no necesita de manera
inmediata o rápida para su funcionamiento, sino que es el usuario el que los
utiliza de manera directa. Existen dos tipos de dispositivos de almacenamiento
secundario: interno (la unidad de disco duro) y externo (disco duro externo,
tarjeta de memoria, pendrive, CD ROM, etc.)
El hardware externo de una computadora está conformado principalmente por:
Dispositivos de entrada. Son piezas que reciben datos sin procesar y que la
computadora puede procesar a través del correspondiente software. Se dividen
en dos categorías: dispositivos de entrada manual, que deben ser operados por
el usuario (teclado, mouse, pantalla táctil, micrófono, etc.) y dispositivos de
entrada automática, que accionan el ingreso de información por su cuenta, de
manera independiente del usuario (lector de banda magnética, reconocimiento
de caracteres de tinta magnética, lector de PIN y chip, lector de código de
barras, etc.).
Dispositivos de salida. Son piezas que envían hacia afuera los datos procesados
por la computadora. Hay dos tipos: de salida temporal (como el monitor, que
actualiza constantemente la imagen de salida en la pantalla) y de salida
permanente (como la impresora, que reproduce información sobre un papel
que perdura como una copia impresa).
Dispositivos periféricos. Son la mayoría de los dispositivos de entrada y de
salida que se consideran componentes de hardware externos “no esenciales”
porque la computadora puede funcionar sin ellos. Por ejemplo, parlantes,
cámara web, teclado, micrófono, impresora, escáner, mouse, joystick, entre
otros.
Software de una computadora:
El software es la parte “no física” de la computadora, que existe en forma de códigos
que contienen instrucciones para que el hardware sepa qué hacer. Sin estos
programas, la mayoría de los dispositivos de hardware no serían útiles. Hay dos tipos:
Software de sistema. Son los programas preinstalados en la computadora, que
permiten dar soporte a otros programas instalados por el usuario. Algunos
ejemplos son los sistemas operativos (Windows, Mac OS, Linux, BIOS, etc.), los
limpiadores de disco, los desfragmentadores de disco, los antivirus, los
controladores gráficos, softwares de cifrado, entre otros.
Software de aplicación. Son los programas que no tienen que ver con el
funcionamiento del equipo, sino que son instalados por el usuario para realizar
funciones determinadas. Por ejemplo, hojas de cálculo (Excel), procesadores de
palabras (Word), programas de base de datos (Access), programas de diseño
gráfico (Illustrator), navegadores de Internet (Chrome), entre otros.
Tipos de computadoras:
Existen diferentes tipos de computadoras que varían según su tamaño, diseño y
complejidad de funciones capaces de realizar. Sin embargo, todas tienen como base
los componentes anteriormente detallados. Entre los principales tipos de
computadoras se encuentran:
Computadora personal. Su nombre proviene del inglés personal
computer (PC), también llamada “de escritorio”. Es de uso común en el hogar
o la oficina.
Computadora portátil. También llamada notebook, es una máquina más
pequeña y liviana que la PC, pensada para transportarla de manera sencilla.
Es de uso personal o laboral.
Netbook. Es similar a la notebook, solo que tiene menor tamaño y peso, por
lo que su pantalla y teclado son bastante más pequeños. Está pensada para
transportar y utilizar en cualquier lugar.
Unidad central. También llamada mainframe es una computadora muy
grande, potente y costosa, de uso empresarial o industrial que permite
procesar datos a gran escala.
Partes internas de una laptop:
SISTEMA BINARIO
El sistema binario o sistema diádico es un sistema de numeración fundamental en
la computación e informática, en el cual la totalidad de los números pueden
representarse empleando cifras compuestas por combinaciones de dos únicos dígitos.
En el caso del código binario, los dígitos utilizados son ceros (0) y unos (1). No
debemos confundir el sistema con el código, ya que el primero podría operar con
dígitos como a y b (dado que la lógica es la misma), mientras que el segundo opera
específicamente con 1 y 0.
El código binario es fundamental para la construcción de los computadores que hoy en
día conocemos, especialmente porque se adapta bien a la presencia o ausencia
de voltajes eléctricos, dando así origen a un bit de información: presente o ausente, es
decir, 1 o 0, respectivamente.
Sin embarga, el código binario no se inventó exclusivamente para el mundo de la
informática. Ya en la antigüedad oriental muchos matemáticos como el hindú Pingala
(c. siglo III o IV a. C.) lo habían propuesto, coincidiendo en muchos casos con la
invención del número 0.
De hecho, libros oráculares como el I Ching están compuestos en base a un código
propio, ordenando sus hexagramas en series equivalentes a 3 “bits”. Posteriormente, El
filósofo chino Shao Yong (1011-1077) los ordenó de acuerdo a un método binario.
Por su parte, el sistema binario moderno fue obra del filósofo alemán Gottfried W.
Leibniz (1646-1716). Posteriormente, en 1854, el matemático británico George Boole
(1815-1864), detalló el Álgebra de Boole, fundamental en el desarrollo del sistema
binario actual en los circuitos electrónicos.
Los primeros intentos por poner en práctica dicho sistema fueron obra de los
estadounidenses Claude Shannon (1916-2001) y George Stibitz (1904-1995) en 1937.
¿Cómo funciona el sistema binario?
El sistema binario funciona en base a la representación de cualquier información
mediante dos cifras. En el código binario son 0 y 1, pero bien podrían ser cualesquiera,
siempre y cuando sean los mismos y representen lo mismo: una oposición binaria,
como sí o no, arriba o abajo, encendido o apagado.
De esa manera, este código permite “escribir” información mediante elementos físicos
semejantes: la polaridad de un disco magnético (positivo o negativo), la presencia o
ausencia de voltaje eléctrico, etc.
Por lo tanto, el sistema binario permite “traducir” a una secuencia binaria cualquier
letra o valor decimal, e incluso permite realizar operaciones aritméticas y de otros
tipos.
Por ejemplo, la letra A en el código binario se representa 1010, mientras que el número
1 se representa 0001. En otros códigos, esa misma información podría representarse
binariamente como abab y bbba, o +*+* y ***+, por ejemplo.
De este modo, según el código binario, la palabra etcétera se representaría así:
01100101 (e)
01110100 (t)
01100011 (c)
11000011 (e)
10101001 (´)
01110100 (t)
01100101 (e)
01110010 (r)
01100001 (a)
Características del sistema binario
El sistema binario se caracteriza por lo siguiente:
Emplea dos unidades cualesquiera (1 y 0 en el caso del código binario) para
representar información concreta mediante secuencias específicas de dichos
dígitos. Siempre deben ser dos, de valores totalmente distinguibles y
mutuamente excluyentes (no puede haber 1 y 0 a la vez).
Representa la base de los sistemas informáticos y computacionales, en los que
una secuencia de ocho bits constituye un byte de información, correspondiente
a una letra, número o caracter.
Permite traducir cualquier dato expresado en notación decimal, hexadecimal u
octal, entre otros sistemas de notación de la información (ASCII, etc.).
Permite la lectura de condiciones reales y materiales cuyos estados físicos
puedan ser uno u otro: polaridad magnética, voltaje, etc.
Aplicaciones del sistema binario
El sistema binario permite numerosos usos actuales, por ejemplo:
Programación de microprocesadores.
Cifrado de información confidencial.
Transferencia de datos de un sistema informático a otro.
Protocolos de comunicación digital informática.
Ejercicios resueltos de código binario
Pasar de sistema decimal a sistema binario:
23 = 10111
17 = 10001
20 = 10100
Pasar de sistema binario a sistema decimal:
1111 = 15
10110 = 22
10000 = 16
SISTEMA ASCII
¿Qué es el código ASCII?
El código ASCII (American Standard Code for Information Interchange) es un sistema
de codificación que asigna un valor numérico único a diferentes caracteres utilizados
en la comunicación electrónica.
Fue desarrollado en la década de 1960, como un estándar para la transferencia de
datos entre diferentes dispositivos informáticos.
El código ASCII utiliza 7 bits para representar 128 caracteres diferentes.
Estos caracteres incluyen letras mayúsculas y minúsculas, dígitos numéricos, signos de
puntuación, símbolos matemáticos y una serie de caracteres de control utilizados para
el formateo de texto y el control de dispositivos. Los primeros 32 caracteres son
caracteres de control no imprimibles, como el retorno de carro (enter, o salto de línea)
y el avance de línea.
Se convirtió en un estándar ampliamente utilizado en la industria informática y sentó
las bases para la comunicación entre diferentes sistemas informáticos. Sin embargo, a
medida que la tecnología avanzó, el sistema ASCII se quedó corto para representar
todos los caracteres necesarios en diferentes idiomas y alfabetos. Esto llevó al
desarrollo de codificaciones más amplias, como el estándar Unicode, que utiliza más
bits para representar una gama más amplia de caracteres.
A pesar de sus limitaciones, el código ASCII sigue siendo relevante y se utiliza
ampliamente en la programación y la comunicación de datos. Comprender cómo se
asignan los caracteres a valores numéricos en el código ASCII es fundamental para
trabajar con datos en entornos informáticos.
Estructura del código ASCII
El código ASCII asigna valores numéricos a diferentes caracteres, y está organizado de
la siguiente manera:
Caracteres de control: Los primeros 32 caracteres son caracteres de control no
imprimibles, utilizados para el formateo de texto y el control de dispositivos.
Incluyen el retorno de carro, el avance de línea y el tabulador, entre otros.
Caracteres imprimibles básicos: A partir del valor 32, se encuentran los
caracteres imprimibles, como letras mayúsculas y minúsculas, dígitos
numéricos, signos de puntuación y símbolos matemáticos.
Caracteres extendidos: A partir del valor 127, se incluyen caracteres extendidos
que no están presentes en todas las versiones del código ASCII. Estos caracteres
pueden variar según la codificación específica utilizada, como el ASCII extendido
o las codificaciones específicas de diferentes idiomas.
Aunque aprender todos los caracteres del código ASCII pueda parecer algo inabarcable
de entrada, al ser únicamente 128 (muchos de ellos consecutivos de forma lógica al
corresponderse con letras minúsculas, letras mayúsculas o números), lo cierto es que
hacerlo resulta mucho más intuitivo de lo que podría sugerir de entrada.
Eso sí, a día de hoy es muy fácil acceder a tablas de código ASCII con todas sus
variantes como las que mostramos en el próximo apartado, así que, de entrada, resulta
mucho más sencillo recurrir a ellas que aprendérselas de carrerilla como si fuesen la
tabla periódica o la tabla de verbos irregulares en inglés.
La tabla ASCII: Caracteres, letras y números
La tabla ASCII es un estándar de codificación de caracteres que asigna valores
numéricos a letras, números, símbolos y caracteres de control.
Aunque pueda parecer algo que ya está desfasado, saber cómo se representan los
números del 0 al 9 en código ASCII, y cuál es su equivalencia en binario, puede sacarte
de más de un apuro.
Carácter Valor decimal
0 48
1 49
2 50
3 51
4 52
5 53
6 54
7 55
8 56
9 57
También, es importante tener claro que las letras del alfabeto tienen dos
correspondencias en el código ASCII, en función de si sin mayúsculas o minúsculas,
que son las siguientes:
Letra Valor decimal mayúscula Valor decimal minúscula
a 65 97
b 66 98
c 67 99
d 68 100
e 69 101
f 70 102
g 71 103
h 72 104
i 73 105
j 74 106
k 75 107
l 76 108
m 77 109
n 78 110
o 79 111
p 80 112
q 81 113
r 82 114
s 83 115
t 84 116
u 85 117
v 86 118
w 87 119
x 88 120
y 89 121
z 90 122
En este enlace de la web de Microsoft podemos encontrar toda la información
sobre cómo insertar códigos de caracteres ASCII en Word. Se incluyen todas las
combinaciones necesarias para escribir un carácter, siempre manteniendo presionada
la tecla ALT de nuestro teclado.
Los caracteres de control, por su parte, abarcan los códigos del 0 al 31 y el 127, no son
imprimibles y se utilizan para controlar dispositivos y gestionar el flujo de datos. Aquí
tienes algunos ejemplos de los más utilizados.
Código Abreviatura Descripción
0 NUL Carácter nulo
7 BRL Timbre (alerta)
8 BS Retroceso
9 HT Tabulador horizontal
10 LF Salto de línea
13 CR Retorno de carro
27 ESC Escape
127 DEL Suprimir
En cuanto a los símbolos ASCII especiales, sí son imprimibles, ya que incluyen signos
de puntuación y operadores matemáticos, entre muchos otros.
Código Símbolo Descripción
33 ! Signo de exclamación
35 # Almohadilla
36 $ Signo de dólar
37 % Porcentaje
38 & Ampersand
42 * Asterisco
43 + Signo más o de suma
47 / Barra diagonal
Uso del código ASCII en teclados y texto:
Ya sabes algo más sobre para qué sirve el código ASCII y cómo funciona, ¿pero
imaginabas que tu teclado y ASCII forman una pareja inseparable? ¡Este código es
básico para la comunicación entre el teclado y el ordenador!
Al presionar una tecla, esta envía un código ASCII específico que el sistema interpreta
como un carácter determinado. Además, es posible insertar símbolos y caracteres
especiales mediante combinaciones de teclas conocidas como ‘códigos Alt’. Por
ejemplo, al mantener presionada la tecla Alt y escribir ‘64’ en el teclado numérico, se
inserta el símbolo ‘@’. ¡Aquí tienes otros ejemplos que te resultarán muy útiles!
Alt + 35: #
Alt + 36: $
Alt + 37: %
Alt + 38: &
Estos atajos facilitan el uso de caracteres e iconos ASCII que no están directamente
disponibles en el teclado, ¡así que quizás te venga bien memorizar alguno!
Cómo pasar código binario a ASCII
Saber convertir código binario a ASCII es otra de esas cosas que hoy en día pueden
hacerse online, pero las divisiones de dos cifras también y siguen explicándose en los
colegios, ¿verdad? Pues eso, que como el saber no ocupa lugar... ¡te dejamos los pasos
a seguir para hacerlo!
La representación binaria de un carácter ASCII consta de 8 bits, así que separa
el código binario en grupos de 8 bits (un byte) para cada carácter.
Convierte cada grupo de bits a su equivalente decimal.
Consulta una tabla de equivalencia, que relacione los valores decimales con los
caracteres ASCII correspondientes.
Asigna el carácter ASCII correspondiente a cada valor decimal obtenido.
Repite los pasos anteriores para cada grupo de 8 bits, hasta que hayas
convertido todo el código binario.
Tabla de equivalencia ASCII para el alfabeto en mayúscula:
Carácter Valor decimal Valor binario
A 65 01000001
B 66 01000010
C 67 01000011
D 68 01000100
E 69 01000101
F 70 01000110
G 71 01000111
H 72 01001000
I 73 01001001
J 74 01001010
K 75 01001011
L 76 01001100
M 77 01001101
N 78 01001110
O 79 01001111
P 80 01010000
Q 81 01010001
R 82 01010010
S 83 01010011
T 84 01010100
U 85 01010101
V 86 01010110
W 87 01010111
X 88 01011000
Y 89 01011001
Z 90 01011010
Tabla de equivalencia ASCII para el alfabeto en minúscula:
Carácter Valor decimal Valor binario
a 97 01100001
b 98 01100010
c 99 01100011
d 100 01100100
e 101 01100101
f 102 01100110
g 103 01100111
h 104 01101000
i 105 01101001
j 106 01101010
k 107 01101011
l 108 01101100
m 109 01101101
n 110 01101110
o 111 01101111
p 112 01110000
q 113 01110001
r 114 01110010
s 115 01110011
t 116 01110100
u 117 01110101
v 118 01110110
w 119 01110111
x 120 01111000
y 121 01111001
z 122 01111010
Tabla de equivalencia ASCII para los números del 0 al 9:
Carácter Valor decimal Valor binario
0 48 00110000
1 49 00110001
2 50 00110010
3 51 00110011
4 52 00110100
5 53 00110101
6 54 00110110
7 55 00110111
8 56 00111000
9 57 00111001
Sabiendo esto, supongamos que tenemos el código binario "01000001 01000010
01000011". Siguiendo los pasos mencionados anteriormente deberíamos:
1. Separar el código binario en grupos de 8 bits: "01000001", "01000010",
"01000011".
2. Convertir cada grupo de bits a decimal: 65, 66, 67.
3. Consultar la tabla de equivalencia ASCII y encontrar los caracteres
correspondientes: "A", "B" y "C".
4. El resultado sería "ABC", que es la representación ASCII del código binario
dado.
Ten en cuenta siempre que los códigos ASCII van del 0 al 127 y que cada carácter se
representa con 8 bits, ¡el resto está chupado!
Por suerte, crear una página web a día de hoy resulta mucho más sencillo que todo
esto gracias a las interfaces visuales de las que disponemos. Aunque si hay algo
realmente sencillo es contratar un alojamiento web de calidad para tus sitios web, y
mejor aún, ¡pagando lo justo por él!
Conversión de ASCII a texto
La conversión entre ASCII y texto es primordial a la hora de programar y gestionar
datos, ya que este código permite representar texto en formato numérico, lo que
facilita el almacenamiento y procesamiento de información en sistemas informáticos.
Por ejemplo, en lenguajes de programación como C, las cadenas de texto se
almacenan como secuencias de códigos ASCII, lo que simplifica operaciones como su
comparación y su manipulación. Además, la conversión de texto a ASCII y viceversa es
importante en la transmisión de datos, ya que asegura que la información se interprete
de forma correcta entre diferentes sistemas y plataformas.
Como ves, las características del código ASCII son muchas y muy variadas, ¡y aún nos
faltan algunas por descubrir!
Características y limitaciones del código ASCII
Hasta ahora hemos hablado mayormente de las ventajas del código ASCII, pero lo
cierto es que también tiene algunas desventajas que conviene conocer. Por eso hemos
elaborado un breve listado con sus principales beneficios y contras, ¡para que seas tú
quien los ponga en la balanza y decidas!
Entre las mejores funcionalidades de ASCII está que utiliza una codificación de 7 bits,
permitiendo representar 128 caracteres de forma sencilla, así como que es
ampliamente compatible con multitud de sistemas y dispositivos, lo que garantiza una
comunicación efectiva entre ellos. Además, proporciona un estándar común para la
representación de texto, facilitando el intercambio de información.
En cuanto a sus limitaciones, es importante decir que solo incluye el alfabeto inglés y
números y símbolos básicos, no puede representar caracteres acentuados, letras de
alfabetos no latinos ni símbolos gráficos complejos, y que, con el avance de la
tecnología y la necesidad de representar una mayor variedad de caracteres, ASCII ha
sido superado por estándares más completos como Unicode.
Iconos y arte ASCII
El arte ASCII es una forma de diseño gráfico que utiliza caracteres de texto para crear
imágenes y figuras.
Es decir, aprovechando los 95 caracteres imprimibles de la tabla ASCII, es posible
formar representaciones visuales mediante la adecuada colocación de letras, números
y símbolos.
Por ejemplo, combinando caracteres como barras, guiones y paréntesis, es posible
diseñar figuras como caras sonrientes ‘:-D’ o corazones ‘<3’.
Cara sonriente: :-)
Pez: ><(((('>
Gato: =^.^=
SISTEMA HEXADECIMAL
¿Qué es el sistema hexadecimal?
La palabra hexadecimal es una combinación de los términos hexa y decem. Hexa
proviene del griego y significa “seis”, mientras que decem es la palabra latina para
“diez”. El sistema hexadecimal es, por lo tanto, un sistema de numeración posicional
que tiene como base el 16. Esto quiere decir que el sistema hexadecimal utiliza 16
dígitos diferentes. En otras palabras: hay 16 dígitos, frente a los dos del sistema binario
(1 y 0) o los diez del sistema decimal (de 0 a 9). Pero, en la práctica, ¿cuál es el
propósito de este sistema?
¿Para qué sirve el sistema hexadecimal?
El sistema hexadecimal se utiliza en la informática para facilitar la legibilidad de
números grandes o secuencias de bits largas. Estos se agrupan en cuatro bits cada uno
y se convierten al sistema hexadecimal. Con ello, a partir de una larga secuencia de
unos y ceros se obtiene un número hexadecimal más breve, que puede dividirse en
grupos de dos o cuatro. Así, los números hexadecimales son una manera más
compacta de representar secuencias de bits. El sistema se utiliza, entre otras cosas, en
la dirección de origen y de destino de protocolos de Internet (IP), en los códigos ASCII o
en la descripción de los códigos de color en diseño web con el lenguaje de hojas de
estilo CSS.
Notación hexadecimal
Como mencionamos, el sistema hexadecimal utiliza 16 dígitos. Sin embargo, esto
puede ocasionar un problema: con la notación numérica convencional, se utilizan los
números decimales 10, 11, 12, 13, 14 y 15, que constan respectivamente de dos
símbolos contiguos. Por esto, si se expresa el número 10 en el sistema hexadecimal, no
queda claro si se trata del número decimal 10 o, por ejemplo, del número binario 2 (1 +
0).
Para evitar este problema, los números hexadecimales que representan los valores del
10 al 15 se reemplazan con las letras mayúsculas A, B, C, D, E y F. De este modo, en el
sistema hexadecimal, los números del 0 al 9 y las letras mayúsculas de la A a la F se
utilizan para representar el equivalente numérico binario o decimal. Para poder
distinguir los números hexadecimales de los decimales, existen varias notaciones (en
los ejemplos siguientes, se representa el número hexadecimal “73”):
7316
73hex
73h
73H
0x73
$73
#73
"73
X'73'
El prefijo 0x y el sufijo h se utilizan sobre todo en programación, mientras que el
símbolo del dólar se utiliza con ciertas familias de procesadores en lenguaje
ensamblador.
Relación entre el sistema hexadecimal y el sistema binario
Si se describen estados complejos, las cadenas de bits o cadenas binarias pueden llegar
a ser muy largas. Al utilizar el sistema decimal en nuestro día a día, separamos los
dígitos en grupos de tres para hacer más legibles los números muy grandes, como los
millones o los billones. Lo mismo se aplica a los sistemas digitales: para facilitar la
lectura de una secuencia de bits como 1111010111001111 2, esta se suele dividir en
grupos de cuatro dígitos. El ejemplo se vería así: 1111 0101 1100 1111 2. Es aún más
sencillo si se convierten los dígitos binarios a números hexadecimales.
Como 16 es la cuarta potencia de 2 (o 2 4) en el sistema decimal, existe una relación
directa entre los números 2 y 16, de modo que un dígito hexadecimal tiene un valor
igual a 4 dígitos binarios. Debido a esta relación, un número binario de 4 dígitos se
puede representar con un solo dígito hexadecimal. Esto hace la conversión entre
números binarios y hexadecimales relativamente sencilla, de forma que los números
binarios grandes se pueden representar con menos dígitos gracias al sistema
hexadecimal.
Tabla hexadecimal para la conversión a números decimales y binarios
Los números hexadecimales pertenecen a un sistema más complejo que el sistema
binario o decimal puro y a menudo se utilizan para representar las direcciones de
memoria. Al dividir un número binario en grupos de 4 bits, cada conjunto de cuatro
dígitos puede tomar un valor de entre 0000 (0) y 1111 (8 + 4 + 2 + 1 = 15). Esto resulta
en un total de 16 combinaciones de números diferentes del 0 al 15. Ten en cuenta que
el “0” también es un dígito válido.
Número
Número binario de 4 bits Número hexadecimal
decimal
0 0000 0
1 0001 1
2 0010 2
3 0011 3
4 0100 4
5 0101 5
6 0110 6
7 0111 7
8 1000 8
9 1001 9
10 1010 A
11 1011 B
12 1100 C
13 1101 D
14 1110 E
15 1111 F
16 0001 0000 10 (1 + 0)
17 0001 0001 11 (1 + 1)
18 0001 0010 12 (1 + 2)
19 0001 0011 13 (1 + 3)
20 0001 0100 14 (1 + 4)
Según la tabla de conversión, la secuencia de números binarios 1111 0101 1100
11112 se ve así en el sistema hexadecimal: F5CF, un código más fácil de leer que la larga
secuencia de bits. Así, al utilizar la notación hexadecimal, se escribe un código digital
con menos dígitos y la probabilidad de error se reduce mucho. Del mismo modo, para
convertir números hexadecimales a binarios simplemente se debe invertir el proceso.
Para expresar de forma inequívoca nuestro número en sistema hexadecimal, F5CF se
puede expresar como F5CF16, $F5CF o #F5CF. Esta última notación, también llamada
valor hash, se utiliza para representar digitalmente códigos de color, porque los
diseñadores y desarrolladores utilizan colores HEX en el diseño web. Un color HEX se
expresa como una combinación de seis dígitos con números y letras que definen la
mezcla de rojo, verde y azul (RGB) que contiene. Por ejemplo, #000000 representa el
color negro y #FFFFFF, el color blanco.
Contar con el sistema hexadecimal
Con esto, has aprendido a convertir cuatro dígitos binarios en un número hexadecimal.
Si hay más de cuatro dígitos binarios, puedes empezar de nuevo o continuar con el
siguiente grupo de 4 bits. Con dos números hexadecimales, se puede contar hasta FF,
que corresponde al valor decimal 255.
Añadir dígitos hexadecimales adicionales para convertir números binarios a
hexadecimales es muy sencillo si tienes 4, 8, 12 o 16 dígitos binarios. Sin embargo,
también puedes añadir “0” o “00” a la izquierda del bit de más valor si la cuenta de bits
binarios no es un múltiplo de cuatro. Por ejemplo, 1100101101100112 2 es un número
binario de 14 bits demasiado grande para representarse en solo tres dígitos
hexadecimales, pero demasiado pequeño para un número hexadecimal de cuatro
dígitos.
La solución es añadir ceros adicionales al bit más a la izquierda hasta que se tenga un
conjunto completo de números binarios de 4 bits. En nuestro ejemplo, la secuencia
anterior se vería así: 001100101101100112.
GENERACIÓN DEL MICRO PROCESADOR
¿Cuántas GENERARACIÓNES DE MICROPROCESADORES HAY?
1ª generación (2008-2011)
La historia de Intel Core arranca en 2008 con las familias Clarkdale, Lynnfield y
Gainestown. Fueron las primeras generaciones de una familia que se quedaría
muchísimo tiempo con nosotros. Éstas sustituían a los Core Quad y Core Duo tan
famosos. Para entender mejor esto, lo dividimos en esquemas ordenados
cronológicamente:
Gainestown. A esta familia pertenecen los Intel Xeon para servidores. También,
conocida como Nehalem-EP.
2008.
Microarquitectura Nehalem.
De 4 a 8 núcleos.
45 nm.
LGA 1366.
Hasta 3.33 GHz.
Lynnfield. Es la familia que representó a los primeros Core i5, Core i7. Eran
procesadores de alto rendimiento para escritorio.
2009.
Microarquitectura Nehalem.
Principalmente, 4 núcleos.
45 nm.
LGA 1156.
Hasta 3.06 GHz.
Clarkdale. Familia de gama media y baja que tenía chips Core i5, i3, Pentium, Celeron y
un Xeon. Eran chips de bajo consumo.
2010.
La microarquitectura era Westmere.
2 núcleos.
32 nm.
LGA 1156.
Hasta 3.6 GHz.
Por tanto, vinieron con soporte a LGA 1156, y LGA 1366 teniendo productos para
servidores y escritorio.
Existe un dato curioso, y es que los Intel Core i3 fueron los únicos de la 1ª generación
con distinta microarquitectura (Westmere). Sólo vinieron bajo Nehalem los Core i7
(también la gama Extreme para entusiastas), Core i5 y varios Xeon
En los servidores se empezaron a usar 6 núcleos y 12 hilos, como 8 núcleos y 16 hilos.
En las gamas entusiastas (socket LGA 1366), se iban a los 4 núcleos y 8 hilos. Los
primeros Core i5 vendrían con 4 núcleos y 4 hilos.
Mejoras importantes respecto a anteriores generaciones:
Reducción de un 30% de consumo de energía sin pérdida de rendimiento.
Hasta un 25% de ganancia en mono hilo.
Hasta un 20% de aumento de frecuencia.
Para terminar de contextualizar esta familia, se utilizaba memoria DDR3 a 1066 y 1333
MHz.
2ª generación: Sandy Bridge (2011)
Muchas veces, se confunden las primeras generaciones de Intel Core porque Sandy
Bridge fue la primera generación en la que vinieron juntos los i7, i5 e i3. Sin embargo,
es la segunda generación y la pura sucesora de la microarquitectura Nehalem y
Westmere. Es cierto que Intel mostró algún chip de Sandy Bridge en 2009, pero el
lanzamiento al mercado se produjo en 2011.
Sandy Bridge vino con dos sockets bajo el brazo que muchos conocéis: LGA 1155 y
LGA 2011. El primero era para escritorio y el segundo para servidores o configuraciones
entusiastas. La 2ª generación de Intel Core venía en un proceso de 32 nm.
Las configuraciones de los procesadores eran las siguientes:
i3: 2 núcleos y 4 hilos.
i5: 4 núcleos y 4 hilos, salvo un modelo que tuvo 2 núcleos y 4 hilos.
i7: 4 núcleos y 8 hilos.
En Sandy Bridge llegaron los primeros modelos «K» overclockeables para los i5 e
i7 (2500K/2550K y 2600K/2700K). Entre las novedades destacables, encontramos las
siguientes:
Incorporación de gráficos integrados en las CPUs.
Intel Turbo Boost 2.0.
Incremento de frecuencias y reducción de consumo.
Mejora de un 11.3% de rendimiento.
Como dato curioso, Intel demostró que el overclock de Sandy Bridge era muy bueno al
mostrar uno de 4.9 GHz con refrigeración por aire.
Sandy Bridge-E
Por último, Intel lanzó al mercado Sandy Bridge-E a finales de 2011. Se trataba de una
«mini familia» con 2 procesadores Intel i7, aunque también salieron Sandy Bridge-EN y
-EP para varios Xeon. El target era el sector de servidores y Workstations.
Simplemente, decir que todos los chips eran únicamente compatibles con LGA 2011 y
traían un TDP alto para la época.
3ª generación: Ivy Bridge (2012)
Con la llegada de Ivy Bridge a escritorio, empezaron a surgir ciertas críticas a Intel por
los problemas que Ivy padecía. Antes de nada, pongamos los datos de esta familia de
chips sobre la mesa.
Ivy Bridge era una familia compuesta por los i7, i5 e i3 de tercera generación. Venían
con un proceso de 22 nm y estaban basados en Sandy Bridge. Aquí, también
vimos subfamilias como Ivy Bridge-EX, -EP y -E, los cuales salieron en 2013. Los
procesadores de esta familia son los siguientes:
i7 (incluido su modelo Extreme): 4 núcleos y 8 hilos, aunque el i7-4960X tenía 6
núcleos y 12 hilos.
i5: 4 núcleos y 2 hilos, excepto un modelo.
i3: 2 núcleos y 4 hilos.
Pentium: 2 núcleos y 2 hilos.
Celeron: 2 núcleos y 2 hilos.
Empezábamos a ver normalizado que un chip llegase a 4.0 GHz en modo Turbo. En la
oposición (AMD), veíamos a las emblemáticas tostadoras consiguiendo frecuencias
algo superiores, por con un rendimiento algo inferior.
Novedades de esta familia respecto a Sandy Bridge:
Soporte a PCI Express 3.0, salvo la gama i3 e inferiores.
Soporte RAM a velocidades superiores (casi 2000 MHz).
Mejora notable en los gráficos integrados, soportando DirectX 11, entre otros.
Aparición de la memoria RAM DDR3L para portátiles.
Llegada del vídeo 4K.
Soporte de hasta 3 monitores simultáneos.
Todo parece mejor ¿Verdad? No obstante, fue una familia criticada por lo siguiente:
No había prácticamente mejora de rendimiento en comparación con Sandy
Bridge.
Ivy Bridge fue criticada porque tenía problemas de temperaturas en alto
rendimiento. Intel usó material térmico de mala calidad, lo que provocaba
una subida de 10ºC frente a Sandy.
4ª generación: Haswell (2013)
Estoy seguro de que, a estas alturas, muchos desconocedores diréis ¡Cuántas
generaciones de procesadores Intel! Desde luego que Intel no se ha quedado nunca
con los brazos cruzados. Nos vamos a junio de 2013 para ver el lanzamiento de a la
familia Haswell en aquel COMPUTEX tan famoso.
Intel fabricó estos procesadores bajo un proceso de 22nm y habría opciones para
escritorio, servidor y portátiles. Es una familia que se recuerda con cariño porque
funcionaron muy bien, a la par de las mejoras que trajeron.
Junto a estos chips, se lanzaba el nuevo socket LGA 1150, que reemplazaba al LGA
1155 de Ivy y Sandy. Ocurría lo mismo con LGA 2011-v3, que reemplazaba a su
anterior socket para servidores. Entre las novedades, destacamos las siguientes:
Se incrementaba el rendimiento mono hilo en un 5%.
El rendimiento multi-hilo mejoraba.
El consumo de energía se disparaba en comparación con Ivy.
Seguían los problemas de temperatura, pero Intel conseguía ofrecer chips con
un overclock estable de 4.6 GHz.
Soporte dual-channel DDR3 con hasta 32 GB de memoria RAM.
El chipset Z97 tuvo una fama brutal por su gran funcionamiento.
Se empieza a soportar la memoria DDR4 en LGA 2011-v3 a 2133 MHz.
Soporte Thunderbolt 2.0.
En cuanto a los procesadores, seguíamos contando con los mismos hasta ahora. Las
configuraciones y frecuencias iban variando.
Seguíamos teniendo Core i7 Extreme, pero aparecía un i7-5960X con 8 núcleos
y 16 hilos muy interesante. A su vez, la versión «K» del i7 (4790K) ya traía 4.0
GHz de frecuencia base, llegando a los 4.4 GHz turbo.
Nada cambiaba en los i5, salvo en las frecuencias: se empezaba a superar los
4.0 GHz en overclock.
En los Intel i3 todo seguía igual, aunque veíamos modelos interesantes (como
el 4370) que subía hasta los 3.8 GHz.
Haswell aterrizó con muy bien pie, siendo una de las mejores generaciones de
procesadores Intel de la historia. De ahí, que hubiese un «refresh» de esta familia.
Haswell Refresh
Empezaba una estrategia acuñada por Intel para sacar procesadores algo
renovados con el objetivo de ofrecer un rendimiento adicional. Así ocurrió con Haswell
Refresh o Devil’s Canyon. Salieron a mitad de 2014 y eran CPUs que ofrecían una
frecuencia de 100 Mhz superior.
Para poder ser utilizados en placas más antiguas, había que actualizar la BIOS. Los
tenemos en cuenta porque traían una solución térmica mejorada que otorgaba menos
grados a plena carga. Esto elevaba el potencial de overclock.
5ª generación: Broadwell (2014)
Cambiábamos a la microarquitectura Broadwell en 2014, renovando todas las
plataformas. Esta familia evolucionó a un proceso de 14 nm, algo que le cuesta
mejorar a Intel a día de hoy. Se utilizaron los mismos sockets que con Haswell y
seguíamos teniendo a los i3, i5 e i7, junto con Xeon, Pentium y Celeron.
En estos procesadores vimos muchísimas soluciones, como son los procesadores
integrados. Lo cierto es que no vimos muchas novedades interesantes aquí
porque Broadwell fue una familia de transición hasta llegar a Skylake.
Se bajaban las temperaturas y el consumo de los chips gracias a la mejora de
litografía. A su vez, salió la familia Broadwell-E, que consistía en varios i7 preparados
para darlo todo.
Bajo mi punto de vista, la única novedad reseñable de Broadwell fue la salida de los
Intel Core M para portátiles, los cuales tendrían como destino los Macbook de Apple.
Podría decirse que es una de las generaciones de procesadores Intel con menor
impacto en la informática.
6ª generación: Skylake (2015)
Las cosas se empiezan a poner interesantes con la llegada de Skylake en 2015. Sucedía
a Broadwell como microarquitectura, pero los chips seguían siendo fabricados bajo un
proceso de 14 nm. Intel aseguraba que su rediseño conseguía mayor potencia y menor
consumo.
También, salía el socket LGA 1151, que reemplazaba a LGA 1150 como plataforma de
escritorio. Decir que LGA 1151 soportaba la memoria RAM DDR4, por lo que se daba
un paso gigantesco en la estandarización de este tipo de memoria RAM.
En esta familia se dio un detalle curioso: los chips overclockeables eran los «K» y «X»,
pero se descubrió que se podían overclockear los demás chips modificando su
frecuencia base a través de una actualización de BIOS. La protagonista fue ASRock,
quien tuvo que eliminar esa actualización.
Otra curiosidad que se vivió con Skylake, fue el soporte de Windows. Esta familia de
chips Intel nació «en tierra de nadie» porque en 2016 se acababa el soporte de
Windows 7. Por otro lado, Windows 8.1 no soportó los chips Skylake hasta 2017. De
este modo, sólo Windows 10 ofrecería ese soporte oficial a Skylake.
Como novedades, tenemos las siguientes:
Se elimina el FIVR (Fully Integrated Voltage Regulator) de Haswell.
La llegada de la memoria DDR4 a la plataforma de escritorio.
Soporte Thunderbolt 3.0.
Se retiraba el soporte VGA y al mismo tiempo se podían soportar hasta 5 monitores
mediante HDMI 1.4, DisplayPort 1.2 o eDP.
Los gráficos integrados de Skylake soportaban DirectX 12.
16x PCIe 3.0.
CPUs más eficientes.
Por otro lado, tuvo otras «subfamilias» muy interesantes, que no eran más que
«refritos» de procesadores Skylake, pero ¡Cuidado! No cualquier refresh.
Skylake-X
e trataba de una familia de procesadores de alto rendimiento para escritorio, es decir,
para entusiastas. Salvo un modelo (i7-7800X), todos tenían precios prohibitivos y un
TDP muy alto. Con Skylake-X surgen los primeros Intel Core i9, como una opción
potentísima dirigida a los más exigentes.
Para que os hagáis una idea, Intel en 2016 saca Kaby Lake, dando por cerrada la familia
Skylake. Pues en 2017 lanza Skylake-X, que es una familia con dos Intel Core i7 y cinco
Intel Core i9. Todos los procesadores de Skylake-X sólo son compatibles con LGA 2066.
Lo más reseñable de esta «subfamilia» es lo siguiente:
Configuraciones de hasta 18 núcleos con 36 hilos en i9, u 8 núcleos y 16 hilos
en i7.
Frecuencias turbo de hasta 4.5 GHz.
TDP de hasta 165 W.
LGA 2066.
Procesadores de hasta 1999€.
Todos los procesadores eran «X» y, por ende, overclockeables. No sólo eso, sino
que hubo una segunda generación de Skylake-X que terminó de lanzarse en enero
de 2019. Con esto, os podéis hacer una idea de lo que Intel ha exprimido esta familia.
Por último, mencionar que, a pesar de que no ha sido una de las generaciones de
procesadores Intel, podría considerarse como tal porque tuvo dos lanzamientos
separados. Pesó mucho el precio que costaban, pero quien tenía dinero disfrutó como
«un enano».
7ª generación: Kaby Lake (2016-2017)
Aterrizamos en 2016 para empezar a ver el final de un reinado total de Intel en el
sector de procesadores. Intel se estancaba en los 14 nm, pero tampoco hacía falta
esforzarse más porque AMD no ponía problemas, ni tenía mucho sentido ofrecer una
tecnología más avanzada para esta época.
Seguía usándose LGA 1151 y surgía LGA 2066, un socket que debutaría con Skylake-X y
Kaby Lake-X. Kaby Lake es una familia que ha dado mucho a los portátiles, ya que hay
una extensa estirpe de chips «Y» y «G» para estos equipos.
Las novedades más reseñables son estas:
Frecuencias base y turbo mucho más altas.
Se mejoraba Intel Speed Shift para alternar velocidades de reloj más rápido en
el procesador.
Soporte Intel Optane.
Soporte Hyper-threading en los Pentium.
Modelo i3 overclockeable (i3-7350K).
En cuanto a los procesadores, vemos frecuencias base de 4.0 GHz fácilmente. De
hecho, veíamos al i3-7350K con 4.2 GHz y un TDP medio de 50 W. Sin duda, era
una opción ideal por debajo de los 200€ para jugar.
Dejábamos de ver la gama tan famosa de Intel i7 Extreme, para pasar a ver un modelo
«contado» bajo la letra «X» que cogía los mandos de la gama alta de escritorio.
También, vimos un i5 bajo esta denominación (i5-7640X). Todos los chips con
letra «X» sólo eran compatibles con LGA 2066.
Por último, se anuncia un Kaby Lake Refresh en 2017 para portátiles que no está nada
mal porque llevan consigo un gran rendimiento. Como hemos dicho, Kaby Lake ha sido
una familia muy representada en portátiles.
8ª generación: Coffee Lake-S (2017)
Retrocedemos a Skylake-X para contextualizar este 2017 en el que llega Coffee
Lake. La primera generación de Skylake-X sale el verano de 2017, mientras que Coffee
Lake se presenta en octubre del mismo año. Además, AMD ya había presentado la 1ª
generación Ryzen (Summit Ridge) y la arquitectura Zen en febrero.
Parece que Intel se sacó de la manga este Skylake-X tras la presentación de los Ryzen
y Threadripper. Puede que fuese una contestación a los nuevos chips de AMD, los
cuales empezaban a sembrar dudas en los usuarios sobre la existencia de una
alternativa a Intel.
Pues en octubre de 2017 llega Coffee Lake para escritorio, portátiles y servidores. Se
siguen usando las mismas placas, como tampoco se evoluciona el nodo. No obstante,
se producen cambios muy importantes en la configuración de los procesadores.
Los Intel Core i5 pasan a tener 6 núcleos y 6 hilos para competir con Ryzen 5
1600. De hecho, se implementa el hyper-threading en ellos.
Respecto a los i3, heredan la configuración de 4 núcleos de los antiguos i5.
Seguía habiendo una versión «K».
En cuanto a los i7, se subían a 6 núcleos y 12 hilos. Desaparecían las gamas X,
quedando representadas por Skylake-X.
Aparecían los Pentium Gold por primera vez.
En esta ocasión, hay pocas novedades, pero muy interesantes:
Modificación de la configuración de núcleos e hilos.
Se incrementa hasta 400 MHz las frecuencias turbo.
Se soporta memoria DDR4 hasta 2666 MHz. Para los curiosos, Ryzen empezaba
a soportar 3000 MHz y 3.200 MHz de entrada, ya que lo requería el sistema.
Se empezaba a dar soporte de hasta 128 GB de memoria RAM.
En términos generales, es una familia que funcionó muy bien, pero que se vio algo
eclipsada por la llegada de Ryzen. Su llegada al mercado fue descafeinada por ello.
Igualmente, daba igual el papel: seguía siendo más potente en videojuegos.
9ª generación: Coffee Lake Refresh (2018)
Intel empezaba a ver como la cuota de mercado bajaba, pero seguía dominando el
panorama. AMD contrastaba los Ryzen y los usuarios empezaban a cuestionarse si
merecía la pena pagar tanto dinero por Intel, como por una placa con chipset de gama
alta.
A finales de 2018, Intel lanza Coffee Lake Refresh, una gama de productos salpicada
por las vulnerabilidades de Spectre y Meltdown. Este «refrito» es el menos «refrito»
de todos los «refritos» de Intel ¿Por qué? Por lo siguiente:
Intel incluía la gama Core i9 en plataforma de escritorio con 8 núcleos, 16
hilos y una frecuencia turbo de hasta 5 GHz en el i9-9900KS. Justo este
procesador recibió muchas críticas por tener sólo 1 año de garantía.
Los Intel Core i3 recibían por primera vez la tecnología Turbo Boost.
Los i7 venían con 8 núcleos y 8 hilos, al contrario que los Coffee Lake originales.
En 2019, AMD sacaba Pinnacle Ridge (zen + = Ryzen 2000), marcada por tener
APUs. Intel empieza a ponerse nerviosa de verdad al ver el éxito de Ryzen. Por ello,
baja los precios de los procesadores en octubre de 2019.
10ª generación: Comet Lake (2019-2020)
¿Cuántas generaciones de procesadores Intel han estado dominando el mercado?
Concretamente, 8 generaciones. Podría decirse que la informática ha ido del mando de
Intel, prácticamente.
Sin embargo, cuantas más generaciones, más complicado es mantener el liderazgo del
mercado de procesadores por parte de Intel. Con Comet Lake llegan los problemas de
verdad: Intel es incapaz de ofrecer 7 nm en sus chips, mientras que AMD presenta Zen
2 (Ryzen 3000) en 2019 y prepara su lanzamiento Zen 3 para finales de 2020.
Es cierto que en portátiles sigue siendo la primera opción, pero ya no está tan claro en
escritorio. De hecho, empezamos a ver a EPYC copando muchos servidores y
superordenadores, como los Ryzen portátiles ofreciendo un rendimiento muy bueno.
La única baza de Intel es el rendimiento single core, el cual es mayor que AMD.
La 10ª generación de Intel (Comet Lake-S) se presentó el 30 de abril de 2020. Viene
bajo el socket LGA 1200 y alberga los chips i9, i7, i5, i3, Pentium y Celeron. El proceso
sigue siendo 14 nm y se empiezan a soportar frecuencias de memoria
RAM DDR4 mucho más altas.
Core i3 recibe 4 núcleos y 8 hilos.
Los i5 evoluciona a 6 núcleos y 12 hilos.
También afecta a los i7, que tienen 8 núcleos y 16 hilos.
Los i9 vienen con 10 núcleos y 20 hilos.
Entre las novedades más sonantes, encontramos estas:
Mayores frecuencias, pasando el umbral de los 5.0 GHz por i7.
Mayor configuración de núcleos-hilos.
Consumo y temperatura mayores.
Precios de placas base con chipset OC muy alto.
Antes de que fueran presentados, se filtraron muchas comparativas y benchmarks que
los dejaban en mal lugar. A pesar de ello, no han dejado mal sabor de boca tras su
salida, dando un gran rendimiento.
Si queréis información detallada sobre alguno de sus chips, aquí os dejamos nuestras
dos reviews:
Intel Core i5-10600K.
Intel Core i9-10900K.
Hasta aquí llega la historia de la familia Intel Core de Intel. Más adelante,
saldrán Rocket Lake-S y Alder Lake. De momento, el panorama es que Intel y AMD
están viviendo una lucha encarnizada en todas las plataformas: escritorio, servidores y
portátiles.
Como veis, no hay pocas generaciones de procesadores Intel. Igualmente, esperamos
que os haya gustado este artículo y hayáis podido encontrar la familia a la que
pertenece vuestro modelo.
GENERACIÓN DE LA PLACA MADRE
Qué son las placas base
Una placa base es la plataforma hardware en la que se conectan todos los
componentes internos de un ordenador. Se trata de un complejo circuito eléctrico
provisto de numerosas ranuras para poder conectar desde tarjetas de expansión como
una tarjeta gráfica, hasta unidades de almacenamiento como son discos duros SATA
mediante cable o SSD en ranuras M.2
Lo más importante, es que la placa base es el medio o la vía por donde todos los datos
que circulan en un ordenador viajan desde un punto a otro. A través del bus PCI
Express, por ejemplo, la CPU comparte información de vídeo con la tarjeta gráfica. De
igual forma, mediante los carriles PCI, el chipset o puente sur envía información desde
los discos duros hasta la CPU, y lo mismo ocurre entre la CPU y la memoria RAM.
Tamaños disponibles y sus principales usos de las placas base
En el mercado podemos encontrar una serie de formatos de tamaño de placas base
que determinarán en gran parte la utilidad y la forma de instalar éstas. Serán los
siguientes.
ATX: será el factor de forma más habitual en un PC de escritorio, que en cuyo
caso se introducirá en un chasis el mismo tipo ATX o llamados middle
tower. Esta placa mide 305×244 mm y por regla general cuenta con una
capacidad para 7 slots de expansión.
E-ATX: será la placa base de escritorio más grande disponible, excepto algunos
tamaños especiales como XL-ATX. Sus medidas son de 305 x 330 mm y puede
contar con 7 o más ranuras de expansión. Su uso generalizado corresponde a
los equipos orientados a Workstation o escritorio nivel entusiasta con chipsets
X399 y X299 para AMD o Intel. Mucho de los chasis ATX son compatibles con
este formato, de lo contrario tendríamos que irnos a un chasis full tower.
Micro-ATX: estas placas son más pequeñas que las ATX, midiendo 244 x 244
mm, siendo completamente cuadradas. Actualmente su uso es bastante
reducido, ya que no presentan una gran ventaja de cara a la optimización de
espacio por existir formatos más pequeños. También existen formatos
específicos de chasis para ellas, pero casi siempre irán montadas sobre chasis
ATX, y tienen espacio para 4 slots de expansión.
Mini ITX y mini DTX: este formato ha ido desplazando al anterior, ya que sí es
ideal para montar pequeños ordenadores multimedia e incluso gaming. Las
placas ITX miden solamente 170 x 170 mm y son las más extendidas de su
clase. Solo tienen una ranura PCIe y dos ranuras DIMM, pero no debemos
infravalorar su potencia, porque algunas de ellas son sorprendentes. Por parte
de las DTX, miden 203 x 170 mm, un poco más largas para admitir dos slots de
expansión.
Tenemos otros tamaños especiales que no se puede considerar estandarizados, por
ejemplo, las placas base de los ordenadores portátiles o las que montan los nuevos
HTPC. De igual forma, tenemos tamaños específicos para los servidores en función del
fabricante, los cuales no se podrán adquirir normalmente por un usuario doméstico.
Plataforma de una placa base y principales fabricantes
Cuando hablamos de la plataforma a la que pertenece una placa base,
simplemente nos estamos refiriendo al socket o zócalo que tiene ésta. Se trata del
zócalo en donde se conecta la CPU, y puede ser de distintos tipos en función de la
generación del procesador. Las dos plataformas actuales son Intel y AMD, que se
pueden dividir en escritorio, portátiles, miniPC y Workstation.
Los zócalos actuales tienen un sistema de conexión llamado ZIF (Zero insection
Force) indicando que no necesitamos hacer fuerza para efectuar la conexión. Además
de esto, lo podemos clasificar en tres tipos genéricos en función de tipo de
interconexión:
PGA: Pin Grid Array o matriz de rejillas de pines. La conexión se efectúa
mediante una matriz de pines instalados directamente en la CPU. Estos pines
deben ir encajados en los agujeros de zócalo de la placa base y luego un sistema
de palanca los fija. Permiten menor densidad de conexiones que el siguiente.
LGA: Land Grid Array o matriz de contactos en rejilla. La conexión en este caso
se trata de una matriz de pines instalados en el socket y de contactos planos
en la CPU. La CPU se coloca sobre el socket y con un bracket que hace presión
sobre el IHS se fija el sistema.
BGA: Ball Grid Array o matriz de rejilla de bolas. Básicamente, es el sistema de
instalación de procesadores en portátiles, fijando mediante soldadura la CPU al
socket de forma permanente.
Sockets de Intel
Ahora veremos en esta tabla todos los sockets actuales y menos
actuales que ha utilizado Intel desde la era de los procesadores Intel
Core.
Socket Año CPU Soportadas Contactos Información
Intel Core i7 (serie
Reemplaza al zócalo
900)
LGA 1366 2008 1366 LGA 771 orientado a
Intel Xeon (serie 3500,
servidores
3600, 5500, 5600)
Intel i3, i5, i7 de la
serie 2000 Primero en soportar
LGA 1155 2011 1155
Intel Pentium G600 y 20 Lanes PCI-E
Celeron G400 y G500
Intel Core i7 800
Intel Core i5 700 y 600
Intel Core i3 500
Sustituye al socket
LGA 1156 2009 Intel Xeon X3400, 1156
LGA 775
L3400
Intel Pentium G6000
Intel Celeron G1000
Intel Core i3, i5 y i7 de Usado para 4ª y 5ª
LGA 1150 2013 4ª y 5ª generación 1150 gen de 14 nm de
(Haswell y Broadwell) Intel
Intel Core i3, i5, i7
6000 y 7000 (6ª y 7ª
generación Skylake y
Kaby Lake)
Intel Core i3, i5, i7 Cuenta con dos
8000 y 9000 (8ª y 9ª revisiones
2015 y generación Coffee 1151 incompatibles entre
LGA 1151
actualidad Lake) ellas, una para 6ª y 7ª
Gen y otra para 8ª y
9ª Gen
Intel Pentium G y
Celeron en sus
respectivas
generaciones
Intel Core i7 3000 Sandy Bridge-E/EP e
Intel Core i7 4000 Ivy Bridge-E/EP
Intel Xeon E5 soportan 40 carriles
LGA 2011 2011 2011
2000/4000 en PCIe 3.0. Usados
Intel Xeon E5- en Intel Xeon para
2000/4000 v2 Workstation
2017 y Intel Intel Skylake-X Para CPU Intel de 7ª
LGA 2066 2066
actualidad Intel Kaby Lake-X Gen Workstation
Sockets de AMD
Exactamente lo mismo haremos con los sockets que han estado
presentes en los últimos tiempos en AMD.
Socket Año CPU Soportadas Contactos Información
Reemplaza al
AMD Phenom II AM2+. Las CPU
PGA AM3 2009 AMD Athlon II 941 / 940 AM3 son
AMD Sempron compatibles con
AM2 y AM2+
AMD FX Zambezi Para la
AMD FX Vishera arquitectura
2011-
PGA AM3+ AMD Phenom II 942 Bulldozer y
2014
AMD Athlon II admiten Memoria
AMD Sempron DDR3
Se usa para la
primera
PGA FM1 2011 AMD K-10:Llano 905
generación de
APUs de AMD
Para la segunda
AMD Trinity
PGA FM2 2012 904 generación de
Processors
APUs
La primera versión
AMD Ryzen 3, 5 y 7 de
es compatible con
1ª, 2ª y 3ª generación
2016- Ryzen de 1ª y 2ª
PGA AM4 AMD Athlon y APU 1331
actualidad Gen y la segunda
Ryzen de 1ª y 2ª
versión con Ryzen
generación
de 2ª y 3ª Gen.
Para procesadores
LGA TR4 AMD EPYC y Ryzen
2017 4094 Workstation de
(SP3 r2) Threadripper
AMD
Qué es el chipset y cuál elegir
Tras ver los diferentes sockets que podemos encontrar en las placas,
toca hablar de segundo elemento más importante de una placa base,
que es el chipset. Es también un procesador, aunque de menor potencia
que el central. Su función es la de actuar como centro de
comunicaciones entre la CPU y los dispositivos o periféricos que
a él irán conectados. El chipset es básicamente el South
Bridge o Puente Sur en la actualidad. Estos dispositivos serán los
siguientes:
Unidades de almacenamiento SATA
Ranuras M.2 para SSD que determine cada fabricante
Puertos USB y de otros tipos internos o del panel E/S
El chipset también determina la compatibilidad con estos periféricos y
con la propia CPU, ya que debe establecer una comunicación directa con
ella a través del bus frontal o FSB mediante carriles PCIe 3.0 o 4.0 en el
caso de AMD y por bus DMI 3.0 en el caso de Intel. Tanto este como la
BIOS, determina también la memoria RAM que podemos utilizar y su
velocidad, por lo que es muy importante elegir el correcto según
nuestras necesidades.
Como ocurría con el socket, cada uno de los fabricantes tienen su propio
chipset, ya que no son las marcas de placas los que se encarga de
fabricar éstos.
Chipsets actuales de Intel
Veamos los chipsets que utiliza las placas base Intel en la actualidad, de
los cuales solamente hemos seleccionado los más importantes para el
socket LGA 1151 v1 (Skylake y Kaby Lake) y v2 (Coffee Lake)
Chipset Plataforma Bus Carriles PCIe Información
Para procesadores Intel Core de 6ª y 7ª generación
B250 Escritorio DMI 3.0 a 7,9 GB/s 12x 3.0 No soporta
puertos USB 3.1 Gen2. Es el primero en soportar memoria Intel Optane
Z270 Escritorio DMI 3.0 a 7,9 GB/s 24x 3.0 No soporta
puertos USB 3.1 Gen2, pero sí hasta 10 USB 3.1 Gen1
HM175 Portátiles DMI 3.0 a 7,9 GB/s 16x 3.0 Chipset
usado para portátiles gaming de la anterior generación. No soporta USB
3.1 Gen2.
Para procesadores Intel Core de 8ª y 9ª generación
Z370 Escritorio DMI 3.0 a 7,9 GB/s 24x 3.0 Anterior chipset
para equipos gaming de sobremesa. Admite overclocking, aunque no
USB 3.1 Gen2
B360 Escritorio DMI 3.0 a 7,9 GB/s 12x 3.0 Chipset de gama
media actual. No soporta overclocking pero admite hasta 4x USB 3.1
gen2
Z390 Escritorio DMI 3.0 a 7,9 GB/s 24x 3.0 Chipset Intel más
potente actualmente, usado para gaming y overclocking. Gran número
de carriles PCIe soportando +6 USB 3.1 Gen2 y +3 M.2 PCIe 3.0
HM370 Portátil DMI 3.0 a 7,9 GB/s 16x 3.0 El chipset
más utilizado actualmente en portátil gaming. Existe las variantes
QM370 con 20 carriles PCIe, aunque es poco utilizada.
Para procesadores Intel Core X y XE en socket LGA 2066
X299 Escritorio / Workstation DMI 3.0 a 7,9 GB/s 24x 3.0 El
chipset usado para los procesadores de gama entusiasta de Intel
Chipsets actuales de AMD
Y también veremos los chipsets que AMD tiene las placas base, que al
igual que antes, nos centraremos en los más importante y actualmente
usados para equipos de escritorio:
Chipset MultiGPU Bus Carriles PCIe efectivos Información
Para procesadores AMD Ryzen y Athlon de 1ª y 2ª generación en socket
AMD
A320 No PCIe 3.0 4x PCI 3.0 Es el chipset más básico de la
gama, orientado a equipos básicos con APU Athlon. Soporta USB 3.1
Gen2 pero no overclocking
B450 CrossFireX PCIe 3.0 6x PCI 3.0 El chipset de gama media
para AMD, que soporta overclocking y también los nuevos Ryzen 3000
X470 CrossFireX y SLI PCIe 3.0 8x PCI 3.0 El más utilizado para
equipos gaming hasta la llegada del X570. Sus placas están a buen
precio y soportan también Ryzen 3000
Para procesadores AMD Athlon de 2ª Gen y Ryzen de 2ª y 3ª Gen en
socket AM4
X570 CrossFireX y SLI PCIe 4.0 x4 16x PCI 4.0 Tan solo se excluyen los
Ryzen de 1ª gen. Es el chipset más portante de AMD en la actualidad
soportando PCI 4.0.
Para procesadores AMD Threadripper con socket TR4
X399 CrossFireX y SLI PCIe 3.0 x4 4x PCI 3.0 El único chipset
disponible para los AMD Threadripper. Sorprende sus pocos lanes PCI ya
que todo el peso lo lleva la CPU.
BIOS
BIOS es el acrónimo de Basic Input/Output System, y vienen ya instalada
en todas las placas base existentes en el mercado. La BIOS es un
pequeño firmware que se ejecuta antes que todo lo demás en la placa
para inicializar todos los componentes que hay instalados y cargar los
controladores de dispositivos y especialmente el arranque.
La BIOS se encarga de realizar un chequeo a estos componentes, como
CPU, memoria RAM, discos duros y tarjeta gráfica antes de arrancar,
para así parar el sistema si existe algún error o incompatibilidad. De
igual forma, ejecuta el cargador de arranque del sistema operativo que
tengamos instalado. Este firmware se guarda en la memoria ROM que
además está alimentada por una pila para mantener los parámetros de
fecha actualizados.
La UEFI BIOS es el estándar actual que funciona en todas las placas,
aunque permite retrocompatibilidad con componentes antiguos que
funcionaban con la BIOS tradicional Phoenix y American Megatrends. La
ventaja es que ahora es casi un sistema operativo más, mucho más
avanzado en su interfaz, y capaz detectar y controlar el hardware y
periféricos al instante. Una mala actualización de la BIOS o algún
parámetro mal configurado puede derivar en un mal funcionamiento de
la placa, incluso de que no arranque, por lo que es un firmware esencial.
Botones internos, Speaker y Debug LED.
Con la introducción del sistema UEFI el modo de operar e interactuar con
las funciones básicas del hardware ha cambiado. En esta
interfaz podremos usar ratón, conectar unidades flash, y mucho más.
Pero también de forma externa podremos acceder a las funciones de
actualización de la BIOS mediante dos botones que están presentes en
caso todas las placas base:
Clear CMOS: es un botón que hace la misma función que el
tradicional jumper JP14, es decir, el de limpiar la BIOS y resetearla
si aparece algún problema.
BIOS Flashback: este botón también recibe otros nombres en
función de quien sea el fabricante de la placa. Su función es la de
poder recuperar o actualizar la BIOS a una versión distinta,
anterior o posterior de forma directa desde una unidad flash
instalar en un determinado puerto USB.
A veces también tenemos botones de Power y Reset para
arranque la placa sin conectar el F_panel, siendo una gran utilidad
para usar placas en bancos de prueba.
Junto a estas mejoras, también han aparecido un nuevo sistema de
POST de la BIOS que muestra en cada momento los mensajes de estado
de la BIOS mediante un código hexadecimal de dos caracteres. A este
sistema le llamados Debug LED. Es una forma mucho más avanzada de
mostrar errores en el arranque que los típicos pitidos del speaker, que
aún se puede utilizar. No todas las placas tienen Debug LED, aún están
reservados a las de gama alta.
Overclocking y undervolting
Otra función clara de la BIOS sea UEFI o no, es la de overclocking y
undervolting. Es cierto que ya existen programas que permiten hacer
esta función desde el sistema operativo, especialmente el undervolting.
Esto lo haremos en el apartado de “Overclocking” o “OC Tweaker”.
Por overclocking entendemos la técnica de aumentar el voltaje de la CPU
y modificar el multiplicador de frecuencia para que éste alcance valores
que superen incluso los límites establecidos por el fabricante. Hablamos
de superar incluso el turbo boost o el overdrive de los Intel y AMD. Por
supuesto superar los límites implica poner en riesgo la estabilidad del
sistema, por lo que necesitaremos un buen disipador y evaluar mediante
estrés si el procesador resiste este aumento de frecuencia sin
bloquearse con algún pantallazo azul.
Para realizar un overclocking, necesitamos una CPU con el multiplicador
desbloqueado, y luego, una placa base con chipset que permita este tipo
de acción. Todos los AMD Ryzen, son susceptibles de ser overclockeados,
incluso las APU, solo se excluyen los Athlon. De igual forma los
procesadores Intel con denominación K también tendrán habilitada esta
opción. Los chipsets que soportan esta práctica son los AMD B450, X470
y X570, y los Intel X99, X399, Z370 y Z390 como los más recientes.
Una segunda forma de hacer overclocking es aumentar la frecuencia del
reloj base o BCLK de la placa, pero conlleva mayor inestabilidad por ser
un reloj que controla de forma simultánea varios elementos de la placa,
como CPU, RAM y el propio FSB.
El Undervolting es hacer justo lo contrario, disminuir el voltaje para
evitar que un procesador haga thermal throttling. Es una práctica usada
en portátiles o tarjetas gráficas con sistemas de refrigeración ineficaces,
en donde funcionar a frecuencias altas o con voltajes excesivos hace que
se llegue muy pronto al límite térmico de la CPU.
VRM o fases de alimentación
El VRM es el sistema principal de alimentación de energía del
procesador. Hace la función de convertidor y reductor para el
voltaje que será suministrado a un procesador en cada instante.
Desde la arquitectura Haswell en adelante, el VRM se ha instalado
directamente en las placas base en lugar de estar en el interior de
los procesadores. La disminución de espacio en la CPU y el aumento de
núcleos y potencia, hacen que este elemento ocupe bastante sitio
alrededor del socket. Los componentes que encontramos en el VRM son
los siguientes:
Control PWM: significa modulador por ancho de pulso, y es un
sistema por el que una señal periódica se modifica para
controlar la cantidad de energía que envía a la
CPU. Dependiendo de la señal digital cuadrada que genere, los
MOSFETS modificarán el voltaje que entregan a la CPU.
Doblador: tras el PWM a veces se colocan dobladores, cuya
función es la de reducir a la mitad la señal PWM y duplicarla
para introducirla en dos MOSFETS. De esta forma las fases de
alimentación se doblen en número, pero es menos estable y
eficaz que tener fases reales.
MOSFET: es un transistor efecto campo y sirve para amplificar o
conmutar una señal eléctrica. Estos transistores son la etapa
de potencia del VRM, generando un determinado voltaje e
intensidad para la CPU en función de la señal PWM que el llega. Se
compone de cuatro partes, dos Low Side MOSFETS, un High Side
MOSFET y un controlador IC
CHOKE: Un choke es un inductor o bobina de ahogo y realiza la
función de filtrado de la señal eléctrica que llegará a la CPU.
Condensador: Los condensadores complementan los
chokes para absorber la carga inductiva y hacer la función de
pequeñas baterías para el mejor suministro de corriente.
Hay tres conceptos importantes que veréis muchísimo en las review
de placas y en sus especificaciones:
TDP: La potencia de diseño térmico es la cantidad de calor que
puede generar un chip electrónico como CPU, GPU o chipset. Este
valor se refiere a la cantidad máxima de calor que un chip
generaría a máxima carga ejecutando aplicaciones, y no a la
potencia que consume. Una CPU con 45W TDP significa que puede
disipar hasta 45W de calor sin que el chip exceda la temperatura
máxima de unión (TjMax o Tjunction) de sus especificaciones.
V_Core: El Vcore es la tensión que la placa base le proporciona al
procesador que esté instalado sobre el socket.
V_SoC: En este caso se trata del voltaje que se suministra a las
memorias RAM.
Ranuras DIMM ¿dónde está el North Bridge en estas placas
base?
A todos nos quedará claro que las placas base de equipos de escritorio
siempre tienen como interfaz de conexión para memoria RAM ranuras
DIMM, las de mayor tamaño y con 288 contactos. Actualmente tanto los
procesadores AMD como los de Intel, tienen el controlador de memoria
dentro del propio chip, en el caso de AMD por ejemplo está en un chiplet
independiente al de los núcleos. Esto significa que el puente norte o
north bridge está integrado en la CPU.
Muchos os habéis fijado que en las especificaciones de una CPU siempre
se pone un valor concreto de frecuencia de memoria, para los Intel es de
2666 MHz y para los AMD Ryzen 3000 de 3200 MHz. Mientras tanto, las
placas base nos dan unos valores mucho más altos ¿Por qué no
coinciden? Pues porque las placas base tienen habilitada una función
llamada XMP que les permite trabajar con memorias que vienen
overclockeadas de fábrica gracias a un perfil JEDEC personalizado por el
fabricante. Estas frecuencias pueden llegar hasta los 4800 MHz.
Otra cuestión importante será la capacidad de trabajo en Dual Channel o
Quad Channel. Eso es bastante sencillo de identificar: solo los
procesadores Threadripper de AMD y los X y XE de Intel trabajan en
Quad Channel con los chipsets X399 y X299 respectivamente. El resto
funcionará en Dual Channel. Para que lo entendamos, cuando dos
memorias funcionan en Dual Channel quiere decir que en lugar de
trabajar con cadenas de instrucciones de 64 bits lo hacen con 128 bits,
duplicando así la capacidad de transferencia de datos. En Quad Channel
se eleva hasta los 256 bits, generando velocidades realmente elevadas
en lectura y escritura.
De esto sacamos una ideal principal: merece mucho más la pena instalar
un doble módulo de RAM y aprovechar el Dual Channel, que instalar un
solo módulo. Por ejemplo, conseguir 16 GB con 2x 8 GB, o 32 GB con 2x
16 GB.
Ranuras de expansión y bus PCI-Express
Veamos cuáles son las ranuras de expansión más importantes de una
placa base:
Ranuras PCIe:
Las ranuras PCIe pueden estar conectadas a la CPU o al chipset, en
función de la cantidad de carriles PCIe que ambos elementos estén
utilizando. En la actualidad están en la versión 3.0 y 4.0 llegando a
velocidades de hasta 2000 MB/s en subida y bajada para este último
estándar. Es un bus bidireccional, por lo que es el más rápido después
del bus de memoria.
La primera ranura PCIe x16 (16 carriles) siempre irá directa a la CPU, ya
que en ella se instalará la tarjeta gráfica, que es la tarjeta más rápida
que se puede instalar en un PC de escritorio. El resto de las
ranuras podrán estar conectadas al chipset o CPU, y funcionarán siempre
a x8, x4 o x1 a pesar de que su tamaño sea x16. Esto lo podremos ver
en las especificaciones de la placa para no llevarnos a error. Tanto las
placas Intel como AMD soportan tecnologías multi GPU:
AMD CrossFireX: la tecnología propia de las tarjetas de AMD. Con
ella podrían trabajar hasta 4 GPU de forma paralela. Este tipo de
conexiones está directamente implementado en las ranuras PCIe.
Nvidia SLI: esta interfaz es más efectiva que la de AMD, aunque
admite dos GPU en las palcas de escritorio habituales. Las GPU se
conectarán físicamente con un conector llamado SLI, o
NVLink para las RTX.
Ranura M.2, un estándar en las nuevas placas base
La segunda ranura más importante será la M.2, que también trabaja
sobre carriles PCIe y se utiliza para conectar unidades de
almacenamiento SSD de alta velocidad. Se sitúan entre las ranuras
PCIe, y siempre serán de tipo M-Key, excepto una especial que se
utiliza para las tarjetas de red Wi-Fi CNVi, la cual es de tipo E-Key.
Centrándonos en las ranuras para SSD, estas trabajan con 4 carriles
PCIe que podrán ser 3.0 o 4.0 para las placas X570 de AMD, así que las
transferencias máximas de datos serán de 3.938,4 MB/s en 3.0, y
7.876,8 MB/s en 4.0. Para ello, se utiliza el protocolo de
comunicación NVMe 1.3, aunque algunas de estas ranuras son
compatibles en AHCI para conectar unidades M.2 SATA en peligro de
extinción.
En las placas Intel, las ranuras M.2 irán conectadas al chipset, y serán
compatibles con Intel Optane Memory. Básicamente es un tipo de
memoria propia de Intel que puede funcionar como almacenamiento o
como caché de aceleración de datos. En el caso de AMD, normalmente
una ranura va hacia la CPU y una o dos hacia el chipset, con tecnología
AMD Store MI.
Discos Duros Evolución e Historia
Desde aquellos enormes que ocupaban una habitación entera, hasta los
diminutos de hoy día, que entran en un bolsillo. La evolución del disco
duro y los dispositivos de almacenamiento son el fruto de una industria
que continúa dando más, por menos. Quienes nos dedicamos a la
recuperación de datos, notamos esta evolución constante y nos
adaptamos con nuevas tecnologías
En solo 30 años, el costo de almacenar un gigabyte de información paso
a ser de sumas aproximadas de US$100.000 a tan solo unos pesos. A
continuación, les contaremos un poco de la increíble historia del disco
rígido:
IBM 305 RAMAC Disk System
El antecesor del disco duro que conocemos hoy día. Fue introducido en
1956 como parte del RAMAC de IBM (Método de Acceso Random de
Contabilidad y Control). Podía almacenar 5MB de datas en 50 discos de
24 pulgadas de diámetro. El disco rígido tenía el tamaño de una
heladera, y la unidad entera, pesaba más de una tonelada (como los de
hoy en día, que entran en el bolsillo, ¿no?).
El sistema costaba US$10.000 por megabyte, algo completamente
impensable hoy en día. Pero para entonces, el precio estaba totalmente
justificado por la habilidad del sistema de transferir la data almacenada
en solo 600 milisegundos. IBM vendió más de 1000 unidades durante el
lapso de vida de 5 años del sistema de almacenaje.
Unidad de Almacenamiento de Disco IBM 1301
IBM reemplazó a la larga el modelo RAMAC con el sistema de
almacenamiento de disco 1301. Lo estrenó en 1961, y utilizaba cabezas
separadas para escritura y lectura en cada superficie, eliminando la
necesidad de correr el cabezal cada vez que necesitaba acceder a un
disco diferente.
Podía almacenar 28MB (23MB más que el RAMAC) y fue el primer disco
duro en usar cabezas diseñadas aerodinámicamente, que podían volar
sobre la superficie de un disco en una leve capa de aire, mejorando la
velocidad de acceso a 180 milisegundos, prácticamente 4 segundos
menos que el RAMAC.
Podías comprar una por TAN SOLO US$115.500 o rentar una por
US$2100 al mes. Tentador, ¿no?
Disco Duro IBM 1311
La unidad de almacenamiento de disco duro IBM 1311, introducida en
1962, era capaz de almacenar hasta 2.6MB en 6 platos de 14 pulgadas.
Cada disco pesaba unas 10 libras y fue tan exitoso, que recibió varios
rediseños y permaneció en el mercado hasta 1975.
IBM fue pionero en muchos avances e innovaciones en discos rígidos,
incluyendo el primer pack de disco removible.
IBM 3340 Direct Access Storage Facility (apodado “Winchester”)
IBM introdujo varias innovaciones de diseño en disco duros con el IBM
3340 que todavía continúan en uso hoy día, incluyendo cabezas de
lectura y escritura de poca masa y discos lubricados dentro de un
espacio hermético.
Su nueva tecnología les permitió achicar la maquina en tamaño y reducir
su precio ¡A tan solo US$87.600!
El apodo Winchester surgió cuando los ingenieros de desarrollo se
refirieron a el disco como un “30-30”, ya que sus dos rotores de giro
proveían capacidad de almacenamiento de 30MB cada uno. La referencia
es por el rifle Winchester, que usaba cartuchos de .30-30. Si pensabas en
los hermanos Sam y Dean, no es el caso.
Disco de Almacenamiento de acceso directo IBM 3380
En esta ocasión, IBM llegó a el gigabyte en almacenamiento con la
introducción en 1980 del disco IBM 3380 de acceso directo.
Poseía una capacidad de 2.52 GB, con un rate de transferencia de data
de 3MB por segundo.
Dependiendo de las características que seleccionaras, un modelo A 3380
DASD te hubiera costado entre US$97.650 y US$142.200
Seagate ST-506
Mientras IBM continuaba desarrollando almacenamientos del tamaño de
una heladera para computadoras de mainframe, Seagate apareció en
escena para achicarlos a un tamaño ideal para la PC personal.
Cambiabas tu unidad de diskette de 5.25 pulgadas por un Seagate ST-
506 de US$1500, y podías almacenar 5MB de data permanentemente en
tu PC. ¡Genial!
El disco dependía de una carta controladora que tenía que ser conectada
al motherboard, pero había eliminado el cambio entre discos de escritura
y lectura para poder correr el sistema operativo de la PC, después correr
el software y finalmente acceder a la información.
Toshiba Tanba-1 de 2.5 pulgadas
Las primeras computadoras personales portátiles parecían más equipaje
que computadoras. La introducción del disco duro PrairieTek de 2.5
pulgadas en 1988 fue clave en conseguir la forma ligera y sexy que las
notebooks portan con orgullo hoy día. El modelo 220 requería 30%
menos espacio que los discos de 3.5 pulgadas y aportaban 20MB de
almacenamiento (10 en cada plato).
En 1991, Toshiba reveló el Tanba-1 de 2.5 pulgadas, con 63MB de
almacenamiento.
Discos de 2.5 pulgadas se mantuvieron como una característica común
en las notebooks modernas, aunque modelos más avanzados traen
discos de estado sólido.
El microdisco IBM
IBM introdujo este Microdisco de 170MB en 1999. Tenía platos de tan
solo 1 pulgada de diámetro, con un mecanismo que podía ser insertado
en un slot CompactFlash Tipo II.
Hitachi adquirió el negocio de los discos duros de IBM en 2002, y otros
desarrolladores, como Seagate, comenzaron a construir discos utilizando
el mismo factor de forma e interfaz. Apple utilizó una versión incrustada
de este disco en sus iPod mini.
Barracuda Seagate Serial ATA V
Ahora sí, este disco se ve familiar. El Barracuda Serial ATA V de Seagate,
lanzado en 2003, fue uno de los primeros discos duros en depender de la
en ese entonces recientemente lanzada interfaz SATA (Serial Advance
Technology Attachment), hoy súper conocida.
El Barracuda disponía de dos platos de 60GB para brindar un
almacenamiento de 120GB, y solo costaba US$170, marcando un precio
que, si bien aún costoso, ya mucho más accesible en el mercado de
discos duros.
Western Digital Raptor
Western Digital originalmente desarrolló el Raptor en 2003 para servidor
en empresas, pero los entusiastas del PC Gaming pronto quisieron
hacerse del disco de alta velocidad.
Con platos que giraban a 10000 rpm (contra las 7200 de velocidad
rotacional que utilizaban discos más comunes), el Raptor (Velociraptor
en su encarnación actual) se mantiene como uno de los discos duros
mecánicos de mayor performance y eficiencia en el mercado.
Aunque la mayoría de los gamers están enamorados de los SSD hoy en
día, el disco duro veloz de Western Digital se mantiene aún como un
popular componente para trabajar cargas pesadas como edición de
video y renderizado en 3D.
Toshiba MK2001MTN
Toshiba anunció este adorable mini dispositivo en 2006. Hasta consiguió
un lugar en los récords Guinness del mundo en 2005 como el disco duro
más pequeño. Almacenaba 2Gb en un tamaño de 0.85 pulgadas.
Para el tiempo que Toshiba distribuyó el disco en volumen, su capacidad
había sido doblada a 4GB. Se utilizó en teléfonos celulares, cámaras y
otros dispositivos multimediales.
Discos de Estado Solido
Aunque el primer disco de estado sólido fue fabricado en 1976, tomó
otros 35 años para que se volviera popular.
Samsung introdujo un modelo en 2006, de 32GB y 2.5 pulgadas, como
un reemplazo para los discos de laptops. SanDisk presentó un disco
similar, un año después. Estos discos, rápidos y silenciosos, eran lo
mejor en el mercado, si podías afrontar su valor de US$699.
El ciclo familiar de capacidad que aumenta y precio que disminuye,
volvió a los discos de estado sólido (casi) universalmente accesibles hoy
en día.
Pasaron muchísimos años y muchísimos modelos hasta llegar a donde
estamos hoy día. El almacenamiento que en una época contenía menos
de 10MB en una habitación dedicada solo para él, hoy podemos llevarlo
multiplicado varias veces, en nuestro bolsillo.
Memoria RAM DDR, DDR2, DDR3, DDR4 y DDR5, ¿en qué se
diferencian?
Desde la implantación de la memoria RAM en formato DIMM, son
muchos los tipos de memorias que ha habido en el mercado, pero desde
el año 2000 son las memorias RAM DDR las que se han impuesto por
encima de las demás. A continuación, te vamos a contar
qué diferencias tiene la memoria RAM DDR, DDR2, DDR3, DDR4 y
DDR5 desde su implantación en el año 2000.
Es cierto que la memoria RAM DDR y DDR2 está ya en desuso, y de
hecho la memoria DDR hace tiempo que desapareció. La RAM DDR3 está
ya descatalogada, pero todavía son muchos los equipos que la utilizan,
mientras que la DDR4 está ya afianzada en el mercado desde su
lanzamiento en 2014. Actualmente, las memorias DDR4 han empezado a
ser reemplazadas por la RAM DDR5, lanzada a finales de 2021 y con el
paso del tiempo hemos visto incluso pequeñas mejoras dentro del
estándar que nos ofrecen un plus de rendimiento.
En este artículo te vamos a explicar las diferencias que han justificado
desde hace casi 25 años que este tipo de memoria se haya utilizado de
forma hegemónica en PC y las evoluciones que ha vivido para adaptarse
a lo que se necesitaba en cada momento. Cinco generaciones que han
marcado, y marcarán, el futuro de todos nuestros equipos y cuyo éxito
vamos a desgranar en las siguientes líneas.
De DDR a DDR5: diferencias
La memoria RAM o memoria del sistema es imprescindible por ser donde
el procesador almacena información que necesitará en un futuro. DDR
(Double Data Rate) significa que puede realizar dos tareas de escritura
y dos tareas de lectura por cada ciclo de reloj de su controlador, lo que
es una ventaja evidente sobre los modelos que se usaron hace ya
muchos años que no permitían este doble canal de comunicación.
Es por ello que si hablamos de por ejemplo memora DDR-4000 estamos
hablando de una memoria que puede transmitir 4.000 Megabits por pin
de datos. En la actualidad todos los DIMM de memoria DDR son de 64
bits, por lo que su ancho de banda se obtiene de multiplicar la velocidad
de transferencia por 64, dividirlo por 8 y multiplicarlo de nuevo por el
número de canales que soporte nuestra placa base.
Memoria RAM DDR: lanzada en el año 2000, no empezó a usarse
hasta casi 2002. Operaba a 2.5 V y 2.6 V y su densidad máxima
era de 128 MB (por lo que no había módulos con más de 1 GB) con
una velocidad de 266 MT/s (100-200 MHz).
Memoria RAM DDR2: lanzada hacia 2004, funcionaba a un
voltaje de 1.8 voltios, un 28% menos que DDR. Se dobló su
densidad máxima hasta los 256 MB (2 GB por módulo).
Lógicamente, la velocidad máxima también se multiplicó, llegando
a 533 MHz.
Memoria RAM DDR3: este lanzamiento se produjo en 2007, y
supuso toda una revolución porque aquí se implementaron los
perfiles XMP. Para empezar, los módulos de memoria operaban a
1.5 V y 1.65 V, con velocidades base de 1.066 MHz, pero que
llegaron mucho más allá, y la densidad llegó hasta a 8 GB por
módulo.
Memoria RAM DDR4: este lanzamiento se hizo de rogar y no
llegó hasta 2014, pero a día de hoy es ya el más extendido. Se
reduce el voltaje hasta 1.05 y 1.2 V, aunque muchos módulos
operan a 1.35 V. La velocidad se ha visto notablemente
incrementada y cada vez lanzan memorias más rápidas de fábrica,
pero su base comenzó en los 2133 MHz. Actualmente, ya hay
módulos de 32 GB, pero esto también se va ampliando poco a
poco.
Memoria RAM DDR5: su lanzamiento comercial se produjo a
finales en el 2021, llegará a anchos de banda de hasta 6.4 Gbps
en sus modelos iniciales y va a ser la primera memoria DDR de
doble canal en un solo chip. Además, su consumo bajará por la
clásica reducción de voltaje, esta vez a 1.2 V y posteriormente se
conseguirán velocidades más elevadas de hasta 10 o 12 Gbps con
solo 1,1V. Su capacidad de almacenamiento máximo en un módulo
de memoria es de 128 GB y tiene la particularidad de traer por
primera vez la capacidad de variar el voltaje y con ello la velocidad
de reloj dentro de la propia unidad DIMM. Este controlador se
denomina PMIC y representa el mayor salto evolutivo en la
memoria RAM de la historia por las capacidades que posee.
Diferencias físicas
Aunque estos cuatro tipos de memoria tienen formato DIMM y, en
apariencia, pueden ser muy parecidos, en realidad existen diferencias
físicas fundamentales que impiden que te puedas equivocar y, por
ejemplo, intentar instalar un módulo de memoria RAM DDR4 en una
placa base que solo soporta memoria DDR5. Los diferentes estándares
(como pueden ser DDR3, DDR4 0 DDR5) tienen una pequeña diferencia
física. Esta diferencia, que es una pequeña hendidura en la zona de
conexión del módulo de memoria, está pensada para evitar dos
escenarios concretos:
Evitar instalar un módulo de RAM en un zócalo no compatible.
Instalar el módulo de memoria en la posición correcta.
Los módulos de memoria RAM DDR4 tienen la zona de contactos con una
cresta en la zona central, no es completamente plana, aunque es algo
innecesario porque la incisión tampoco nos dejaría conectar un módulo
DDR4 en un zócalo de otra generación. Aquí podéis verlo con módulos
físicos y cómo es imposible que en una placa no compatible acabemos
pinchando un módulo distinto.
También debemos distinguir entre los formatos para ordenadores de
sobremesa y para ordenadores portátiles. La diferencia entre ambos
formatos está en el tamaño del módulo (longitud) y en la cantidad de
pines de conexión por lo que, del mismo modo, no es posible que nos
confundamos salvo que sea la primera vez que estamos en contacto con
una pastilla de memoria RAM y no hayamos visto una antes en nuestra
vida. Aun así, los ordenadores están protegidos ante nuestra ignorancia
y temeridad.
Formato DIMM
El formato Dual In-Line Memory Module o DIMM, hace referencia a
que los contactos están en las dos caras del módulo. Indicar que este
formato está pensado principalmente para PC de sobremesa y
servidores. Dicho formato reemplaza al estándar SIMM, cuyo aspecto era
bastante similar, pero, los contactos estaban únicamente en una de las
caras.
Los módulos DIMM tienen unas dimensiones estandarizadas de 130 mm
de largo, 25 mm de alto y entre 3-8 mm de grosor, dependiendo de si
hay chips de memoria en ambos lados y del tamaño de los mismos.
También están estandarizados los agujeros de anclaje laterales.
Solamente, entre generaciones DIMM, varía el número de pines y la
hendidura de instalación. Dicha hendidura está pensada para evitar
instalar la memoria RAM en zócalos de generaciones anteriores.
Formato SO-DIMM
Para equipos portátiles tenemos el diseño Small Outline DIMM o SO-
DIMM. Este es un formato más compacto, aproximadamente de la mitad
de tamaño que un módulo DIMM. Concretamente, estos módulos miden
69.6 mm de largo, 30 mm de alto y el grosor es de 3-8 mm.
Dicho formato está especialmente desarrollado para ordenadores
portátiles, aunque se utiliza en más ámbitos. Los sistemas de
almacenamiento en red o NAS y los Mini PC, también pueden usar este
tipo de memorias.
LPCAMM2
Este es un nuevo formato de memoria RAM que está surgiendo para
reemplazar al formato SO-DIMM. Debes saber que SO-DIMM lleva como
30 años en el mercado y necesita una actualización para adaptarse a las
demandas de los ordenadores portátiles modernos.
Hasta la fecha los fabricantes, para ahorrar espacio, optaban por soldar
la RAM directamente en la placa base en los portátiles. Les permitía
ahorrar mucho espacio, además de mejorar la eficiencia y reducir costes.
Pero, el problema de esto es que no permite la aplicación de la
capacidad y dificulta mucho la ampliación.
Samsung empezó el desarrollo del formato CAMM, un nuevo formato de
memoria RAM para ordenadores portátiles. Junto a JEDEC (regulador y
estandarizador de los formatos de la RAM) y otros fabricantes han
mejorado el diseño. Así nace LPCAMM2, un nuevo formato más compacto
y eficiente que el SO-DIMM.
La principal característica de LPCAMM2 es que se termina con el socket
tradicional y se cambia a un nuevo tipo de socket mucho más compacto.
Se modifica también el diseño, generando así un ahorro de espacio de
hasta un 64% con respecto a los módulos SO-DIMM. Adicionalmente,
estos nuevos módulos permiten reducir el consumo en carga en hasta
un 58%.
Otra característica muy interesante de LPCAMM2 es que permite
configuración Dual Channel en un único módulo. Esto es posible gracias
a que esta tecnología se ha integrado en el nuevo estándar DDR5, sobre
el que se empiezan a comercializar los primeros módulos de este tipo.
Número de pines
Finalmente, vamos a especificar el número de pines de los módulos
según el formato y versión. Son los siguientes:
DDR: 184 pines (DIMM), 200 pines (SO-DIMM) y 172 pines (micro
DIMM)
DDR2: 240 pines (DIMM), 200 pines (SO-DIMM) y 214 pines (micro
DIMM)
DDR3: 240 pines (DIMM), 204 pines (SO-DIMM) y 214 pines (micro
DIMM)
DDR4: 288 pines (DIMM) y 256 pines (SO-DIMM). El formato micro
DIMM ya no existe
DDR5: 288 pines (DIMM) y 262 pines (SO-DIMM). El formato micro
DIMM ya no existe
Diferencias de rendimiento
Las diferencias más obvias entre las diferentes generaciones de
memoria RAM se encuentran en el rendimiento, ya que según ha ido
avanzando la tecnología se ha ido mejorando paulatinamente, y este
generalmente se ha ido doblando generación tras generación.
Así pues, hay una diferencia evidente entre la memoria RAM DDR3 y la
DDR4, por ejemplo, y ya no solo en términos empíricos sino también en
cuanto a las sensaciones que apreciamos los usuarios al utilizar un PC
con una memoria u otra, si bien es cierto que también tiene que ver
la mejora de rendimiento del resto de componentes, ya que el cambio
de una generación a otra de RAM suele ir ligado a un cambio de
plataforma completo.
No obstante, existen casos como los Ryzen de AMD donde la capacidad
de proceso depende de manera directa de la velocidad de la memoria
RAM e Intel ha adoptado recientemente la misma filosofía. Por lo que la
velocidad o ancho de banda pasa a ser un punto crucial a la hora de
montar un sistema. Esto en combinación con la elección de una buena
placa base que no soporte solamente un canal de memoria, ya que si es
así vais a ver como el ancho de banda de la misma se ve reducido
literalmente a la mitad.
Bien es cierto que hay que mencionar al IMC en este proceso, ya que
por mucha velocidad que consigamos, si no nos apoya esta parte de la
CPU de poco nos va a servir. Además, el rendimiento no va simplemente
ligado con la frecuencia sino con la latencia. Bien es cierto que el
primero siempre va a primar sobre el segundo, pero no es menos cierto
que el segundo si eleva mucho su valor y sobre todo
aquellos settings terciarios entonces el rendimiento queda muy
mermado dejando la mejora en agua de borrajas.
Por lo tanto, aunque se ha duplicado el ancho de banda, se ha
aumentado sobremanera la frecuencia efectiva y más lo hará en el
futuro realmente el cuello de botella sigue siendo el tiempo de
acceso general y la propia latencia de la memoria RAM. En este
aspecto vamos incrementándola como era de esperar y nada hace
pensar que cambiará, pero el estatus quo se mantendrá a favor siempre
que compense subir frecuencia frente a subir latencia.
El futuro es DDR6 y esta está actualmente en desarrollo, pero se esperan
realmente pocas mejoras porque estamos inmersos en una carrera por el
rendimiento puro y cuando DDR5 llegue a su máximo en apenas dos
años este nuevo tipo de memoria debe estar lista para tomar el relevo,
puesto que llevamos más de una década arrastrando a la memoria RAM
como el eslabón más débil de la cadena y eso va a cambiar.
Ahora, gracias a nuestro artículo, seguro que ya sabes diferenciar
unas memorias de otras e identificarlas prácticamente de un
vistazo, lo que te facilitará cualquier proceso de ampliación que lleves a
cabo mirando las pastillas que tienes pinchadas en tu ordenador. Algo de
lo que no pueden presumir todos los usuarios que siempre acaban
perdiéndose entre manuales, PDF y documentación perdida en algún
cajón de la casa, de cuando compraron su PC en la tienda de
informática. ¿No?
Memoria DDR6
Más arriba hemos hablado de todos los tipos de memoria que se han
lanzado al mercado. Las más moderna y capaz que podemos encontrar
hoy en día es la DDR5, una memoria que será sustituida por DDR6, el
próximo estándar que, al igual que los anteriores, supondrá un
importante salto tanto en velocidad como en prestaciones.
Si hablamos de la memoria DDR6, no confundir con la
memoria GDDR6 que se encuentran en las tarjetas gráficas, hablamos
de la memoria RAM que llegará al mercado para sustituir la actual
DDR5. En ese momento, la memoria DDR4 comenzará a dar sus
últimos coletazos, una memoria que hoy en día convive con DDR5.
Según Jedec, la memoria DDR6 tendrá una velocidad de transferencia de
datos de hasta 12.8 GB/s, lo que supone el doble de la actual DDR5 y 4
veces más que DDR4. A través de overclock, la memoria DDR6 será
capaz de alcanzar los 16,8 GB/s, velocidad que también supone el doble
que DDR5.
Pero, no las ventajas de la memoria RAM DDR6 no solo la vamos a
encontrar en la mejora de velocidad, sino que, además, también incluirá
mejoras en la eficiencia energética. Esta memoria incluirá un sistema
de administración de energía que se encargará de optimizar el consumo
con un voltaje inferior al actual.
En cuanto a la disponibilidad en el mercado, si tenemos en cuenta en
ciclo de vida de las versiones anteriores, todo apunta a que, en 2026,
como muy pronto, llegarán los primeros módulos DDR6 al mercado.
Pero, lo más probable es que no sea hasta 2027 cuando los primeros
módulos lleguen al mercado doméstico y, como suele ser habitual,
tendremos que esperar un poco más para que estos bajen de precio y
tengan un precio similar al que podemos encontrar actualmente las
memorias DDR5.