ANTECEDENTES
La práctica de la virtualización comenzó en la década de 1960. cuando IBM
intentó mejorar la segmentación de los computadores centrales o
mainframes en un esfuerzo por mejorar la utilización del CPU.
El Proyecto Atlas, desarrollado en los años 60, fue un avance crucial en la
historia de la virtualización.
El Proyecto Atlas de la década de 1960 fue un esfuerzo conjunto entre la
Universidad de Mánchester y la empresa británica Ferranti, destinado a
desarrollar la primera supercomputadora del mundo, conocida como
computadora Atlas. Este proyecto es fundamental en la historia de la
informática debido a sus innovaciones tecnológicas y su impacto en el
desarrollo de sistemas de computación.
En esa época, los mainframes (computadores centrales) eran compartidos
por muchos trabajadores que se conectaban a ellos a través de terminales.
Sin embargo, este uso compartido generaba problemas de eficiencia y de
interferencia entre tareas, ya que cada usuario necesitaba acceso a los
mismos recursos del sistema (procesador, disco y memoria), lo que podía
hacer que una tarea interfiriera con otra. Esto requería un sistema que
permitiera dividir o "particionar" el mainframe para que varios usuarios
pudieran trabajar de forma simultánea, sin perjudicarse entre sí.
Innovaciones del Proyecto Atlas
Christopher Strachey fue un pionero de la informática británica, incluyó en el
Proyecto Atlas algunas características innovadoras para esa época:
1. Reparto de Recursos en Paralelo: El sistema asignaba los recursos
(procesador, memoria y disco) de forma que múltiples usuarios
pudieran utilizarlos a la vez, sin interrupciones ni interferencias entre
las tareas. Esto optimizaba el uso del mainframe.
2. Aislamiento entre Tareas: Cada usuario tenía una "sección" del
mainframe (una partición o máquina virtual) donde podía trabajar sin
que el trabajo de otros usuarios afectara el suyo. Este aislamiento de
tareas mejoraba la seguridad y la confiabilidad del sistema.
3. Nacimiento de la Virtualización: Para resolver los problemas
mencionados, se crearon "particiones" en el mainframe que actuaban
como pequeñas máquinas independientes (máquinas virtuales). Cada
una de estas particiones podía ejecutar su propia instancia de un
sistema operativo, trabajar de forma autónoma, y hasta comunicarse a
través de una red simulada.
VMWare se considera pionera en la virtualización moderna, y su tecnología
es ampliamente utilizada en empresas de todo el mundo para reducir costos,
mejorar la gestión de TI y facilitar la escalabilidad de las infraestructuras.
VMWare es una empresa de software especializada en virtualización y
soluciones de computación en la nube. Fue fundada en 1998 y es conocida
por sus productos que permiten ejecutar múltiples sistemas operativos y
aplicaciones en un mismo hardware, optimizando el uso de los recursos
físicos y mejorando la eficiencia de los centros de datos.
2. CONCEPTOS. ANFITRIÓN Y HUÉSPED
Los dos conceptos más importantes para entender qué es la virtualización son los de anfitrión
e invitado. Ambos conceptos se refieren a nuestros sistemas operativos
El anfitrión es el sistema operativo del ordenador en el cual instalamos nuestro programa de
virtualización y que asignará o prestará determinados recursos de hardware a la máquina
virtual que creemos.
El invitado es el sistema operativo que instalamos en el ordenador virtual que hemos creado,
mediante nuestro programa de virtualización y al cual hemos asignado determinados recursos
para
funcionar.
Colocar foto
En el ejemplo de aquí abajo, podemos ver como sobre un Windows (SO anfitrión) se ha instalado
una máquina virtual sobre la que está corriendo un Linux Ubuntu (SO invitado). Es decir, el
anfitrión (también conocido como host) es que alberga al invitado (también conocido como guest).
Un anfitrión puede tener varios invitados, no está limitado solo a uno.
La elección de implementar virtualización debe basarse en un análisis cuidadoso de las
necesidades específicas de la organización, su capacidad técnica y su infraestructura existente.
Tecnologías de Virtualización
1. VMware
Ampliamente utilizado en empresas grandes para virtualización de servidores, gestión de redes
(NSX) y almacenamiento (vSAN). Ideal para entornos de producción críticos.
2. Microsoft Hyper-V
Integrado en Windows Server, se usa principalmente en entornos empresariales que
utilizan productos de Microsoft. Ideal para ejecutar aplicaciones de Windows
3. KVM (Kernel-based Virtual Machine)
Comúnmente utilizado en entornos de nube pública y privada, especialmente en
distribuciones de Linux. Ideal para empresas que buscan soluciones de código abierto y
alta eficiencia.
4. Xen Project
Uso: Utilizado en servidores y plataformas de nube que requieren alta seguridad y
rendimiento. Ideal para entornos donde la seguridad y el aislamiento son primordiales.
5. Oracle VM
Uso: Ideal para empresas que utilizan software de Oracle. Se usa para crear y gestionar
entornos virtuales que ejecutan aplicaciones y bases de datos.
JEMPLOS
5. Oracle VM
Ejemplo: Walmart
Uso: Walmart utiliza Oracle VM para gestionar sus entornos virtuales que ejecutan
aplicaciones críticas de Oracle y bases de datos. Esto les permite optimizar el
rendimiento de sus sistemas de gestión de inventario y puntos de venta, garantizando
una operación eficiente y rápida.
Ejemplo: Google
Uso: Google utiliza KVM como parte de su infraestructura en la nube. KVM
permite a Google ofrecer servicios de computación en la nube a través de Google
Cloud Platform (GCP), aprovechando su naturaleza de código abierto y su alta
eficiencia para escalar sus servicios de forma efectiva.
VENTAJAS
La virtualización en un centro de datos ofrece una variedad de ventajas significativas, como la
consolidación de recursos, ahorro de costos, escalabilidad, alta disponibilidad y la capacidad de
recuperación ante desastres. Sin embargo, también presenta desafíos, como la posible sobrecarga
de rendimiento, la complejidad en la gestión y las vulnerabilidades de seguridad.
Pasos para la Implementación de Virtualización en el Centro de Datos
1. Evaluación de Requerimientos
o Objetivo: Definir las necesidades del negocio y determinar los objetivos de la
virtualización (reducción de costos, mejora en la eficiencia, etc.).
o Acción: Analizar la carga de trabajo existente y las aplicaciones que se
virtualizarán.
2. Selección de la Plataforma de Virtualización
o Objetivo: Elegir la tecnología de virtualización adecuada (por ejemplo, VMware,
Hyper-V, KVM).
o Acción: Comparar las características, costos y compatibilidad con la
infraestructura existente.
3. Planificación de la Infraestructura
o Objetivo: Diseñar la arquitectura del centro de datos virtualizado.
o Acción: Determinar la cantidad de servidores físicos, almacenamiento y recursos
de red necesarios.
4. Adquisición de Hardware y Software
o Objetivo: Obtener los recursos físicos y las licencias necesarias.
o Acción: Comprar servidores, almacenamiento y software de virtualización.
5. Configuración del Hardware
o Objetivo: Preparar los servidores físicos para la virtualización.
o Acción: Instalar y configurar el BIOS/UEFI, habilitar la virtualización (VT-x/AMD-V)
y preparar el almacenamiento.
6. Instalación del Hipervisor
o Objetivo: Instalar la plataforma de virtualización seleccionada.
o Acción: Instalar el hipervisor en los servidores físicos y configurar las redes
virtuales.
7. Creación y Configuración de Máquinas Virtuales (VMs)
o Objetivo: Crear las VMs necesarias para las aplicaciones y servicios.
o Acción: Asignar recursos de CPU, memoria y almacenamiento a cada VM según los
requisitos de carga de trabajo.
8. Implementación de Soluciones de Almacenamiento y Redes
o Objetivo: Configurar el almacenamiento y las redes virtuales.
o Acción: Implementar tecnologías de almacenamiento definido por software (como
vSAN) y configurar redes virtuales (como NSX).
9. Pruebas y Validación
o Objetivo: Asegurar que la virtualización funcione correctamente.
o Acción: Realizar pruebas de rendimiento, funcionalidad y recuperación ante
desastres.
10. Capacitación del Personal
o Objetivo: Asegurar que el personal esté capacitado para gestionar el entorno
virtualizado.
o Acción: Proporcionar formación sobre la administración de la virtualización y las
herramientas asociadas.
11. Monitoreo y Mantenimiento Continuo
o Objetivo: Mantener el rendimiento y la disponibilidad del entorno virtualizado.
o Acción: Implementar herramientas de monitoreo y realizar mantenimiento regular
para asegurar la salud del sistema.
1. Nube Híbrida y Multinube
Definición: La nube híbrida combina nubes públicas y privadas, permitiendo a las organizaciones
gestionar datos y aplicaciones en ambos entornos. La multinube implica utilizar múltiples
proveedores de nube para maximizar beneficios y reducir riesgos.
2. Contenedores y Microservicios
Definición: La virtualización de contenedores empaqueta aplicaciones y sus dependencias en
contenedores ligeros y portables. Los microservicios dividen aplicaciones en servicios
independientes, lo que permite un desarrollo y despliegue más ágil.
3. Computación en el Borde
Definición: La computación en el borde procesa datos cerca de su origen (como dispositivos IoT),
en lugar de enviarlos a un centro de datos, mejorando la latencia y la eficiencia del ancho de
banda.
Conclusión
Las tendencias emergentes en virtualización, como la nube híbrida y multinube, contenedores y
microservicios, y computación en el borde, están redefiniendo la infraestructura de TI. Estas
tendencias ofrecen flexibilidad, agilidad y eficiencia, pero también presentan desafíos en gestión y
seguridad. Adaptarse a estas tendencias será clave para que las organizaciones se mantengan
competitivas en un entorno tecnológico en constante evolución.
Aquí tienes ejemplos de la vida real para cada una de las tendencias emergentes en virtualización:
1. Nube Híbrida y Multinube
Ejemplo: Netflix
Descripción: Netflix utiliza una arquitectura de nube híbrida para administrar su
infraestructura. Almacena datos en su propia nube privada y utiliza proveedores de nube
pública, como Amazon Web Services (AWS), para escalar y manejar picos de demanda,
especialmente durante el lanzamiento de nuevos contenidos. Esto les permite ofrecer un
servicio fluido a millones de usuarios en todo el mundo.
2. Contenedores y Microservicios
Ejemplo: Spotify
Descripción: Spotify ha adoptado la arquitectura de microservicios y utiliza contenedores
para desplegar sus aplicaciones. Esto les permite desarrollar y escalar diferentes partes de
su plataforma de música de manera independiente, mejorando la eficiencia y la velocidad
de implementación de nuevas funciones, como recomendaciones personalizadas y listas
de reproducción dinámicas.
3. Computación en el Borde
Ejemplo: Coches Autónomos
Descripción: Los vehículos autónomos, como los de Tesla, utilizan computación en el
borde para procesar datos en tiempo real desde sensores y cámaras. Esto les permite
tomar decisiones instantáneas, como frenar o cambiar de dirección, sin necesidad de
depender de una conexión constante a un centro de datos remoto. Esta capacidad de
procesamiento local es crucial para la seguridad y la eficacia en la conducción autónoma.
Conclusión
Estos ejemplos ilustran cómo las organizaciones están implementando tendencias emergentes en
virtualización para mejorar su eficiencia, agilidad y capacidad de respuesta. Al adoptar la nube
híbrida, contenedores y computación en el borde, empresas como Netflix, Spotify y
desarrolladores de tecnología de vehículos autónomos están estableciendo nuevas normas en sus
respectivas industrias.