SERVER LINUX
¿Qué es Linux?
Linux como Núcleo (Kernel)
El núcleo de Linux es el componente central del sistema operativo. Es
responsable de manejar las operaciones básicas del sistema, como la gestión de
la memoria, los procesos, los dispositivos de hardware, y la seguridad. El núcleo
actúa como un intermediario entre el hardware y el software, facilitando la
comunicación y el funcionamiento eficiente del sistema. Según la documentación
del kernel de Linux:
"The Linux kernel is the core of the operating system and
provides basic services for all other parts of the OS"
([Link]). [Link]
Linux como Sistema Operativo
SERVER LINUX 1
Linux es un sistema operativo de código abierto basado en Unix que se utiliza
principalmente en servidores y sistemas embebidos. Desarrollado por primera vez
por Linus Torvalds en 1991, Linux ha crecido para ser apreciado por su
estabilidad, seguridad y flexibilidad. A diferencia de otros sistemas operativos
comerciales, Linux es gratuito y su código fuente es accesible para cualquier
persona, lo que permite a los usuarios modificarlo según sus necesidades
específicas.
En un entorno de servidor, Linux es especialmente valorado por su capacidad
para manejar múltiples usuarios simultáneamente, gestionar eficientemente los
recursos del sistema y ofrecer una excelente seguridad. Es compatible con una
amplia variedad de arquitecturas de hardware y se utiliza en servidores web,
servidores de bases de datos, y como plataforma para hosting de aplicaciones y
servicios. Además, su naturaleza de código abierto ha fomentado una vasta
comunidad de desarrolladores y usuarios que contribuyen constantemente con
actualizaciones y soporte, haciéndolo una opción robusta para entornos
empresariales y de infraestructura crítica.
¿Qué es un Servidor?
Un servidor es un sistema de computación diseñado para gestionar, almacenar,
enviar y procesar datos 24/7 a otros ordenadores en una red. A diferencia de un
PC de uso personal, un servidor está configurado para manejar múltiples usuarios
y se especializa en tareas específicas que requieren potencia de procesamiento,
como hospedar sitios web, gestionar bases de datos, ejecutar aplicaciones
empresariales o almacenar grandes cantidades de información. Los servidores
son fundamentales en la infraestructura de TI de cualquier organización,
proporcionando los recursos necesarios para que las redes funcionen de manera
eficiente y segura. Además, pueden existir en forma física (hardware dedicado en
un centro de datos) o virtualizada como parte de un entorno en la nube.
¿Qué es la virtualización?
SERVER LINUX 2
La virtualización se refiere al proceso de crear una versión virtual de algo, como
un servidor, un dispositivo de almacenamiento, una red o incluso un sistema
operativo. Esta tecnología permite que múltiples sistemas operativos y
aplicaciones se ejecuten en un solo servidor físico como si estuvieran operando
en máquinas separadas.
Beneficios de la Virtualización
1. Eficiencia en el uso de recursos: Permite maximizar el uso de recursos
físicos. Al virtualizar servidores y otros recursos, puedes ejecutar múltiples
máquinas virtuales en una sola pieza de hardware, reduciendo la necesidad
de hardware físico y aumentando la eficiencia energética.
2. Reducir costos: Menos hardware significa menos costos de adquisición y
mantenimiento, además de ahorros en consumo energético y espacio físico.
3. Flexibilidad y escalabilidad: Puedes crear, eliminar, redimensionar y migrar
máquinas virtuales en minutos, lo que permite una escalabilidad y flexibilidad
que no es posible con sistemas físicos. Esto es ideal para adaptarse
rápidamente a cambios en la demanda de recursos.
4. Aislamiento y seguridad: Cada máquina virtual está aislada de las demás, lo
que significa que si una aplicación falla o es comprometida, los problemas no
se propagan a otras máquinas virtuales. Esto mejora la seguridad general del
sistema.
5. Simplicidad en la gestión: La gestión de múltiples máquinas virtuales es a
menudo más sencilla que gestionar múltiples máquinas físicas, especialmente
con el uso de herramientas de gestión de virtualización que proporcionan
interfaces centralizadas para el control de todos los recursos virtualizados.
6. Pruebas y desarrollo: La virtualización ofrece un entorno ideal para pruebas y
desarrollo, permitiendo a los desarrolladores y probadores crear y destruir
rápidamente entornos aislados sin riesgo para los entornos de producción.
7. Continuidad del negocio y recuperación ante desastres: La capacidad de
replicar rápidamente máquinas virtuales y migrarlas entre distintos servidores
físicos facilita la implementación de soluciones de alta disponibilidad y
recuperación ante desastres.
SERVER LINUX 3
8. Legacy systems: Permite la continuidad de sistemas operativos y
aplicaciones antiguas en hardware moderno sin necesidad de mantener
hardware obsoleto.
Aplicaciones de la Virtualización
Centros de datos y hospedaje: Muchos proveedores de servicios de Internet
y centros de datos utilizan la virtualización para ofrecer servicios como el
hospedaje compartido, servidores privados virtuales (VPS) y plataformas
como servicio (PaaS).
Desarrollo de software y testing: Proporciona entornos replicables y
controlados que son ideales para el desarrollo y pruebas de software.
Educación: Facilita la enseñanza de tecnologías de información, permitiendo a
los estudiantes trabajar en sus propios entornos virtuales aislados.
Simulaciones: Utilizada en simulaciones complejas donde múltiples sistemas
independientes deben interactuar en un entorno controlado sin el coste de
múltiples máquinas físicas.
En conclusión, la virtualización es una tecnología poderosa y versátil que
transforma la manera en que las organizaciones gestionan sus recursos
informáticos, mejorando la eficiencia, la escalabilidad, la seguridad y reduciendo
los costos operativos.
¿Qué son los Hipervisores?
Los hipervisores, también conocidos como monitores de máquina virtual (VMM),
son software que permiten la virtualización de hardware para ejecutar múltiples
sistemas operativos simultáneamente en un solo host físico. Cada sistema
operativo se ejecuta en su propia máquina virtual aislada, con acceso controlado
a los recursos del hardware. Hay dos tipos principales de hipervisores:
Tipos de Virtualizadores
Virtualizadores de Tipo 1 (Bare Metal)
Estos virtualizadores se ejecutan directamente sobre el hardware físico del
SERVER LINUX 4
servidor, sin necesidad de un sistema operativo host. Proveen un alto rendimiento
y eficiencia ya que interactúan directamente con los recursos del hardware.
1. Hyper-V: Desarrollado por Microsoft, proporciona una plataforma de
virtualización robusta y está integrada en Windows Server.
2. VMware ESXi: Un hypervisor líder en la industria, conocido por su alta
eficiencia y numerosas funcionalidades avanzadas.
3. Xen: Utilizado por muchas soluciones de virtualización y cloud computing,
incluido Amazon Web Services (AWS).
4. KVM (Kernel-based Virtual Machine): Es un hipervisor de tipo 1 que se
integra directamente en el kernel de Linux, permitiendo que el kernel funcione
como un hipervisor. Ofrece capacidades de virtualización robustas y
eficientes. Al estar integrado en el kernel, proporciona un alto rendimiento y
bajo overhead, y soporta una amplia gama de sistemas operativos huéspedes.
Virtualizadores de Tipo 2 (Hosted)
Estos virtualizadores se ejecutan sobre un sistema operativo host y dependen de
este para acceder a los recursos del hardware. Aunque suelen ser más fáciles de
configurar y usar, pueden tener un rendimiento ligeramente inferior comparado
con los de Tipo 1 debido a la capa adicional del sistema operativo.
1. VMware Workstation: Ideal para desarrolladores y testers, se ejecuta sobre
sistemas operativos Windows y Linux.
2. Oracle VM VirtualBox: Una solución gratuita y de código abierto que soporta
una amplia gama de sistemas operativos huésped.
3. Parallels Desktop: Popular en entornos Mac, permite ejecutar sistemas
operativos adicionales en computadoras Apple.
4. QEMU (Quick Emulator): QEMU es un emulador y virtualizador que puede
funcionar de manera independiente o junto con KVM para mejorar el
rendimiento. Puede emular una arquitectura de hardware completamente
diferente, permitiendo ejecutar software de una plataforma en otra. Cuando se
usa junto con KVM, QEMU actúa como un frontend, proporcionando
virtualización acelerada por hardware. Es muy versátil y puede usarse para
diversas tareas de emulación y virtualización, desde desarrollo hasta pruebas
de sistemas operativos.
SERVER LINUX 5
Combinación de KVM y QEMU
Alto Rendimiento: Usar KVM junto con QEMU permite aprovechar la
aceleración por hardware de KVM, proporcionando un rendimiento cercano al
nativo.
Flexibilidad: QEMU puede gestionar muchos aspectos de la virtualización,
como dispositivos y almacenamiento, mientras KVM maneja la ejecución del
código huésped.
Usabilidad: Esta combinación es muy popular en entornos de producción y
desarrollo, especialmente en la comunidad de código abierto.
Comparación Rápida
Tipo 1 ( Kvm): Mejor rendimiento, mayor control del hardware, usado en
entornos de producción.
Tipo 2 (Hosted): Más sencillo de configurar, ideal para desarrollo y pruebas,
depende del sistema operativo host.
Estos son los tipos de virtualizadores que existen y su uso depende de las
necesidades específicas de rendimiento, control y facilidad de uso en cada caso.
¿Qué es KVM?
KVM, significa Kernel-based Virtual Machine, es un hipervisor integrado en el
kernel de Linux que convierte a Linux en un sistema operativo tipo hypervisor. Al
ser parte del kernel de Linux, KVM permite a los usuarios ejecutar múltiples
máquinas virtuales (VM) con sistemas operativos Linux o Windows en hardware
x86 que soporta virtualización. Cada VM tiene su propio entorno privado,
incluyendo procesador virtualizado, memoria, discos, red y otros dispositivos de
hardware.
Características Clave de KVM
1. Integración con Linux: Dado que es parte del kernel de Linux, KVM se
beneficia de todas las actualizaciones y características del kernel, como la
planificación de procesos y la gestión de la red.
SERVER LINUX 6
2. Hardware de Virtualización: Utiliza extensiones de hardware para la
virtualización como Intel VT o AMD-V, lo que mejora el rendimiento de las VM
al permitir que el hardware del host ejecute instrucciones directamente.
3. Alto rendimiento y escalabilidad: KVM es conocido por su alto rendimiento y
se puede escalar para manejar cargas de trabajo intensivas y un gran número
de VM simultáneamente.
4. Soporte para diversas invitados: KVM es capaz de ejecutar una variedad de
sistemas operativos como invitados, incluyendo variantes de Linux, Windows,
Solaris, y más.
5. Gestión y herramientas de terceros: A pesar de su integración con el kernel,
la administración de KVM a menudo se realiza a través de herramientas de
terceros como libvirt (una biblioteca de virtualización que proporciona una API
común y herramientas de gestión), QEMU (para la emulación de hardware), y
interfaces gráficas como Virt-Manager.
Usos Comunes de KVM
KVM se utiliza ampliamente en la industria para la infraestructura de nube y
virtualización de servidores debido a su eficiencia y su capacidad para integrarse
con otras soluciones de software de código abierto. Es utilizado tanto en entornos
de pequeñas empresas como en grandes data centers, y es una parte central de
soluciones de nube populares como OpenStack.
KVM representa una solución robusta y eficiente para la virtualización,
aprovechando las capacidades del hardware moderno y la flexibilidad del
ecosistema Linux.
¿Qué es Qemu?
QEMU (Quick Emulator) es una herramienta de software libre y de código abierto
que actúa principalmente como un emulador de sistema y un virtualizador.
Cuando se utiliza como un emulador de sistema, QEMU puede ejecutar sistemas
operativos y aplicaciones hechas para una máquina (por ejemplo, un ARM board)
SERVER LINUX 7
en una máquina completamente diferente (por ejemplo, una PC x86). Como un
virtualizador, QEMU logra un rendimiento cercano al nativo ejecutando el código
de invitado directamente en el CPU host. Esto se hace a menudo a través de la
integración con KVM (Kernel-based Virtual Machine).
Funcionalidades principales de QEMU
1. Emulación de Hardware: QEMU es capaz de emular una amplia variedad de
componentes de hardware, incluyendo procesadores, tarjetas gráficas, discos
duros, dispositivos de red, y más. Esto permite a los desarrolladores probar
sus aplicaciones en múltiples configuraciones de hardware sin necesidad de
tener acceso físico a esos dispositivos.
2. Virtualización: Con el apoyo de KVM, QEMU puede ofrecer virtualización
completa, permitiendo ejecutar sistemas operativos con un rendimiento que
es casi idéntico al del hardware real. KVM habilita características como la
aceleración del procesador y características de seguridad que son críticas
para un rendimiento eficiente y seguro de las máquinas virtuales.
3. Soporte Multiplataforma: QEMU puede emular una gran cantidad de
arquitecturas de procesadores incluyendo x86, ARM, PowerPC, SPARC, MIPS,
y más. Esto lo hace extremadamente útil en entornos de desarrollo cruzado y
pruebas de aplicaciones en diferentes plataformas de hardware.
4. Snapshotting y Clonación: Permite guardar el estado de una máquina virtual
que puede ser restaurado posteriormente. Esto es útil para probar software en
diferentes estados o para volver a un estado conocido antes de realizar
operaciones críticas.
5. Integración y Flexibilidad: Puede ser usado de manera independiente con su
propia interfaz de usuario gráfica (GUI) para configurar y gestionar VM, o
puede ser gestionado por herramientas de terceros como libvirt, que
proporcionan APIs estandarizadas y herramientas de gestión para manejar
múltiples hipervisores.
Aplicaciones Comunes de QEMU
Desarrollo y Pruebas de Software: Los desarrolladores utilizan QEMU para
desarrollar y probar software en una variedad de plataformas de hardware sin
SERVER LINUX 8
necesidad de tener acceso físico a esas plataformas.
Simulación y Pruebas de Seguridad: La habilidad para emular hardware y
ejecutar sistemas operativos en un entorno controlado hace de QEMU una
herramienta valiosa para simulaciones y pruebas de seguridad.
Educación y Demostraciones: QEMU es usado en contextos educativos para
enseñar sobre sistemas operativos, arquitecturas de computadoras, y redes.
QEMU es una herramienta extremadamente versátil en el mundo de la emulación y
la virtualización, ofreciendo una gama de funcionalidades que son aprovechadas
en diversos campos técnicos y académicos.
¿Qué es Debian?
Debian 12, también conocido como "Bookworm", es una versión de la distribución
de sistema operativo Debian, conocida por su estabilidad y seguridad. Es la base
para muchas otras distribuciones de Linux, incluyendo Ubuntu. Debian se
caracteriza por su excelente gestión de paquetes y amplio repositorio de
software, y es usado en una gran variedad de hardware. Se adhiere estrictamente
a los principios del software libre, permitiendo a los usuarios acceder y modificar
el código fuente.
Paso 1: Instalar KVM y Herramientas Relacionadas como Qemu
Primero, asegúrate de que KVM (Kernel-based Virtual Machine) y las
herramientas relacionadas estén instaladas en tu sistema. Esto incluye qemu-kvm ,
libvirt , virt-install , y bridge-utils para la gestión de redes.
sudo apt update
sudo apt install qemu-kvm libvirt-daemon-system libvirt-clien
ts bridge-utils virtinst
que hacen estos comandos?
1. sudo apt update :
SERVER LINUX 9
: Ejecuta el comando que sigue como superusuario (root),
sudo
permitiendo realizar operaciones que requieren privilegios administrativos.
: Es el gestor de paquetes de Ubuntu y otras distribuciones basadas
apt
en Debian. Se utiliza para manejar paquetes y dependencias.
: Este subcomando actualiza la lista de paquetes y sus versiones
update
disponibles según los repositorios configurados en el sistema. Es
importante ejecutarlo antes de instalar o actualizar paquetes para
asegurarse de obtener las versiones más recientes.
2. sudo apt install qemu-kvm libvirt-daemon-system libvirt-clients bridge-utils virtinst :
install : Este subcomando de apt es utilizado para instalar paquetes y
todas sus dependencias necesarias.
qemu-kvm : Es un emulador y virtualizador de hardware. KVM (Kernel-based
Virtual Machine) es una solución de virtualización en Linux que permite
ejecutar múltiples sistemas operativos como máquinas virtuales.
: Proporciona el demonio libvirtd , que es el
libvirt-daemon-system
componente central para la gestión de plataformas de virtualización en
Linux. Permite gestionar y controlar máquinas virtuales y otros
componentes de virtualización a través de diferentes interfaces.
libvirt-clients : Incluye herramientas para interactuar con el sistema de
virtualización libvirt desde la línea de comandos, lo que permite
administrar máquinas virtuales y otros recursos de virtualización.
: Proporciona utilidades para la creación y administración de
bridge-utils
puentes de red en Linux. Los puentes de red permiten conectar múltiples
redes como si fueran una sola, lo cual es útil en contextos de
virtualización.
virtinst : Es un conjunto de herramientas que facilita la instalación de
máquinas virtuales utilizando libvirt . Incluye comandos como virt-install
para crear nuevas máquinas virtuales.
Paso 2: Verifica que el servicio libvirtd esté activo
SERVER LINUX 10
Verifica que KVM esté correctamente instalado y que tu sistema soporte
virtualización:
sudo systemctl enable libvirtd
sudo systemctl start libvirtd
Paso 3: Agrega tu usuario al grupo libvirt y kvm
sudo usermod -aG libvirt $(whoami)
sudo usermod -aG kvm $(whoami)
CREAR UN BRIDGE
En el contexto de virtualización, crear un "bridge" (puente de red) es una técnica
esencial para permitir que las máquinas virtuales (VM) se comuniquen con una
red física como si fueran parte de ella. Esto es particularmente útil en entornos
donde se desea que las VM operen como servidores independientes dentro de la
red o se integren de manera transparente con otros dispositivos de red. Aquí te
explico paso a paso por qué crear un puente y cómo configurarlo.
Paso 1: Entendiendo la Necesidad de un Puente de Red
¿Por qué crear un puente?
Conectividad Transparente: Un puente de red permite que las VMs se
comuniquen con dispositivos en la red física directamente, ofreciendo una
menor latencia y mayor rendimiento en comparación con otras formas de
conexión de red virtual como el modo NAT.
Administración de Red: Facilita la administración de la red, permitiendo
aplicar las mismas políticas de seguridad y herramientas de monitoreo tanto a
las VMs como a los dispositivos físicos.
SERVER LINUX 11
Escalabilidad y Flexibilidad: Proporciona una manera escalable y flexible de
expandir la infraestructura de red sin modificar la configuración de red
existente.
Paso 2: Preparación del Sistema Host
Antes de crear un puente, asegúrate de que tu sistema está listo:
Instalar Software Necesario: Asegúrate de que herramientas como bridge-
utils estén instaladas en sistemas Linux para gestionar puentes.
sudo apt-get install bridge-utils
Verificar Interfaces Disponibles: Utiliza ip link show o ifconfig para listar
todas las interfaces de red disponibles. Necesitas saber qué interfaces incluir
en el puente.
Paso 3: Configuración del Puente de Red
¿Dónde y qué configurar?
Pimeramente debemos conocer qur IP nos asigno nuestro ROUTER local con el
siguiente comando.
ip -c=auto a
# la salida seria algo semejante esto
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKN
link/loopback [Link] brd [Link]
inet [Link]/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host noprefixroute
valid_lft forever preferred_lft forever
2: enp5s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfif
link/ether [Link] brd [Link]
3: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue
SERVER LINUX 12
link/ether [Link] brd [Link]
inet [Link]/24 brd [Link] scope global nop
valid_lft forever preferred_lft forever
inet6 fe80::28f3:b2ff:fe29:593d/64 scope link
valid_lft forever preferred_lft forever
4: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc no
link/ether [Link] brd [Link]
inet [Link]/24 brd [Link] scope global virbr
valid_lft forever preferred_lft forever
5: vnet0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noque
link/ether [Link] brd [Link]
inet6 fe80::fc54:ff:feb2:e5eb/64 scope link
valid_lft forever preferred_lft forever
Asumiendo que estás utilizando una distribución Linux con un sistema tradicional
/etc/network/interfaces :
1. Editar el Archivo de Configuración de la Red:
Abre el archivo de configuración con un editor como nano:
sudo nano /etc/network/interfaces
2. Agregar la Configuración del Puente:
Aquí está un ejemplo de cómo configurar un puente llamado
br0 que incluye una interfaz física eth0 :
# Define el puente
auto br0
iface br0 inet static
address [Link]
netmask [Link]
gateway [Link]
SERVER LINUX 13
dns-nameservers [Link] [Link]
# Agrega las interfaces al puente
bridge_ports eth0
# Opcional: Habilitar STP
up /usr/sbin/brctl stp br0 on
Asegúrate de configurar la dirección IP, máscara de subred, puerta de enlace
y DNS según tu red.
Que hace este Script Bash
1. auto br0:
Indica que la interfaz de red br0 debe ser configurada
automáticamente al arrancar el sistema.
2. iface br0 inet static:
Define la configuración de la interfaz br0 utilizando una dirección IP
estática.
3. address [Link]:
Establece la dirección IP estática de la interfaz br0 .
4. netmask [Link]:
Define la máscara de subred para la interfaz br0 , que en este caso es
una subred de clase C.
5. gateway [Link]:
Especifica la puerta de enlace predeterminada para la interfaz br0 .
6. dns-nameservers [Link] [Link]:
Configura los servidores DNS para la resolución de nombres.
7. bridge_ports eth0:
Agrega la interfaz eth0 al puente br0 , lo que permite que br0 actúe
como un puente de red, combinando varias interfaces.
8. up /usr/sbin/brctl stp br0 on:
SERVER LINUX 14
Comando opcional que habilita el Protocolo de Árbol de Expansión
(STP) en el puente br0 usando brctl . STP ayuda a evitar bucles en la
red.
Paso 4: Activar y Probar la Configuración
Reiniciar el Servicio de Red:
sudo systemctl restart networking
Verificar la Configuración del Puente:
Usa
brctl show para verificar que el puente se ha configurado correctamente y que
las interfaces están correctamente asignadas:
sudo brctl show
Probar Conectividad:
Asegúrate de que el puente esté funcionando correctamente realizando
pruebas de ping a otras máquinas en la red o al gateway.
Crear un puente de red en un entorno de virtualización es una estrategia poderosa
para mejorar la integración, el rendimiento y la gestión de la infraestructura virtual.
Paso 4: Crear el Directorio y Configurar Permisos
Crea el directorio donde se almacenará el archivo de disco virtual y ajusta los
permisos adecuadamente, utilizando la variable de entorno para el usuario y
grupo.
Primero, asegúrate de que el usuario del sistema de virtualización ( libvirt-qemu )
tiene permisos adecuados para acceder a los directorios y archivos necesarios:
# carpeta para VHD
mkdir -p /home/$(whoami)/vhd/
# carpeta para ISOs
SERVER LINUX 15
mkdir -p /home/$(whoami)/iso/
sudo chown $(whoami):$(whoami) /home/$(whoami)/vhd/
chmod 750 /home/$(whoami)/vhd/
######################################################
Paso 5: Crear el Archivo de Imagen del Disco
Utiliza qemu-img para crear el archivo de imagen de disco QCOW2 en la carpeta del
usuario actual:
qemu-img create -f qcow2 /home/$(whoami)/vhd/deb12.qcow2 20G
Paso 6: Ajustar los Permisos del Archivo QCOW2
Asegúrate de que el archivo tiene los permisos correctos para ser utilizado por
virt-install .
chmod 660 /home/$(whoami)/vhd/deb12.qcow2
Paso 7: Preparar el Archivo ISO
Asegúrate de que el archivo ISO que quieres usar para la instalación esté
disponible en /home/$(whoami)/ISO/[Link] . Si no lo tienes, deberás descargarlo o
ubicarlo en este directorio.
Paso 8: Ejecutar virt-install para Iniciar la Instalación de la VM
Finalmente, utiliza virt-install para crear la máquina virtual utilizando la ruta del
usuario actual:
Estos ajustes garantizan que todos los comandos y rutas se adapten
dinámicamente al usuario actual, lo que es especialmente útil si diferentes
usuarios necesitan ejecutar estos comandos en el mismo sistema.
SERVER LINUX 16
Ejemplo de creacion de una VM por lina de comando
sudo virt-install \
--name deb12 \
--memory 2048 \
--vcpus 1 \
--disk path=/home/$(whoami)/vhd/deb12.qcow2,size=20,format=qc
ow2 \
--os-variant debian12 \
--network bridge=br0 \
--graphics none \
--console pty,target_type=serial \
--location /home/$(whoami)/ISO/[Link] \
--extra-args 'console=ttyS0,115200n8 serial'
Estos comandos deben ejecutarse en una terminal en Debian, adaptándolos
según sea necesario para acomodar cualquier especificidad de tu entorno o
preferencias personales. Este procedimiento proporciona una base sólida para
trabajar con máquinas virtuales en un entorno Linux usando KVM.
A continuación solo se mostrará screenshot de cómo crear una VM usando Virt-
Manager
SERVER LINUX 17
SERVER LINUX 18
1. Seleccionar VM "sherlock": Haz clic en la máquina virtual llamada "sherlock"
que está apagada.
2. Seleccionar VM "kaly": Haz clic en la máquina virtual llamada "kaly" que
también está apagada.
3. Abrir VM: Haz clic en el botón "Open" en el Administrador de Máquinas
Virtuales para iniciar la máquina seleccionada.
1. Conexión remota: Permite crear una máquina virtual en diferentes servidores
remotos. En la captura, solo se muestra una conexión remota.
2.
Método de instalación: Elige "Local install media (ISO image or CDROM)" para
instalar el sistema operativo desde una imagen ISO o CDROM.
SERVER LINUX 19
1. Directorio de ISOs: Selecciona el directorio donde se almacenan las imágenes
ISO disponibles en el sistema.
2.
Seleccionar ISO: Elige la imagen "[Link]" para instalar
Debian como sistema operativo en la nueva máquina virtual.
SERVER LINUX 20
1. Seleccionar ISO: Escoge la imagen ISO "[Link]"
como medio de instalación.
2. Sistema Operativo: Selecciona "Debian 12" como el sistema operativo a
instalar.
3. Avanzar: Haz clic en "Forward" para continuar con el siguiente paso del
asistente de creación de la máquina virtual.
SERVER LINUX 21
1. Configurar Memoria: Asigna 2048 MiB (2 GB) de memoria RAM a la máquina
virtual.
2.
Configurar CPUs: Asigna 2 CPUs a la máquina virtual para optimizar su
rendimiento.
SERVER LINUX 22
1. Configurar Almacenamiento: Selecciona o crea un almacenamiento
personalizado para la máquina virtual.
2. Avanzar: Haz clic en "Forward" para proceder al siguiente paso del asistente
de creación de la máquina virtual.
SERVER LINUX 23
1. Seleccionar VHDs: Elige el directorio de VHDs (Discos Duros Virtuales) para
almacenar la máquina virtual.
2. Añadir Volumen: Haz clic en el botón "+" para crear un nuevo volumen de
almacenamiento para la máquina virtual.
SERVER LINUX 24
1. Nombre del Volumen: Asigna el nombre "debian12" al nuevo volumen de
almacenamiento.
2. Formato del Volumen: Selecciona el formato "qcow2" para el volumen.
3. Capacidad del Volumen: Establece el tamaño del volumen en 20 GiB.
SERVER LINUX 25
1. Nombre de la VM: La máquina virtual se llamará "debian12".
2.
Personalizar Configuración: Marca la opción para personalizar la configuración
antes de la instalación.
3.
Seleccionar Red: Elige el dispositivo de red puente "br0" para la máquina virtual.
SERVER LINUX 26
1. Iniciar Instalación: Haz clic en "Begin Installation" para empezar la instalación
de la máquina virtual "debian12".
2. Visión General: Revisa y ajusta los detalles básicos y la configuración del
hipervisor antes de proceder.
A continuación solo se mostrarán capturas de la instalación de Debian 12
SERVER LINUX 27
SERVER LINUX 28
SERVER LINUX 29
SERVER LINUX 30
SERVER LINUX 31
SERVER LINUX 32
INTRODUCCIÓN A REDES INFORMÁTICAS
SERVER LINUX 33
Linux-Commando-Terminal
SERVER LINUX 34