Curso VM Ware
Curso VM Ware
es/curso-de-vmware-5-5/
El curso de VMware 5.5 que ofrezco en esta página es lo que dice ser, sin más. Un curso, que entra
en cierta profundidad en el manejo de VMware vSphere para que los que nunca han manejado una
plataforma virtualizada puedan sacar rendimiento a vSphere de forma guiada. Este curso está
realizado procurando tocar los objetivos del manual de certificación VCP de VMware, aunque
algunos objetivos que no se han incluido.
El curso de VMware 5.5 es 100% gratuito y procuro que sea lo más didáctico posible. En cualquier
caso, si encuentras cosas que no ves bien explicadas, que crees que podrían cambiarse, etc, soy
totalmente receptivo a sugerencias.
Este curso de VMware no sustituye de ningún modo a la formación oficial requerida para
presentarse a los examenes de certificación VCP, pero si puede ser un buen material de repaso para
aquellas personas que han terminado el curso oficial y desean montarse en su casa o trabajo un
laboratorio en el que realizar las prácticas.
A continuación, presento en orden los capítulos que se van haciendo públicos del curso de VMware
5.5
Host: Es el servidor físico donde vamos a instalar ESXi. El contenedor físico de las
máquinas virtuales.
Guest: Cada una de las máquinas virtuales que se ejecutan dentro de un host.
NIC: Tarjeta de red. Es acrónimo de Network Interface Card. vmnic es el nombre que se da
a las tarjetas de red de VMware.
LUN: Logical Unit Number, se trata de un contenedor de información en almacenamiento
compartido con tecnología SAN (Fiber Channel o iSCSI)
DHCP: Protocolo de asignación dinámica de direcciones IP
Al menos 1 CPU de 64 bit SOPORTADA.
Al menos 2 cores.
Al menos 4 GB de RAM.
Al menos 1 tarjeta de red Gigabit o 10Gbe SOPORTADA.
Al menos una controladora de disco soportada para el almacenamiento local
Un dispositivo de arranque con un tamaño mínimo de 1GB.
Soporte de las instrucciones LAHF y SAHF en la CPU (Load AH from Flags y Store AH
into Flags)
Soporte del bit NX/XD en la CPU. Que esta opción esté activada en la BIOS.
Soporte de instrucciones de virtualización en la CPU. En Intel, VT-x, en AMD RVI.
5.2GB de espacio en LUN si arrancamos desde almacenamiento SAN.
INSTALAR ESXI
Para instalar ESXi 5.5 debemos como primer paso descarganos la iso de [Link]. La iso que
voy a utilizar para esta guía es VMware-VMvisor-Installer-201410001-2143827.x86_64.iso y es
descargable de forma gratuita al registrarse en la web de VMware.
Conectate con una consola (monitor y teclado) al servidor donde vas a instalar ESXi. Yo lo instalaré
dentro de mi host de laboratorio, como máquina virtual dentro de otra máquina virtual. Es lo que se
conoce como nested esxi o esxi anidado.
Una vez hayas grabado la iso de ESXi a un CD o a un Pendrive, conéctala al servidor y arranca
desde ella. Cada servidor tiene su forma de arrancar desde CD / USB y está fuera del ámbito de este
curso para la certificacion VCP entrar en particularidades de cada fabricante de hardware. Consulta
el manual del fabricante para más información.
Una vez haya arrancado la ISO, se te presentará la siguiente pantalla informándote de que vas a
comenzar la instalación (Pulsar ENTER):
A continuación deberás elegir el idioma de tu teclado. Esto es importante para poner la contraseña en
caso de que incluya símbolos o caracteres no alfanuméricos. Selecciona Spanish y pulsa ENTER.
Introduce una contraseña para el host ESXi. La longitud mínima es de 7 caracteres. Después, tras
verificar que la has escrito correctamente tecleándola de nuevo en el renglón inferior, pulsa ENTER.
El siguiente paso verificará que tu equipo cumple los requisitos mínimos para la instalación, si se
encuentra algún problema verás un mensaje similar al siguiente, en el que indica que las
instrucciones de virtualización VT-x no están habilitadas en la BIOS. ¿Recuerdas que era
unrequisito de instalación? Si usas esxi anidado, puedes activarlo de la siguiente manera:
Seleccionas la VM con el ESXi, Edit Settings, Pestaña Options, CPU / MMU Virtualization, opción
de abajo del todo. Si no sabes lo que es esxi anidado, ignora esto último.
Se te pedirá confirmación antes de instalar ESXi en el disco que has seleccionado anteriormente, ya
que la instalación borra todo el contenido que había en esos discos anteriormente y los
reparticionará. Pulsamos F11
El instalador tiene un indicador de progreso y tarda unos cuantos minutos, dependiendo sobre todo
de la velocidad del almacenamiento al que estamos escribiendo. Es posible que a veces parezca que
se detenga, pero normalmente tarda entre 5 y 20 minutos en instalarse.
Cuando haya terminado, se nos presentará un diálogo indicando que se va a reiniciar el equipo.
Pulsamos ENTER para reiniciar.
Una vez haya terminado de reiniciarse el host, intentará obtener IP mediante DHCP. Esto lo hará un
poco menos cómodo de manejar y susceptible de cambios de IP no controlados. VMware
recomienda utilizar IPs estáticas para los hosts ESXi así que vamos a proceder con la configuración
de la red de gestión.
Pulsa F2 para acceder a Direct Console User Interface (DCUI). Es el sistema de menús de gestión
básica de ESXi. Podrás acceder a él tras teclear tu contraseña. El usuario es root.
A continuación nos dirigimos al menú Configure Management Network y seleccionamos Network
Adapters para asegurarnos de que la tarjeta de red usada para administración es la que queremos.
Este paso es opcional e innecesario si solo tenemos una tarjeta de red (no recomendado).
Después, vamos a IP Configuration y elegimos la opción Set static IP address and network
configuration, introduciendo los parámetros que queramos
A continuación, iremos a DNS Configuration e introduciremos los valores que necesitemos dentro de
nuestra red. Disponer de resolución DNS directa como inversa es muy recomendable y necesario
para algunas tareas. Configurar un servidor DNS interno queda fuera del alcance de este curso, pero
más adelante veremos algunas formas de prescindir del DNS dentro del vCenter.
Por último, iremos a Custom DNS Suffixes para introducir el nombre de dominio dns que vamos a
utilizar para nuestra infraestructura. Para mi laboratorio uso el dominio [Link], usa el que prefieras.
Ahora pulsaremos la tecla ESC y diremos que queremos aplicar los cambios pulsando Y.
Podremos ver como nuestro host ESXi comienza a responder a ping…
Para tu información, para todos los ejercicios que haremos a lo largo de este curso, he creado 3 hosts
ESXi diferentes. Hay que estar familiarizado con ellos así que te dejo una relación de los mismos:
[Link] – [Link]
[Link] – [Link]
[Link] – [Link]
Para instalar el cliente de Windows de vSphere, iremos a [Link] y una vez allí
haremos click en “Download vSphere Client”
Tras instalarlo como cualquier otro programa, lo abriremos y veremos el siguiente diálogo
Una vez introducidos los datos del host ESXi, daremos a login
Cuando nos salga el siguiente aviso sobre los certificados SSL, debemos decir que los aceptamos y
marcar la casilla para que ignore esto en un futuro. Los certificados SSL que estamos utilizando son
auto firmados y por eso nos avisa de que no son seguros. Para la mayoría de entornos, esto no nos
supone un problema.
Una vez conectados, el cliente nos recordará que estamos en modo Evaluación. Esto quiere decir que
durante 60 días vamos a disponer de la totalidad de funcionalidades de vSphere, tal y como serían si
tuviésemos una versión licenciada Enterprise Plus. Ten cuidado con esto, ya que una vez la
evaluación termina, el host se desconectará del vCenter y perderemos estas funcionalidades. NO
USES EL MODO EVALUACIÓN PARA HOSTS EN PRODUCCIÓN.
Mientras la hora aparezca en color rojo, no estará sincronizada. No he podido obtener una captura de
la hora sin sincronizar, pero es un dato a conocer.
CONFIGURAR EL ACCESO SSH A ESXI
Otra de las cosas útiles que podremos hacer en ESXi tras la instalación es habilitar el acceso por
SSH. Podemos hacerlo desde la DCUI (Direct Console User Interface) o desde el cliente vSphere.
Vamos a ver como se hace de ambas maneras.
Para habilitar el acceso SSH via DCUI, haremos login con F2 como hicimos inicialmente para
configurar la red de gestión e iremos a Troubleshooting Options.
Una vez estemos en Troubleshooting Options, seleccionaremos Enable SSH para habilitar el acceso
SSH.
Este acceso nos será útil si queremos realizar resolución de problemas más avanzada o trabajar con
esxcli. esxcli no es un objetivo de la certificacion VCP, sino más bien de VCAP, por lo que no será
tratado en este curso.
Si preferimos utilizar el cliente vSphere de Windows para habilitar el SSH en ESXi, deberemos ir a
la pestaña Configuration, Security Profile, Services, Properties
Una vez allí, seleccionaremos SSH y pulsaremos el botón Options, para seleccionar luego la
opciónStart and stop with host y pulsar OK
HABILITAR, CONFIGURAR Y
DESHABILITAR HYPERTHREADING EN
HOSTS ESXI INTEL
Hyperthreading es una tecnología de Intel que permite, en determinadas circunstancias, obtener un
hilo adicional de procesamiento por cada core. En la práctica no supone una mejora de rendimiento
del doble, y en algunos casos específicos, puede hasta penalizar el rendimiento del host. Por ello,
debemos saber como habilitarlo y deshabilitarlo.
Para habilitarlo o deshabilitarlo, iremos a la pestaña de configuración en el cliente vSphere y, dentro
del panel de Hardware, pulsaremos en Processors, para posteriormente hacer click enProperties.
Te recomiendo utilizarlo salvo en casos específicos en los que tengas que analizar un problema
extraño de rendimiento de las CPUs. Por lo general el Hyperthreading suele aportar un 30% de
beneficio en rendimiento de CPU global.
Los vSwitches son el equivalente a los switches de red normales, mientras que los portgroups son
agrupaciones de “puertos de red” de máquinas virtuales que a su vez se conectan a vSwitches.
Un vSwitch está compuesto por uno o varios uplinks, que corresponden con las tarjetas de
red físicas del host.
Un Portgroup está compuesto por el conjunto de puertos virtuales que conectan las
máquinas virtuales a él.
Un vmkernel es un puerto de uso exclusivo del host ESXi que realiza cualquier actividad de
entrada o salida de datos (almacenamiento, vmotion, fault tolerance, vsan, etc)
Para crear nuestro primer Portgroup, iremos a Configuration, Networking, Add Networking y
seleccionaremos crear un Virtual Machine Portgroup.
Podremos seleccionar un vSwitch ya existente (El de gestión que usamos para controlar la máquina)
o crear uno nuevo con otra tarjeta de red diferente.
Finalmente seleccionamos un nombre para el Portgroup y ya estará listo para que le conectemos
máquinas virtuales.
Para los laboratorios de este curso de VMware será necesario que dispongas de TRES hosts ESXi
diferentes. Realiza el ejercicio de configurar tú mismo los otros dos hosts.
Este es el final del primer capítulo de nuestro curso de VMware. Tras aprender a instalar ESXi, el
siguiente paso es aprender a instalar vCenter en el capítulo 02.
CURSO DE VMWARE 5.5 –
INSTALAR VCENTER
2 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere,guia vcp, tutorial
vcp
Management Service.
Database Server.
Inventory Service.
vSphere Web Client.
vCenter APIs and .NET Extensions.
vCenter Single Sign On.
vCenter Orchestrator.
vCenter Server Linked Mode.
REQUISITOS DE INSTALACIÓN DE
VCENTER SERVER
REQUISITOS DE VCENTER SERVER PARA WINDOWS
Procesador de 64 bit Intel o AMD con 2 cores.
Sistema operativo soportado (Windows 2008 o Windows 2012, ambos de 64 bit)
DSN de 64 bit para vCenter Server y de 32 bit para Update Manager.
12GB de RAM.
100GB de disco para la instalación, con 40-60GB adicionales posteriormente.
Tarjeta de red Gigabit.
vCenter para Windows puede utilizar como base de datos MSSQL Express si es un despliegue
pequeño de hasta 5 hosts o 50 VMs. Para despliegues mayores puede utilizar MSSQL Standard o
superior o una base de datos externa Oracle.
La instalación de vCenter Server para Windows está soportada tanto si se hace en una máquina física
como si se instala en una virtual.
REQUISITOS DE VCENTER SERVER APPLIANCE
(VCSA)
Procesador de 64 bit Intel o AMD con 2 cores.
70GB de espacio en un datastore ESXi.
8GB de RAM para despliegues mínimos, hasta 10 hosts y hasta 100 VMs.
16GB de RAM para manejar entre 10 y 50 hosts o 100-1500 VMs.
24GB de RAM para manejar entre 50 y 100 hosts o 1500-3000 VMs.
Tarjeta de red Gigabit.
vCenter Server Appliance puede utilizar como base de datos un vPostgres incluido en el propio
Appliance o una base de datos externa Oracle para manejar hasta 400 hosts y 4000 VMs
(dedicandole 32GB de RAM).
En ambos casos, es crítico dimensionar bien el tamaño de la base de datos y NO USAR los niveles
de estadísticas superiores a 1 salvo para resolución de problemas. Tener miles de gráficas
disponibles está bien, pero puede matar el rendimiento de la base de datos y y acabar afectando a
vCenter. Volveremos a este tema de las estadísticas más adelante.
Una vez hayamos descargado la iso de VMware (yo voy a usar una llamada VMware-VIMSetup-all-
[Link]) la grabamos a DVD, USB o la montamos directamente en
Windows y ejecutamos el instalador que viene en el mismo.
Seleccionamos Simple Install y pulsamos el botón de Install. Esto lanzará de forma consecutiva los
instaladores de vCenter Single Sign On, vSphere Web Client, vCenter Inventory Service y
finalmente vCenter Server junto con vCenter Orchestrator. Recuerda que si pretendes usar vCenter
en un entorno de producción de más de 5 hosts o 50 máquinas virtuales, DEBES usar una base de
datos MSSQL Externa cuyo procedimiento de instalación te dejo enlazado.
INSTALACIÓN DE SINGLE SIGN ON
Se nos pedirá que seleccionemos una interfaz de red (una IP realmente) en la que configurar los
servicios
Realizará una validación previa antes de instalar Single Sign On
Ahora nos pedirá una contraseña para el ususario Administrator@[Link]. Guardala bien, será
tu usuario posteriormente para todo. Los requerimientos de complejidad de la contraseña te harán
elegir una contraseña complicada.
Debemos dar un nombre a nuestro “site” Se trata de un nombre por el que podremos identificar esta
instancia de Single Sign On. Yo lo llamaré [Link]
Tras pasar de la encuesta de experiencia de uso, podemos pulsar el botón Install y se comenzará a
instalar primero SQL Server, luego la base de datos de vCenter y finalmente los servicios de vCenter
Server.
INSTALACIÓN DE VSPHERE UPDATE MANAGER
Update Manager es el componente que se encarga de gestionar las actualizaciones en vSphere. El
instalador nos preguntará lo primero de todo por las credenciales a utilizar para conectarse con
vCenter Server.
Posteriormente nos preguntará por la base de datos a utilizar. Nosotros vamos a utilizar SQL Server
2008 Express. Ten presente que si instalas Update Manager usando un MSSQL Server externo o
diferente al Express, Update manager NECESITA un DSN de 32 bit.
En las siguientes pantallas podemos recibir un aviso de poco espacio en disco. Para nuestro
laboratorio de certificacion VCP nos servirá de sobra con el espacio que tenemos.
INSTALACIÓN DE VSPHERE ESXI DUMP
COLLECTOR
ESXi Dump collector se encargará de recoger volcados de memoria a través de la red cuando un host
tiene problemas. La instalación nos preguntará en que modo queremos instalarlo. Para nuestro
laboratorio, lo instalaremos integrado con vCenter
Una vez más, tendremos que proporcionar nuestras credenciales, confirmando que el certificado SSL
es el que esperamos.
Podemos dejar el puerto por defecto y seleccionar una IP alcanzable en nuestra red para que el
servicio escuche en ella.
Aqui termina la parte referente a la instalación de vCenter Server para Windows de nuestro curso de
vmware. En la siguiente parte, vamos a realizar una instalación de vCenter Server Appliance
Una vez descargado el .OVA de la web de VMware en modo evaluación, abriremos el cliente
vSphere Client de Windows y seleccionaremos el host donde queremos desplegar la maquina virtual
y buscaremos en el menú File, Deploy OVF Template
TIPOS DE ALMACENAMIENTO EN
VMWARE VSPHERE
Hasta ahora en el curso de VMware para preparar la certificacion VCP hemos visto que un host es el
encargado de ejecutar máquinas virtuales. Pero estas máquinas virtuales han de estar almacenadas en
algun tipo de medio físico. Diferenciaremos estos tipos de almacenamiento en tres:
En esta configuración, en el host esxi indicamos la IP del servidor NFS remoto, así como la ruta del
volumen compartido que queremos montar. Previamente, tendremos que haber autorizado en el
servidor NFS a este host para acceder en modo lectura o lectura y escritura, ya que es el sistema de
seguridad que maneja NFS. El volumen no ha de ser formateado ya que el ESXi accede directamente
a archivos que se manejan en el sistema de archivos propio del servidor NFS.
Las ventajas del almacenamiento NAS son que ofrece todas las funcionalidades avanzadas de
vSphere sin necesidad de invertir en equipamiento de Fibra Óptica. La configuración es sencilla y
rápida y el rendimiento es casi igual al del almacenamiento SAN. Otra ventaja de NFS es que es
menos sensible a la latencia que otros protocolos SAN.
Las desventajas del almacenamiento NAS son un peor escalado en entornos grandes, donde se
necesitan agrupar máquinas virtuales en función de sus patrones de acceso o la velocidad de acceso
es crítica. El tráfico de datos NFS no va cifrado, por lo que resulta más inseguro en entornos
sensibles.
ALMACENAMIENTO SAN EN VSPHERE
El almacenamiento SAN, también conocido como almacenamiento por bloques, permite a los
clientes conectados, en nuestro caso los hosts ESXi, acceder directamente a bloques de disco
existentes en el servidor de almacenamiento. Es, por decirlo de una forma resumida, una forma de
conectar mediante un cable de red o fibra óptica, discos duros que el host ESXi debe formatear y
administrar a nivel más bajo que en el caso de NFS. Los hosts ESXi pueden montar almacenamiento
SAN mediante uno (o varios) de los siguientes protocolos:
iSCSI
Utilizando iSCSI podemos obtener las ventajas del almacenamiento con bloques (baja latencia,
mayor rendimiento) de la mano de una red IP convencional. Ambos extremos han de disponer de
permisos mutuos para que puedan comunicarse entre ellos. Además la conexión inicial puede ir
autentificada mediante contraseña bidireccional. Esto, sin embargo, requiere recursos extra
dedicados exclusivamente a la comunicación con el almacenamiento.
En una configuración típica iSCSI intervienen varios elementos:
Iniciador: Es el componente del lado cliente que establece la conexión con el
dispositivo de almacenamiento en bloques. Puede ser un componente software o una tarjeta HBA
(Host Bus Adapter).
IQN: Es el identificador único de cada uno de los dos extremos de la comunicación
iSCSI. Han de permitirse expresamente en ambos extremos.
CHAP: Challenge Handshake Authentication Protocol, es un protocolo de cifrado
mediante clave compartida para establecer una comunicación de datos.
FiberChannel o FC
Fiberchanel utiliza redes exclusivamente de fibra óptica, mediante unos switches especiales
denominados Fabric, para conectar almacenamiento en bloques a los hosts, mediante la utilización
de una tarjeta HBA en éstos últimos. En vez de tener IQN, en FiberChannel denominamos WWN
(world wide name) y el acceso se hace mediante una tecnica llamada Lun Masking, que previene la
visibilidad de los almacenamientos a determinados WWN.
FiberChannel over Ethernet o FCoE es un estandar reciente para ofrecer almacenamiento
FiberChannel a través de redes Ethernet.
Todos estos tipos de almacenamiento tienen en común que lo que ofrecen es un espacio de datos que
el host tiene que formatear utilizando el sistema de archivos propio de VMware, el VMFS. Es por
esto, al disponer de acceso directo a disco, que se denomina almacenamiento en bloques, pues toda
la lógica del almacenamiento de los datos se delega en el host ESXi. En la actualidad, el sistema de
archivos VMFS va por la versión 5.60 y soporta todas las características propias de un sistema de
archivos para cluster, utilizando un tamaño de bloque grande para un sistema de archivos, de 1
Mbyte por defecto.
Añadimos un nuevo target estático, indicando la IP del servidor iSCSI y el nombre IQN del target
que hemos creado en el servidor iSCSI . Pulsamos en el botón CHAP y seleccionamos el usuario y
contraseña que hemos elegido para validar esta conexión.
Reescaneamos el HBA (Host Bus Adapter) para que busque nuevos dispositivos disponibles con los
datos que le hemos proporcionado.
Confirmamos que aparece el disco que esperamos
Vamos al asistente de Add Storage, elegimos DISK/LUN y agregamos el disco iSCSI que acabamos
de crear para el laboratorio del curso de VMware.
Se nos pedirá elegir el filesystem con el que se formateará el nuevo disco.
Seguimos adelante con el asistente hasta el final y ya tendremos nuestro nuevo datastore disponible
en esa LUN iSCSI.
THIN PROVISIONING Y THICK
PROVISIONING
Hay dos conceptos importantes que debemos conocer como son el thin y thick provisioning.
En inglés, thin es delgado y thick es grueso. Estos términos, en almacenamiento, se refieren a la
forma en que se dispone del espacio de disco.
Datacenter [Link]
Cluster laboratorio
Hosts
[Link]
[Link]
[Link]
Networks
Master Gestion
vMotion
FT
VSAN
Datastores
QNAP01-VM01
QNAP01-VM02
DATACENTERS
Un Datacenter en vSphere es una entidad organizativa que agrupa diferentes objetos que interactúan
entre sí en vSphere. Un Datacenter agrupa cuatro jerarquías diferentes de objetos:
Hosts y Clusters
Maquinas virtuales y Templates
Networks
Datastores y Datastore Clusters
Dentro de un datacenter, no se pueden repetir los nombres de objetos de Networks niDatastores.
De esta forma, no podemos tener una red VSAN en un cluster y otra que se llame igual en otro
cluster, si ambos comparten el mismo datacenter. Igualmente, tampoco se pueden repetir los
nombres de datastores dentro de un mismo datacenter. Si que se puede, sin embargo, tener datastores
con el mismo nombre si se encuentran en diferentes datacenters lógicos. A lo largo de este curso de
vmware, cuando hablemos de datacenters, siempre estaremos hablando del nivel lógico del
inventario de vSphere, no de edificios donde alojar servidores.
CLUSTERS
Un cluster en vSphere es una agrupación de hosts ESXi con sus correspondientes máquinas virtuales
que actúan como una única unidad. A medida que vamos añadiendo hosts a un cluster, los recursos
de estos nuevos hosts pasan a integrar lo que conocemos como pool de recursos del cluster, haciendo
una bolsa única y conjunta de capacidad de computación. El cluster es objeto donde se configuran
cuatro funcionalidades importantes de vSphere que veremos más adelante. HA (Alta disponibilidad),
DRS (Distributed resource scheduler), EVC (Enhanced vMotion Compatibility) y VSAN (Virtual
SAN).
32 Hosts.
4000VMs.
512 VMs por host.
2048 VMs encendidas por datastore.
HOSTS
Los hosts, como ya hemos visto, son los servidores que hemos instalado con ESXi y que sirven para
virtualizar cargas de trabajo a modo de máquinas virtuales.
RESOURCE POOLS
Los Pools de Recursos (Resource Pools) son un conjunto de capacidades de memoria y CPU de que
disponen los hosts o clusters en vSphere. Los Resource Pools se utilizan con dos fines:
1024 objetos
8 niveles de jerarquía
1600 resource pools por host
1600 resource pools por cluster
DATASTORES
Los datastores son la representación del almacenamiento disponible en nuestra plataforma vSphere.
Un datastore es un espacio disponible para almacenar máquinas virtuales y los ficheros asociados a
ellas. Como vimos en capítulos anteriores, un datastore puede estar conectado mediante FC
(FiberChannel) o una red IP (NFS o iSCSI) o incluso ser un disco local del host. Sin embargo, de
cara a esxi, todos los datastores son iguales, sin importar la tecnología que haya por detras para
conectarlos al host. La existencia del concepto de datastore es esto precisamente, una capa que
unifica todos los almacenamientos para presentarlos por igual al host. Los datastores también pueden
agruparse en clusters como veremos posteriormente.
NETWORKS
Las redes son el conjunto de tarjetas de red que agregamos a nuestras máquinas virtuales para
dotarlas de conectividad de red, así como los vSphere Distributed Switches (switches distribuidos) a
los que se conectan. Veremos más adelante lo que son los switches distribuidos, pero
puntualizaremos que dos máquinas virtuales están dentro de la misma Network si se encuentran
conectadas al mismo PortGroup dentro de un mismo Distributed Switch, aunque éste comprenda
varios hosts diferentes y las máquinas virtuales estén en ejecución en diferente host. Veremos los
máximos de configuración cuando nos metamos más a fondo con las redes.
FOLDERS
Los folders son carpetas para agregar de forma lógica objetos del mismo tipo. Así pues, podemos
agregar maquinas virtuales bajo un nombre que nos resulte identificativo o incluso podemos anidar
carpetas dentro de carpetas siempre que se mantenga la premisa de que contengan el mismo tipo de
objetos. No se pueden mezclar carpetas de hosts con carpetas de maquinas virtuales por ejemplo.
También son receptores de permisos. Podemos asignar permisos de forma específica a todo lo que
esté contenido dentro de un folder. Los nuevos objetos que se vayan incorporando a esta carpeta
heredarán los permisos aplicados a ella.
VIRTUAL MACHINES
Las máquinas virtuales son contenedores dentro de los cuales ejecutamos un hardware virtualizado y
en las que podemos instalar sistemas operativos.
TEMPLATES
Los templates o plantillas son un tipo especial de máquinas virtuales que está listo para ser clonado y
replicado para crear nuevas máquinas virtuales. Un template no puede ser encendido, pero si
clonado, por ejemplo. Los templates pueden ser convertidos con un solo click a máquinas virtuales
para ser encendidos. Las máquinas virtuales han de estar apagadas para ser convertidas a template
con otro par de clicks.
La operación de crear nuevas máquinas a partir de un template se denomina “Deploy from template”
o “desplegar desde plantilla”. Esta operación clona el template como una nueva máquina virtual y
nos da la posibilidad de personalizar diversos ajustes, como las configuraciones de red, nombre del
host, etc si nuestro sistema operativo está soportado.
VAPPS
Las vApps son un conjunto de máquinas virtuales que se configuran para operar de forma conjunta.
Se pueden establecer dependencias en el orden de encendido, por ejemplo, o distribuirlas de forma
conjunta mediante un único archivo .ova
CONFIGURANDO NUESTRO
DATACENTER VSPHERE
Hasta ahora hemos hecho tareas de instalación de ESXi, vCenter y hemos revisado algunos
conceptos importantes a la hora de manejar una infraestructura virtualizada. Es hora de comenzar a
practicar lo que hemos ido aprendiendo. Vamos a configurar la jerarquía de nuestro datacenter tal y
como lo puse al comenzar esta entrada:
Datacenter [Link]
Cluster laboratorio
Hosts
[Link]
[Link]
[Link]
Networks
Master Gestion
vMotion
FT
VSAN
Datastores
QNAP01-VM01
QNAP01-VM02
CONECTAR A VCENTER
Vamos a intentar acostumbrarnos a utilizar todo lo posible el cliente web de vSphere, ya que es el
que está destinado a permanecer en un futuro. Veremos que hay aún cosas que no pueden llevarse a
cabo con este cliente. En esos casos concretos, utilizaremos el Cliente vSphere de Windows
tradicional.
1. Navegador
Nos permite movernos por las diferentes áreas del inventario de vCenter.
2. Contenido
Nos muestra detalles del objeto que tenemos seleccionado.
3. Búsqueda
Nos permite buscar en el inventario de vCenter de forma rápida el objeto que deseemos, desde
máquinas virtuales a portgroups, hosts, clusters, carpetas, etc…
4. Información
Se divide en tres contenedores que nos muestran la siguiente información:
Tareas
Nos muestra el conjunto de tareas que se encuentran en ejecución.
Trabajo en curso
Nos muestra una relación de trabajos que nos encontramos realizando o hemos dejado para realizar
posteriormente.
Alarmas
Nos muestra una relación de warnings o alertas que se encuentran activas en este momento.
5. Mensajes de vCenter
Nos muestra mensajes de información de vCenter, como por ejemplo licencias que van a caducar en
el ejemplo.
CREAR UN DATACENTER
Nuestro primer paso va a ser crear un datacenter en nuestro servidor vCenter. Ese datacenter se
llamará [Link], pero podemos darle el nombre que nos resulte más significativo para identificarlo.
Una buena idea es llamarlo como la ubicación física de los hosts que incluiremos dentro.
Una vez estemos dentro de datacenters, pulsaremos el botón de Create new datacenter y le
daremos el nombre que hayamos elegido.
AÑADIR UN HOST A UN DATACENTER
Es hora de añadir nuestros tres hosts a este datacenter. Para ello, y sin salirnos de la ventana de
contenido de Datacenters, pulsaremos el botón de Add a Host.
La primera pantalla del asistente nos pedirá el hostname o dirección IP del nuevo host que vamos a
añadir a nuestro Datacenter.
El siguiente paso nos pedirá las credenciales del host (root y la contraseña que hubiésemos elegido
durante la instalación). También nos pedirá, antes de proseguir, que validemos el certificado SSL
auto firmado que presenta el host.
El paso Host Summary nos informa de la versión de ESXi que tiene instalada el host así como el
nombre del fabricante del hardware. En este caso, al tratarse de ESXi virtualizados, el fabricante
aparece como VMware.
En el momento de asignar la licencia, para nustro curso de VMware vamos a utilizar licencias de
evaluación de VMware, que son las que vienen por defecto y nos permiten disfrutar durante 60 días
de todas las funcionalidades de vSphere con el nivel de licenciamiento Enterprise Plus.
El siguiente paso Nos pregunta si queremos activar el LockDown Mode. El LockDown Mode es
una funcionalidad de seguridad de ESXi que desactiva los accesos directos mediante el cliente
vSphere de Windows, para que el servidor ESXi solamente sea administrable mediante vCenter o el
acceso físico por consola.
Finalmente se nos pedirá la ubicación donde queremos añadir este host. Aquí podríamos elegir un
cluster, si tuviéramos alguno configurado. Lo dejaremos tal cual y repetiremos el procedimiento para
el resto de hosts ESXi que vamos a utilizar en nuestro laboratorio durante este curso de VMware
para la certificacion VCP.
Podemos ver como las tareas se van ejecutando en el panel de tareas de la parte derecha de la
pantalla.
CLUSTERS DE VSPHERE
Como vimos anteriormente, el cluster es una entidad que agrupa hosts ESXi para crear un conjunto
agregado de recursos y habilitar diversas funcionalidades de vSphere. Vamos a crear nuestro cluster
llamado laboratorio, pero previamente vamos a aprender una serie de conceptos nuevos que
pertenecen al ámbito de los clusters VMware.
¿QUÉ ES EVC?
Te estarás preguntando ¿Qué es EVC? Bien, EVC es una funcionalidad de los clusters vSphere
destinada al vMotion (migración en caliente de máquinas virtuales) que permite establecer una
plantilla con el conjunto de instrucciones de CPU disponibles para los hosts de ese cluster. La
utilidad de EVC es clara cuando juntamos hosts con diferentes generaciones de CPUs dentro de un
cluster. Podemos tener hosts con CPU Xeon Sandy Bridge que tienen una serie de instrucciones
disponibles en la CPU. Pasados un par de años, compramos otro servidor, con procesadores Xeon
Ivy Bridge y lo queremos añadir al cluster. Para que las máquinas virtuales sean ejecutables dentro
de cualquiera de los hosts de este cluster, deben tener disponibles el mismo juego de instrucciones en
TODAS las CPUs en las que pueden ejecutarse. Al activar EVC con nivel Sandy Bridge,
recortaremos las funcionalidades disponibles de los nuevos servidores físicos Ivy Bridge, pero
podremos incluir estos últimos en un cluster previamente existente.
Es muy importante saber que EVC solo funciona dentro de un mismo fabricante. No podemos hacer
vMotion desde un host AMD a uno Intel ni viceversa. La recomendación general es mantener los
clusters siempre con el mismo tipo de procesadores, pero podemos juntar procesadores con un salto
de generación entre ellos sin mucho problema. Si dispones de procesadores con un salto de dos o
más generaciones entre ellos, es más conveniente separarlos en diferentes clusters para aprovechar
mejor las nuevas funcionalidades que van apareciendo con la evolución de las familias de CPUs.
¿QUÉ ES VMOTION?
vMotion es la capacidad de mover una (o varias) máquinas virtuales encendidas desde un host físico
a otro diferente sin necesidad de apagarlas ni planificar ninguna ventana de mantenimiento. Todo el
proceso es transparente totalmente para el usuario y se realiza de la siguiente forma:
Copia inicial de la memoria RAM de la máquina origen a destino. En el momento de comenzar esta
copia se comienzan a almacenar los cambios que se realizan en memoria RAM en el origen, para
transferirlos en siguientes copias de menor tamaño. Cuando estas copias han terminado, se transfiere
el estado y registros de CPU para esa máquina virtual desde el host de origen al destino y se
suspende durante una fracción de tiempo la máquina virtual en el origen, para pasar a ejecutarse en
el destino. Todo, la ejecución de programas, transferencias de red, etc, sigue funcionando sin
enterarse de que ha pasado de un servidor físico a otro.
¿QUÉ ES DRS?
DRS, o Distributed Resource Scheduler es una funcionalidad de vSphere que permite automatizar (o
no) el reparto de carga entre los diferentes hosts de un cluster mediante la utilización de vMotion y la
configuración de diferentes umbrales de agresividad a la hora de repartir la carga. DRS se ejecuta
cada cinco minutos y analiza las cargas de trabajo de los diferentes hosts que componen un cluster.
Si observa que el nivel de desigualdad de utilización es superior al que hemos establecido, invocará
acciones de vMotion en el cluster para repartir esta carga y dejar el cluster lo más nivelado posible.
DRS permite además establecer una serie de reglas de afinidad o anti afinidad que nos permitirán
asegurarnos de que una máquina virtual está separada en un host físico diferente de otra que
desempeña el mismo rol, por ejemplo, para asegurarnos que no se nos cae todo de golpe con un
único fallo de host físico. Veremos todas estas reglas más adelante.
Una característica extra de DRS es DPM, Distributed Power Management, que permite vaciar
mediante vMotion hosts que no se necesitan para la carga de trabajo actual del cluster. Esto permite
ahorro de energía al prescindir de servidores encendidos en periodos de poca utilización, como por
ejemplo por las noches.
¿QUÉ ES HA?
El concepto HA dentro de VMware se refiere a alta disponibilidad de máquinas virtuales. HA es una
funcionalidad que actúa a nivel de cluster que permite que, en caso de fallo de un host, las máquinas
afectadas (disponiendo de almacenamiento compartido visible por todos los otros hosts del cluster)
se reinicie sola en otro host que haya sobrevivido a la caída. Podemos configurar VMware HA para
que monitorice a más bajo nivel el comportamiento de la máquina virtual y la reinicie en caso de
que, aunque su host no sufra contratiempos, el sistema operativo se cuelgue, por ejemplo.
¿QUÉ ES VSAN?
VSAN es una tecnología de almacenamiento distribuido entre hosts ESXi que VMware ha
presentado a finales de 2013. La idea detrás de VSAN es utilizar una mezcla de almacenamiento
SSD y discos duros tradicionales instalados en servidores físicos separados para crear un cluster de
almacenamiento con tolerancia a fallos y aceleración mediante tecnología Flash. Veremos en más
detalle esta tecnología más adelante.
En la pantalla de creación del cluster tenemos opción de activar las siguientes funcionalidades de
vSphere: DRS, HA, EVC y VSAN. De momento las dejaremos todas desactivadas.
Veremos que ya tenemos disponible nuestro nuevo y flamante cluster con una capacidad de… 0
Ghz. De poco nos va a servir este cluster si no tiene recursos, así que vamos a añadirle nuestros tres
[Link] ello, pulsaremos el botón de Move Hosts Into Cluster.
Ahora seleccionamos los hosts que vamos a incorporar a nuestro cluster y con pulsar OK, los hosts
se comenzarán a agregar a nuestro cluster.
Podremos ver como los recursos de los hosts se han incorporado a nuestro cluster laboratorio.
Una pregunta de examen VCP es el máximo de hosts que permite un cluster vSphere. En la versión
5.5 es de 32 hosts. En vSphere 6 está previsto que sean 64.
Con esto terminamos el cuarto capítulo del curso de VMware para la certificacion VCP. En el
siguiente capítulo agregaremos almacenamiento compartido a todos estos hosts y configuraremos
VMkernels que nos permitirán activar las funcionalidades avanzadas como vMotion, etc. También
habilitaremos funcionalidades extra en nuestro cluster laboratorio.
CURSO DE VMWARE 5.5 –
VIRTUAL NETWORKING,
VSWITCH
17 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere, guia
vcp, tutorial vcp, VCP
VIRTUAL NETWORKING –
VMKERNELS,
PORTGROUPS, VSWITCHES
En este quinto capítulo de nuestro curso de VMware para la certificacion VCP vamos a configurar
nuestros hosts ESXi, aprendiendo lo que son los VMkernels, vSphere Standard vSwitch, vSphere
Distributed vSwitch y configurando los VMkernels necesarios para vMotion, Fault Tolerance y
VSAN, funcionalidades que veremos en posteriores capítulos.
VLANS
Sirven para etiquetar el tráfico de red con una marca especial que hace que solo sea visible para las
máquinas virtuales conectadas a ese portgroup o a otras que tengan configurada esa VLAN. Las
VLANs pueden quedarse dentro del ámbito de los vSwitches o propagarse más arriba a través de los
switches físicos de la capa de electrónica de red si se configuran estas VLANs en ellos.
SECURITY
Podemos configurar las siguientes reglas de seguridad de forma individual en cada Virtual Machine
Portgroup
Average Bandwidth
Es el ancho de banda medio que permitimos que fluya por este Virtual Machine Port Group, medido
en kilobits por segundo.
Peak Bandwidth
El ancho de banda máximo que permitimos que alcance este Virtual Machine Port Group en
cualquier momento, medido en kilobits por segundo.
Burst Size
La cantidad de kilobytes que permitimos un pico de tráfico antes de penalizar el ancho de banda
aplicando el traffic shaping. Este parámetro se aplica siempre que no se haya superado el ancho de
banda medio establecido en la primera limitación y puede llegar hasta el valor de Peak Bandwidh
siempre y cuando haya ancho de banda disponible en el interfaz.
NIC TEAMING
En el menú de configuración de NIC Teaming dentro de un Virtual Machine Portgroup nos
encontramos con dos bloques de opciones configurables:
POLICY EXCEPTIONS
Load Balancing – Nos permite establecer opciones de balanceo de carga entre dos o más
tarjetas de red físicas.
Nos permite configurar las interfaces físicas del vSwitch a las que se conecta el Virtual Machine
Portgroup para establecer uno de los siguientes escenarios:
Activo-Activo
Todas las tarjetas de red que coloquemos en este grupo se considerarán activas y serán candidatas a
enviar tráfico de las máquinas virtuales en condiciones normales.
Activo-StandBy
El tráfico se moverá solo por las tarjetas de red que coloquemos en el grupo Active y las que
asignemos al grupo StandBy quedarán disponibles para entrar en funcionamiento en caso de que
haya un problema de red que cause que las activas dejen de estar disponibles.
Unused
Nos permitirá especificar tarjetas de red del vSwitch al que se conecta el Virtual Machine Porgroup
que deseamos dejar SIN USO de forma específica, porque queremos dedicarlas a otros menesteres,
por ejemplo.
Realiza este ejercicio solo si tienes más de una tarjeta de red en tu host. Si solo tienes una
tarjeta de red, tu host ESXi ya tendrá un Virtual Machine Portgroup que utilizaremos más
adelante y deberás obviar los ejercicios de Distributed Virtual Switch, adaptándolos a
Standard Virtual Switch (Creando vmkernels y Portgroups en tu único vSwitch0).
A continuación crearemos un Virtual Machine Portgroup en uno de los hosts que hemos añadido a
nuestro cluster del laboratorio del curso de VMware.
Seleccionaremos un Host en el inventario e iremos a Manage > Networking > Virtual Switches, para
hacer click en el botón de Add Networking, seleccionando Virtual Machine Port Group for a
Standard vSwitch
A continuación elegiremos crear un nuevo Standard vSwitch
Seleccionaremos las nics que queramos asignar a nuestro VSS
Las ordenamos en función de que queramos utilizarlas en modo activo, pasivo o dejarlas sin uso de
momento.
Continuamos el Asistente de creación poniendo un nombre al nuevo Virtual Machine Portgroup y
finalizamos.
Si hacemos click en el nuevo vSwitch que hemos creado, veremos las tres tarjetas de red que tiene
asignadas, las dos que tiene activas y la otra sin uso (de forma genérica para todo el vSwitch)
Ahora vamos a crear un segundo Portgroup en el vSwitch 1 y vamos a hacer que su tráfico vaya
solamente por la vmnic3, que hemos dejado sin uso en el Portgroup anterior.
Tras crear un nuevo Virtual Machine Portgroup y seleccionar vSwitch1 como el vSwitch al que
vamos a asignarlo, haremos click en su nombre y pulsaremos el botón de Editar
En la sección de configuración de Teaming and Failover, podemos hacer un override de la
configuracion por defecto del vSwitch 1 (que dice que por defecto todos los portgroups conectados a
él usan la vmnic1 y vmnic2 de forma activa / activa) y seremos capaces de subir vmnic3 desde
Unused adapters hasta Active y bajar las otras dos a [Link]én aquí podremos cambiar las
opciones de balanceo de carga, detección de fallos, etc que explicabamos anteriormente. En el caso
de este Virtual Machine Portgroup no tiene mucho sentido ya que solo tiene la vmnic3 como punto
de comunicación con el exterior, así que de poco nos serviría el load balancing. Sin embargo si
podríamos aplicarlo al penúltimo portgroup que creamos, que sí tenía dos interfaces activas.
Elimina el vSwitch1 que acabamos de crear, seleccionándolo y pulsando el botón Remove Selected
Standard vSwitch.
Confirmamos la eliminación del vSwitch 1
VMKERNELS (VMK)
Los VMkernels son interfaces especiales que permiten la conectividad únicamente del HOST
ESXi. Se utilizan para diversas funciones, como administración, vMotion, Fault Tolerance, VSAN,
Replicación y Almacenamiento pero única y exclusivamente por parte del HOST ESXi.
Se pueden tener varios VMkernels por host ESXi, pero deberemos tener como mínimo para la
administración remota de ese host ESXi. Los VMkernels funcionan utilizando IP como protocolo de
comunicación, tanto ipv4 como ipv6, aunque existen algunas limitaciones al utilizar ipv6 en los
VMkernels.
Para crear un Distributed Virtual Switch iremos en el vSphere Web Client a la pantalla principal
Home y elegiremos Networking
Haremos click derecho encima de nuestro Datacenter y elegiremos la opción de New Distributed
vSwitch
Elegimos un nombre para nuestro Distributed vSwitch. Este será el primero de tres Distributed
vSwitches que vamos a crear para vMotion, FT y VSAN.
Seleccionamos la versión 5.5.0 de Distributed vSwitch para disponer de todas las características que
aporta la última versión.
Seleccionamos 2 uplinks para nuestro Distributed vSwitch
Al finalizar el asistente podremos ver que aparece un nuevo elemento de red en nuestro inventario de
objetos de red, el Distributed vSwitch que vamos a dedicar a vMotion
Ahora vamos a agregar hosts a este Distributed vSwitch haciendo click derecho sobre él y pulsando
Add and Manage hosts
En el asistente, seleccionamos Add Hosts
Añadimos los hosts de nuestro laboratorio del curso de vmware pulsando en el botón New hosts
Seleccionamos Manage Physical Adapters para agregar a este Distributed vSwitch las tarjetas de red
de cada host correspondientes a este Distributed vSwitch
Seleccionamos los uplinks que queremos para este Distributed vSwitch y pulsamos el botón de
Assign uplink. En el caso de mi laboratorio, asignaré vmnic1 al uplink 1 y vmnic2 al uplink 2.
Repetimos la operación con el resto de hosts.
La siguiente ventana nos analizará el impacto que puede tener esta operación sobre puertos vmkernel
ya existentes. Como estamos migrando uplinks vacíos al Distributed vSwitch, no va a haber ningún
impacto.
Finalizamos el asistente.
El siguiente paso es crear un Distributed Port Group al que conectar los VMkernels de cada host
ESXi destinados a vMotion. Para completar esta tarea, haremos click derecho sobre el Distributed
vSwitch y seleccionaremos New Distributed Port Group.
Dejamos las opciones que vienen por defecto salvo la VLAN si vamos a utilizar alguna en los
puertos directamente conectados. Si estás usando un ESXi anidado, te recomiendo que configures las
opciones avanzadas y permitas modo promíscuo, cambio de MAC y Forged Transmits.
Finalizamos el asistente.
Ahora vamos a crear los vmkernels destinados a gestionar el vMotion en los hosts del laboratorio del
curso de vmware. Para ello, iremos en el inventario a la pestaña de hosts, seleccionaremos cada uno
de los hosts, y en Manage > Networking, haremos click en Virtual Switches. Después
seleccionaremos el nuevo Distributed vSwitch llamado vMotion y haremos click en el botón de Add
Host Networking.
Seleccionaremos Añadir VMkernel Network Adapter
Seleccionaremos el Distributed Port Group que acabamos de crear en el paso anterior.
En el siguiente paso, seleccionaremos tráfico de vMotion e IPv4
El siguiente apartado requiere que asignes direccionamiento IP propio de tu red. En mi red, la red de
vMotion es 192.168.2.x.
Finalizamos el asistente
Repetimos el paso de creación de VMkernel para los hosts esxi02 y esxi03.
En la configuración de CADA HOST, deberíamos tener vmkernels configurados en cada uno de los
Distributed Port Groups como vemos en la imagen:
Existen formas de hacer tareas de las que hemos realizado anteriormente de forma combinada, como
crear un portgroup inicial a la hora de crear el Distributed vSwitch, o Crear VMkernels a la hora de
añadir hosts a un Distributed vSwitch. Practica por tu cuenta esas opciones.
Para futura referencia, en mi laboratorio estoy usando los siguientes direccionamientos ip en los 3
hosts:
esxi01
Gestion y almacenamiento [Link]
vMotion – [Link]
esxi02
Gestion y almacenamiento [Link]
vMotion – [Link]
VSAN – [Link]
esxi03
Gestion y almacenamiento [Link]
vMotion – [Link]
VSAN – [Link]
Para comprobar si la conectividad es correcta, podemos entrar en uno de los hosts por ssh y hacer
vmkping a las ips de los vmkernels de los demás hosts.
Desde esxi01 tenemos conectividad vMotion con los otros dos hosts. Bien, procederemos a probar
FT y VSAN de la misma forma
Hasta aquí llegamos en esta entrada del curso de vmware para ayudarte con la certificacion VCP. En
siguientes capítulos vamos a comenzar a habilitar y utilizar funciones vomo vMotion, HA, DRS y
Fault Tolerance.
CURSO DE VMWARE 5.5 –
ALMACENAMIENTO
COMPARTIDO
18 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere, guia
vcp, tutorial vcp
En este corto capítulo de nuestro curso de vmware añadiremos almacenamiento compartido desde
vCenter a nuestros hosts esxi del laboratorio VMware. Hace un par de capítulos ha habíamos pasado
por encima del almacenamiento, creando datastores en almacenamiento local y mirando como se
agregaban desde el cliente vmware de Windows. Ahora vamos a crearlos utilizando vCenter, que es
la forma habitual de trabajar y simplifica en gran medida tareas como esta, ya que podemos agregar
almacenamiento compartido a literalmente centenares de hosts con una única operación. En este
laboratorio utilizaremos NFS como protocolo para el almacenamiento compartido y crearemos dos
datastores a partir de dos volumenes NFS que debemos tener configurados en nuestro laboratorio
con la solución de almacenamiento compartido que hayamos elegido.
Antes de nada, utilices el protocolo que utilices de almacenamiento compartido, debes dar permisos
en el lado del storage para poder conectar nuestros hosts ESXi. En el caso de NFSv3, la validación
es simplemente mediante la ip de origen que intenta montar el volumen. Yo ya he creado los
permisos correspondientes de lectura y escritura en el dispositivo de almacenamiento compartido de
forma previa.
Proporcionamos los datos del dispositivo de almacenamiento y el volumen exportado por NFS.
Seleccionaremos los hosts a los que queremos agregar este almacenamiento compartido y
finalizaremos el asistente.
Si queremos confirmar que efectivamente, los 3 hosts de nuestro laboratorio se han conectado al
nuevo almacenamiento compartido, seleccionaremos el datastore e iremos a Related Objects > Hosts
Para crear un Datastore Cluster, dentro de la misma pestaña de Almacenamiento que estábamos
antes, haremos click derecho sobre el Datacenter y elegiremos la opción New Datastore Cluster
Lo nombraremos LAB-CLUSTER y desactivaremos de momento DRS
Proseguimos con las opciones por defecto del asistente hasta llegar a la pantalla de Select Clusters
and Hosts. En esta ventana indicaremos cuales son los hosts y clusters que deberán tener
conectividad con los datastores que formen parte del Datastore Cluster. En cierto modo es una forma
de filtrar los datastores que van a participar en el cluster. Seleccionaremos todo el cluster laboratorio.
A continuación, elegiremos los datastores disponibles en común dentro del objeto que seleccionamos
en el paso anterior. Como todos los hosts pertenecientes al cluster laboratorio tienen conectados los
datastores QNAP01-VM01 y QNAP01-VM02, nos deja elegirlos, y así lo haremos.
CURSO DE VMWARE 5.5 –
MAQUINAS VIRTUALES
11 febrero, 2015Sin categoría, VMwarecurso vcp, curso vmware, curso vsphere
COMPONENTES DE LAS MAQUINAS
VIRTUALES
Una maquina virtual en sí no es más que un conjunto de archivos que almacenan información
relativa a su configuración de hardware, y los datos del disco duro de esta. Entremos un poco más en
profundidad en estos componentes.
[Link]
Guarda los datos de configuración de la máquina virtual, desde su dirección MAC, hasta los discos
que tiene conectados, etc.
[Link]
Se trata del archivo de swap de la máquina virtual. Puede crecer hasta el tamaño que tiene la
memoria RAM de la máquina virtual, por eso tiene asignados los 8192 MB de RAM de la máquina
virtual + el overhead (veremos más adelante eso, en el capítulo dedicado a la gestión de memoria).
[Link]
Este archivo guarda una copia de la BIOS de la máquina virtual
[Link]
En este archivo se guarda información relativa a los snapshots de la máquina virtual. Solo
información relativa a ellos, no los snapshots propiamente.
[Link]
Este archivo es un lockfile. Indica que esta máquina virtual se encuentra encendida en algún host.
[Link]
Este archivo contiene informacion de configuración extra para las máquinas virtuales.
[Link]
Este archivo guarda un log de eventos relacionados con la máquina virtual. Puede ser útil a la hora
de hacer resolución de problemas.
[Link]
Contiene una serie de datos de descripción y configuración del siguiente archivo de la lista y
correspondiente al primer disco duro de la máquina virtual
[Link]
Se trata del disco duro propiamente de la máquina virtual, un contenedor de datos en el que se
almacenan los bytes correspondientes al primer disco duro de la máquina virtual
vcsa55_1.vmdk
Contiene una serie de datos de descripción y configuración del siguiente archivo de la lista y
correspondiente al segundo disco duro de la máquina virtual
vcsa55_1-[Link]
Se trata del disco duro propiamente de la máquina virtual, un contenedor de datos en el que se
almacenan los bytes correspondientes al segundo disco duro de la máquina virtual
[Link]
Se trata de un archivo que contiene información relativa al estado del snapshot número 1 de la
máquina virtual
[Link]
Se trata del archivo que guarda la configuración de un disco duro auxiliar creado al hacer un
snapshot del primer disco duro de la máquina virtual.
[Link]
Se trata del archivo de datos con las diferencias que va habiendo en el primer disco duro de la
máquina virtual desde el momento de creación del snapshot.
vcsa55_1-[Link]
Se trata del archivo que guarda la configuración del disco duro auxiliar creado al hacer un snapshot
del segundo disco duro de la máquina virtual.
vcsa55_1-[Link]
Se trata del archivo de datos con las diferencias que va habiendo en el segundo disco duro de la
máquina virtual desde el momento de creación del snapshot.
VCPU
Se trata de la cantidad de CPUs / cores de CPU a los que tienen acceso las maquinas virtuales.
Pueden tratarse de una o más CPUs que se presentan físicamente como sockets o cores (podemos
elegirlo). Aparte de configuraciones avanzadas y optimizadas como afinidad NUMA, etc, podemos
vernos en la necesidad de presentar las CPUs como cores para respetar un escenario como este:
Hemos comprado un software que se licencia por CPU física, es decir, por socket físico.
Nuestro host de virtualización es un servidor con dos procesadores Xeon de 6 cores cada uno, sin
embargo solo podemos utilizar uno de ellos para la maquina virtual si queremos respetar la
modalidad de licenciamiento con el fabricante (una modalidad que por otro lado está totalmente
obsoleta).
Para esto, daremos a nuestra maquina virtual 1 socket de CPU y 6 cores de CPU. Además, para
asegurarnos de que vamos a utilizar solo una cpu física para esta maquina virtual, seleccionaremos
CPU AFFINITY 0-5, lo cual hará que solo se utilicen los primeros 6 cores disponibles en el host
para esta máquina virtual. De esta manera, la maquina virtual nunca llegará a hacer uso del segundo
procesador físico y no estaremos rompiendo estos licenciamientos ridiculos.
Otro escenario es que tengamos un software con la misma licencia limitada a 1 CPU física y
queramos hacerle trampas y proporcionarle más cores de los que tienen nuestros procesadores en el
host. Siguiendo el ejemplo anterior del Dual Xeon Hexa Core, podríamos hacer creer a la máquina
que tiene 1 Socket, pero otorgarle 12 CORES, con lo que aprovecharíamos el doble procesador y el
software no rechistaría, pensando que tenemos 1 único procesador con muchos más cores de los que
realmente tenemos.
CPU AFFINITY
Se trata de una opción de configuración de una maquina virtual en VMware que permite seleccionar
y limitar el uso de cores del host a una maquina virtual. Si queremos que “maquinavirtual01” se
ejecute unica y exclusivamente en los cores 0 y 1 de nuestro host, escribiremos 0,1 en los valores de
CPU affinity. Ten presente que esto limita la ejecución de la maquina virtual a estos cores, pero de
ninguna manera los reserva para esta maquina virtual en exclusiva. Ademas, estaras limitando el
tiempo de cpu que se puede dedicar a los diferentes hilos que componen la maquina virtual en
tiempo de ejecucion (worlds) por lo que es posible que termines viendo una merma del rendimiento
conforme los diferentes worlds compiten entre si por obtener recursos en caso de saturacion de los
cores a los que hemos limitado esa maquina virtual.
CPU affinity además, inhabilita la maquina virtual para ser manejada mediante la funcionalidad DRS
automatizada de un cluster y no puede ser habilitado en una maquina virtual que resida en un cluster
con DRS ya habilitado.
La recomendación general es que no utilices CPU affinity en tus maquinas virtuales pues puede
penalizarte más que los beneficios que te aporte. Además, CPU affinity es una funcionalidad
incompatible con vMotion y por tanto con DRS.
VRAM
La vRAM, o RAM virtual, es la cantidad de memoria del host que se asigna a cada máquina virtual
para trabajar y, en definitiva, la que este guest verá como disponible. Se puede asignar desde unos
pocos MB hasta 2TB de memoria RAM. La recomendación general es que se debe asignar a la
máquina virtual tanta memoria como vaya a utilizar, ni más ni menos. No es interesante asignar a un
equipo mucha más memoria de la que vaya a utilizar, pues estaremos perjudicando a las demás
máquinas virtuales en caso de que ocurra una situación de contención de recursos (falta de recursos).
Los discos duros virtuales de una maquina virtual se conectan mediante controladoras, al igual que
en un ordenador normal. Disponemos de diferentes tipos de controladoras de disco:
Seleccionaremos el nivel dentro del inventario en el que queremos crear nuestra máquina virtual. El
nivel más alto al que podemos crear una máquina virtual es el cluster. Si no tenemos un cluster,
crearemos la máquina virtual en un host. Las máquinas virtuales también pueden crearse en resource
pools, vApps y carpetas.
Para crear una máquina virtual, haremos click derecho sobre el objeto padre donde queramos alojarla
y haremos click en New Virtual Machine
Ahora se nos presentara un menú en el que veremos todas las formas que existen para crear una
maquina virtual.
Repasémoslas:
La forma tradicional y más manual de crear una máquina virtual. Se te pedirán los valores de
configuración de la máquina virtual para que luego procedas a instalarla, es como instalar un
servidor físico normal.
Se utiliza una máquina virtual que previamente has convertido en una plantilla. Suele estar ya
instalada y lista para configurar valores como el hostname o su IP. Facilita bastante los despliegues
de varias máquinas virtuales.
CLONE AN EXISTING VIRTUAL MACHINE
Puedes usar una máquina virtual ya existente para generar una clonándola. Tiene la ventaja de que
tiene el mismo contenido, pero el inconveniente de que las ips, hostnames, configuraciones, son las
mismas que las de la máquina que ya tienes. Puede haber conflictos de ips duplicadas, aplicaciones
compitiendo por conexiones, etc.
Con este método crearemos una plantilla o template a partir de una máquina virtual que ya tenemos
lista y preconfigurada. Es requisito para la opcion 2 de este menú.
Esta funcionalidad suele ser complementaria a la anterior. Dado que los templates o plantillas de
maquinas virtuales no se pueden encender, necesitamos convertir la plantilla a máquina virtual
normal cada vez que vayamos a introducir algún cambio en la misma, como por ejemplo, instalar
actualizaciones de sistema o meter nuevas versiones de software para disponer de ellas en futuros
despliegues.
En este curso de VMware 5.5 vamos a aprender a crear máquinas virtuales de forma tradicional, pero
es importante que conozcas TODAS las formas de creación de máquinas virtuales, incluidos los
despliegues con plantillas/templates y la personalización del despliegue usando herramientas como
sysprep. Si estás preparando el examen VCP, son preguntas de examen VCP.
Lo primero que se nos pedirá en el asistente de creación de máquinas virtuales será el nombre y
ubicación de la misma. Debemos dar un nombre por el que la vayamos a poder identificar. Este
nombre será también el nombre de la carpeta que se creará dentro del datastore para almacenar los
diferentes archivos que conforman la máquina virtual.
Como anteriormente hemos elegido el datacenter [Link], se nos presenta una lista de los objetos que
contiene. Yo he elegido el cluster laboratorio, pero puedes elegir el que se adapte a tus necesidades.
La siguiente pantalla nos muestra una selección de los diferentes datastores que tenemos disponibles
par almacenar nuestra máquina virtual. Elegiremos uno con suficiente capacidad disponible y
debemos tener presente si el resto de nuestros hosts tienen visibilidad del mismo, para
funcionalidades posteriores como HA, FT, vMotion…
La siguiente pantalla del asistente nos pregunta la versión del hardware virtual que queremos poner a
la máquina virtual. Esta elección, aparentemente sencilla, la hará compatible o incompatible con
hosts de versiones anteriores a la que seleccionemos. Además, según la versión del cliente vSphere
de Windows que utilices, podrás realizar o no acciones como editar las propiedades de la máquina
virtual. Como regla general, para mantenernos en el lado seguro, diremos que el Cliente vSphere de
Windows solo puede editar máquinas virtuales con hardware versión 8, equivalente a ESXi 5.0. Con
las últimas versiones del cliente vSphere, podremos editar máquinas con versión superior de
hardware, pero únicamente modificar los parámetros que ya existían en la versión 8 de hardware
virtual. Las nuevas capacidades de hardware v9 y hardware v10 no serán editables. El cliente Web
no tendrá problema para editar las máquinas virtuales de como máximo, su versión.
Elegiremos el tipo de sistema operativo que va a ejecutar nuestro guest. Recordemos que el guest es
la máquina virtual que estamos creando. En mi caso, he elegido Linux, y dentro de la familia Linux,
el sistema operativo Debian 7.
En esta pantalla se nos permitirá ajustar los parámetros que por defecto se recomiendan para el tipo
de máquina virtual que hemos seleccionado crear. Pregunta de examen VCP. En mi caso suelo
quitar la unidad de floppy, ya que nunca la utilizo.
En esta última pantalla revisaremos todos los parámetros antes de crear la máquina virtual. Si
estamos de acuerdo con todo, pulsaremos en Finish.
Una vez la máquina virtual está creada, haremos click derecho sobre ella y seleccionaremos Power
On para ponerla en marcha.
Nuestra máquina virtual ya está creada, pero carece de un sistema operativo que arrancar.
Pulsaremos el botón que se indica en la imagen para conectarle un archivo .iso en el que tendremos
nuestro sistema operativo.
Seleccionamos la opción Connect to CD/DVD image on a local disk, si lo tenemos descargado en
nuestro ordenador de escritorio.
La aplicación web solicitará permiso para acceder a nuestro ordenador, para poder montar la iso en
la máquina virtual como si de un CD se tratase.
Seleccionamos la iso que queramos instalar y pulsamos Open. En mi caso he usado una de lubuntu
para el ejemplo, aunque posteriormente he de confesar que me arrepentí y puse kubuntu para probar
KDE Plasma 5
Volveremos a la pantalla de Summary para esta vez vamos a fijarnos en un texto que pone “Launch
Console”. Haremos click sobre él. Es el equivalente a conectar un monitor y teclado a un servidor
tradicional. Desde aquí controlaremos la instalación del sistema operativo en la máquina virtual.
Vaya, la máquina virtual ya estaba arrancada y efectivamente ha detectado que no tenemos sistema
operativo en el disco duro. Como hemos conectado la imagen ISO a modo de CD con posterioridad,
vamos a mandarle un reinicio mediante el botón de Ctrl-Alt-Supr indicado en la imagen
Una vez pulsamos, podremos ver como esta vez si arranca desde la ISO y comienza la instalación
del sistema operativo.
Apagar la máquina virtual. Es requisito. Para convertir una máquina virtual preexistente en una
template, ha de estar apagada.
Pulsaremos sobre la máquina virtual apagada con el botón derecho del ratón y elegiremos la opción
Convert to Template. Esta opción puede estar dentro de All vCenter Actions en el Web Client.
¡OJO! Para ver las plantillas tenemos que ir al tab de VMs, ya que no aparecen en el de Hosts and
Clusters.
Haremos click en el icono de Home de vSphere Web Client, para posteriormente hacer click en
Customization Specification Manager
El asistente de creación de personalización de VMs nos pedirá inicialmente el sistema operativo que
vamos a personalizar. Puede ser Windows o Linux. Ten presente que no todos los Linux están
soportados.
La siguiente pantalla nos permite personalizar opciones de hostname y dominio de la máquina que
vamos a personalizar en tiempo de despliegue. Personalmente, creo que la opción más sensata es
elegir el mismo hostname que el nombre que vamos a dar en el inventario de vCenter a la máquina
virtual. Nos ahorrará confusiones para identificar nuestros equipos cuando el entorno crezca.
La siguiente pantalla no tiene ningún secreto y nos pide la zona horaria del equipo.
El siguiente paso es el de configuración de red. Podemos elegir que interfaces se configuran con
DHCP y cuales se configuran con una dirección estática o una combinación de ambos si tenemos
más de una tarjeta de red. El paso siguiente es también relacionado con la red y consistirá en
configurar los servidores DNS.
El paso final es el habitual de revisar los parámetros antes de finalizar la creación del guest
customization specification.
DESPLEGAR UNA PLANTILLA Y PERSONALIZARLA
Utilizando el guest customization specification que acabamos de crear, desplegaremos la plantilla.
Haremos click derecho encima de la plantilla y seleccionaremos Deploy VM from this Template
Se nos pedirá el nombre que queremos poner a la maquina virtual en el inventario.
El siguiente paso nos pide la ubicación de la máquina virtual.
A continuación, se nos pedirá el datastore donde queremos desplegar la máquina virtual.
El siguiente paso entra directamente en la personalización de la máquina virtual que estamos
desplegando.
Se nos permitirá elegir una especificacion de personalización de las que ya existen. En este caso,
elegiremos la que hemos creado en el paso anterior.
Revisamos los parámetros y aceptamos si estamos de acuerdo.
Hemos visto como desplegar maquinas virtuales desde una plantilla nos permite disponer de forma
ágil, de máquinas virtuales que nacen “iguales” ahorrándonos el paso de instalación del sistema
operativo, y que en cuestión de minutos, podemos disponer de varias maquinas virtuales con
diferentes hostnames, configuración de red, etc. Se trata de conceptos básicos, pero para quien no
quiera meterse en formas de despliegue más complicadas (Orchestrator), le servirá de sobra.
BORRAR MAQUINAS VIRTUALES
Para borrar una máquina virtual en VMware, haremos click derecho sobre ella y seleccionaremos
Delete From Disk. Si elegimos Remove from Inventory, la máquina virtual desaparecerá del
inventario de vCenter, pero permanecerá en el datastore intacta.
POWER STATES
Las maquinas virtuales en VMware pueden tener diferentes estados
Los snapshots son merecedores de un corto capítulo en el curso de VMware. Mal utilizados por
muchos, infravalorados por otros, y grandes ayudantes para la gente que realiza modificaciones
serias en sus máquinas virtuales y quiere disponer de una red para no tirarse al vacío realizándolos.
¿QUÉ ES UN SNAPSHOT?
Un snapshot es una instantánea que se toma de una máquina virtual en un momento en el tiempo. Al
crear un snapshot, creamos un punto de restauración en la máquina virtual, de manera que si, por
poner un ejemplo extremo, la formateamos dos minutos después, podemos recuperar todo con un par
de clicks.
Tenemos dos niveles de snapshots, que proporcionan una vuelta atrás más o menos completa:
Snapshot RAM + Disco Duro – Es el snapshot más completo que podemos hacer. Incluye la
memoria RAM del equipo, por lo que si hacemos uso de él, volveríamos al estado exacto del equipo
en el momento de realizarlo, incluidas las aplicaciones abiertas y su estado. Tarda en realizarse el
tiempo que se necesite para hacer un volcado de la memoria RAM a disco duro.
Snapshot solo Disco Duro – Es un snapshot inmediato, en el que guardamos el estado de los
bloques del disco duro. Volver a este snapshot supone reiniciar el equipo y perder el estado de las
aplicaciones que estuviesen ejecutándose cuando se tomó el snapshot.
¿QUÉ NO ES UN SNAPSHOT?
Un snapshot NO es un backup. No es una forma de hacer copias de seguridad. No es una forma de
Disaster Recovery. No es un business continuity plan. No es algo que haces porque sí.
En el menú que nos aparecerá, escribiremos el nombre del snapshot (busca algo identificativo que te
permita saber luego si lo puedes borrar)
También aparecerán dos opciones:
Snapshot the virtual machine’s memory – Es la opción para hacer snapshot también del
estado de la RAM del disco, permitiendo guardar el estado de las aplicaciones en ejecución. Tarda
más en realizarse, por lo que solo debes hacerlo cuando realmente te valga la pena.
Quiesce guest file system (Needs VMware Tools Installed) – Es una opción que hace que
las VMware tools ordenen una escritura a disco al sistema operativo de todos los datos que tenga
pendientes de escribir. Esto hace que los snapshots del disco tengan un mayor grado de consistencia,
aunque no proporciona consistencia a nivel de aplicación, como en el caso de algunas bases de datos.
Con estos dos pasos, ya hemos creado un snapshot de la máquina virtual. Si quieres, puedes probar a
borrar algunos archivos ahora que disponemos del snapshot.
Estás avisado de que el borrado de snapshots es una tarea MUY intensiva con el disco que implica
lecturas, escrituras y borrados. Procura hacerlos en horas valle de tu almacenamiento. También
debes saber que durante el proceso de borrado de snapshots la máquina quedará “atontada” en
algunos momentos y no puedes hacer nada para evitarlo.
Otra cosa muy importante y que lamentablemente todos aprendemos cuando un borrado de snapshot
está afectando al rendimiento de nuestro almacenamiento. Un borrado de snapshots NO SE PUEDE
CANCELAR.