0% encontró este documento útil (0 votos)
159 vistas179 páginas

Curso VM Ware

Este documento presenta un curso gratuito de VMware vSphere 5.5 que cubre temas como la instalación de ESXi, vCenter, tipos de almacenamiento, redes virtuales y máquinas virtuales. El curso busca preparar a los estudiantes para la certificación VCP de VMware aunque no sustituye la formación oficial. Se explican los conceptos y pasos necesarios para instalar y configurar ESXi, como establecer una IP estática y los parámetros de red y DNS. El curso continuará agregando nuevos capítulos sobre diferentes tem
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
159 vistas179 páginas

Curso VM Ware

Este documento presenta un curso gratuito de VMware vSphere 5.5 que cubre temas como la instalación de ESXi, vCenter, tipos de almacenamiento, redes virtuales y máquinas virtuales. El curso busca preparar a los estudiantes para la certificación VCP de VMware aunque no sustituye la formación oficial. Se explican los conceptos y pasos necesarios para instalar y configurar ESXi, como establecer una IP estática y los parámetros de red y DNS. El curso continuará agregando nuevos capítulos sobre diferentes tem
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

[Link]

es/curso-de-vmware-5-5/

CURSO DE VMWARE VSPHERE


5.5
18 noviembre, 2014VMwarecurso vcp, curso vmware, curso vsphere

El curso de VMware 5.5 que ofrezco en esta página es lo que dice ser, sin más. Un curso, que entra
en cierta profundidad en el manejo de VMware vSphere para que los que nunca han manejado una
plataforma virtualizada puedan sacar rendimiento a vSphere de forma guiada. Este curso está
realizado procurando tocar los objetivos del manual de certificación VCP de VMware, aunque
algunos objetivos que no se han incluido.

El curso de VMware 5.5 es 100% gratuito y procuro que sea lo más didáctico posible. En cualquier
caso, si encuentras cosas que no ves bien explicadas, que crees que podrían cambiarse, etc, soy
totalmente receptivo a sugerencias.

Este curso de VMware no sustituye de ningún modo a la formación oficial requerida para
presentarse a los examenes de certificación VCP, pero si puede ser un buen material de repaso para
aquellas personas que han terminado el curso oficial y desean montarse en su casa o trabajo un
laboratorio en el que realizar las prácticas.

A continuación, presento en orden los capítulos que se van haciendo públicos del curso de VMware
5.5

CURSO DE VMWARE VSPHERE 5.5


Tema 1 – Instalar ESXi 
Tema 2 – Instalar vCenter
Tema 3 – Tipos de Almacenamiento
Tema 4 – vSphere Web Client, Datacenters y Clusters
Tema 5 – Virtual Networking, VMkernels, vSwitches
Tema 6 – Almacenamiento compartido en VMware
Tema 7 – Maquinas Virtuales
Tema 8 – Snapshots
Y los que quedan por venir…

Q&A DEL CURSO DE VMWARE


¿Cuantos temas va a tener el curso de VMware?
Calculo que llegará a los 20. En todo caso, seguiré creando capítulos hasta que crea que he cubierto
en el curso de VMware la totalidad de herramientas necesarias para diseñar y administrar un entorno
virtualizado con VMware vSphere.

¿Puedes ayudarme con mi entorno?


Puedo atender consultas y hacer lo que esté en mi mano para ayudarte, pero mi tiempo es limitado y
no vivo de realizar consultorías.

¿Puedes conectarte a mi vCenter a ver que le ocurre?


Me temo que no puedo dar soporte a la gente con sus entornos. Permitir que alguien administre tu
entorno sin conocer a la perfección como está montado y por qué cada cosa está de cada manera
puede ser peligroso.

¿Es válido este curso de VMware si me quiero presentar a la certificación VCP?


No. Este curso no es oficial ni reconocido de ninguna manera por VMware. Aunque si tengo la
certificación de VMware, no soy instructor. Deberás atender a uno de los muchos (y muy buenos)
cursos de formación VMware que tenemos disponibles en España.

¿Qué hardware recomiendas para el curso?


A lo largo del curso vamos a utilizar:

 3 hosts ESXi (2 cores y 4GB de ram por cada uno te sirve)


 4 puertos gigabit ethernet en cada host (podrías usar solo uno adaptando algunos ejercicios)
 2 volumenes NFS exportados desde algún dispositivo de almacenamiento compartido.
CURSO DE VMWARE 5.5 –
INSTALAR ESXI
30 octubre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere,guia vcp, tutorial
vcp

DOCUMENTACION UTIL DURANTE


ESTE CURSO DE VMWARE
Aqui te dejo un enlace a la documentación de vSphere que puede ser (y será) realmente útil en tu
proceso de aprendizaje hacia la certificacion VCP.
Tambien te dejo un enlace al blueprint del examen VCP, donde se especifican los objetivos y
requisitos de conocimiento para presentarse y aprobar el examen de certificacion VCP.

CURSO DE VMWARE – PLANIFICAR,


INSTALAR ESXI Y CONFIGURARLO
En este primer capítulo de la guía para la certificacion VCP aprenderemos:

1. Requisitos de VMware ESXi


2. Instalar ESXi y configurarlo.
Antes de comenzar con la guia de certificacion VCP es necesario aclarar una serie de conceptos
básicos que iremos manejando a lo largo del curso. En posteriores comienzos de capítulos iremos
ampliando nuevos conceptos básicos según se vayan utilizando.

 Host: Es el servidor físico donde vamos a instalar ESXi. El contenedor físico de las
máquinas virtuales.
 Guest: Cada una de las máquinas virtuales que se ejecutan dentro de un host.
 NIC: Tarjeta de red. Es acrónimo de Network Interface Card. vmnic es el nombre que se da
a las tarjetas de red de VMware.
 LUN: Logical Unit Number, se trata de un contenedor de información en almacenamiento
compartido con tecnología SAN (Fiber Channel o iSCSI)
 DHCP: Protocolo de asignación dinámica de direcciones IP

REQUISITOS DE VMWARE ESXI


Para conseguir instalar ESXi en un equipo, necesitamos que cumpla como mínimo con los siguientes
requisitos:

 Al menos 1 CPU de 64 bit SOPORTADA.
 Al menos 2 cores.
 Al menos 4 GB de RAM.
 Al menos 1 tarjeta de red Gigabit o 10Gbe SOPORTADA.
 Al menos una controladora de disco soportada para el almacenamiento local
 Un dispositivo de arranque con un tamaño mínimo de 1GB.
 Soporte de las instrucciones LAHF y SAHF en la CPU (Load AH from Flags y Store AH
into Flags)
 Soporte del bit NX/XD en la CPU. Que esta opción esté activada en la BIOS.
 Soporte de instrucciones de virtualización en la CPU. En Intel, VT-x, en AMD RVI.
 5.2GB de espacio en LUN si arrancamos desde almacenamiento SAN.

INSTALAR ESXI
Para instalar ESXi 5.5 debemos como primer paso descarganos la iso de [Link]. La iso que
voy a utilizar para esta guía es VMware-VMvisor-Installer-201410001-2143827.x86_64.iso y es
descargable de forma gratuita al registrarse en la web de VMware.
Conectate con una consola (monitor y teclado) al servidor donde vas a instalar ESXi. Yo lo instalaré
dentro de mi host de laboratorio, como máquina virtual dentro de otra máquina virtual. Es lo que se
conoce como nested esxi o esxi anidado.
Una vez hayas grabado la iso de ESXi a un CD o a un Pendrive, conéctala al servidor y arranca
desde ella. Cada servidor tiene su forma de arrancar desde CD / USB y está fuera del ámbito de este
curso para la certificacion VCP entrar en particularidades de cada fabricante de hardware. Consulta
el manual del fabricante para más información.

Una vez haya arrancado la ISO, se te presentará la siguiente pantalla informándote de que vas a
comenzar la instalación (Pulsar ENTER):

A continuación deberás el acuerdo de licencia (Pulsar F11)


En la siguiente pantalla se te preguntará dónde quieres instalar ESXi. En mi caso es el primer disco
de 4GB disponible. Los demás los usaremos más adelante para VSAN. Seleccionamos el correcto
(se marca en amarillo) y pulsamos ENTER.

A continuación deberás elegir el idioma de tu teclado. Esto es importante para poner la contraseña en
caso de que incluya símbolos o caracteres no alfanuméricos. Selecciona Spanish y pulsa ENTER.
Introduce una contraseña para el host ESXi. La longitud mínima es de 7 caracteres. Después, tras
verificar que la has escrito correctamente tecleándola de nuevo en el renglón inferior, pulsa ENTER.

El siguiente paso verificará que tu equipo cumple los requisitos mínimos para la instalación, si se
encuentra algún problema verás un mensaje similar al siguiente, en el que indica que las
instrucciones de virtualización VT-x no están habilitadas en la BIOS. ¿Recuerdas que era
unrequisito de instalación? Si usas esxi anidado, puedes activarlo de la siguiente manera:
Seleccionas la VM con el ESXi, Edit Settings, Pestaña Options, CPU / MMU Virtualization, opción
de abajo del todo. Si no sabes lo que es esxi anidado, ignora esto último.
Se te pedirá confirmación antes de instalar ESXi en el disco que has seleccionado anteriormente, ya
que la instalación borra todo el contenido que había en esos discos anteriormente y los
reparticionará. Pulsamos F11

El instalador tiene un indicador de progreso y tarda unos cuantos minutos, dependiendo sobre todo
de la velocidad del almacenamiento al que estamos escribiendo. Es posible que a veces parezca que
se detenga, pero normalmente tarda entre 5 y 20 minutos en instalarse.

Cuando haya terminado, se nos presentará un diálogo indicando que se va a reiniciar el equipo.
Pulsamos ENTER para reiniciar.
Una vez haya terminado de reiniciarse el host, intentará obtener IP mediante DHCP. Esto lo hará un
poco menos cómodo de manejar y susceptible de cambios de IP no controlados. VMware
recomienda utilizar IPs estáticas para los hosts ESXi así que vamos a proceder con la configuración
de la red de gestión.
Pulsa F2 para acceder a Direct Console User Interface (DCUI). Es el sistema de menús de gestión
básica de ESXi. Podrás acceder a él tras teclear tu contraseña. El usuario es root.
A continuación nos dirigimos al menú Configure Management Network y seleccionamos Network
Adapters para asegurarnos de que la tarjeta de red usada para administración es la que queremos.
Este paso es opcional e innecesario si solo tenemos una tarjeta de red (no recomendado).
Después, vamos a IP Configuration y elegimos la opción Set static IP address and network
configuration, introduciendo los parámetros que queramos

A continuación, iremos a DNS Configuration e introduciremos los valores que necesitemos dentro de
nuestra red. Disponer de resolución DNS directa como inversa es muy recomendable y necesario
para algunas tareas. Configurar un servidor DNS interno queda fuera del alcance de este curso, pero
más adelante veremos algunas formas de prescindir del DNS dentro del vCenter.
Por último, iremos a Custom DNS Suffixes para introducir el nombre de dominio dns que vamos a
utilizar para nuestra infraestructura. Para mi laboratorio uso el dominio [Link], usa el que prefieras.

Ahora pulsaremos la tecla ESC y diremos que queremos aplicar los cambios pulsando Y.
Podremos ver como nuestro host ESXi comienza a responder a ping…

Para tu información, para todos los ejercicios que haremos a lo largo de este curso, he creado 3 hosts
ESXi diferentes. Hay que estar familiarizado con ellos así que te dejo una relación de los mismos:

 [Link] – [Link]
 [Link] – [Link]
 [Link] – [Link]

INSTALAR EL VSPHERE CLIENT


Una de las paradojas de las últimas versiones de vSphere es que puede administrarse desde web
mediante el vCenter, que a su vez está disponible como una máquina virtual (VCSA, vCenter
Appliance). Sin embargo, la herramienta básica de gestión para desplegar vCenter sigue siendo un
cliente de Windows.

Para instalar el cliente de Windows de vSphere, iremos a [Link] y una vez allí
haremos click en “Download vSphere Client”
Tras instalarlo como cualquier otro programa, lo abriremos y veremos el siguiente diálogo
Una vez introducidos los datos del host ESXi, daremos a login
Cuando nos salga el siguiente aviso sobre los certificados SSL, debemos decir que los aceptamos y
marcar la casilla para que ignore esto en un futuro. Los certificados SSL que estamos utilizando son
auto firmados y por eso nos avisa de que no son seguros. Para la mayoría de entornos, esto no nos
supone un problema.
Una vez conectados, el cliente nos recordará que estamos en modo Evaluación. Esto quiere decir que
durante 60 días vamos a disponer de la totalidad de funcionalidades de vSphere, tal y como serían si
tuviésemos una versión licenciada Enterprise Plus. Ten cuidado con esto, ya que una vez la
evaluación termina, el host se desconectará del vCenter y perderemos estas funcionalidades. NO
USES EL MODO EVALUACIÓN PARA HOSTS EN PRODUCCIÓN.

CONFIGURAR NTP EN ESXI


Es el momento de configurar la hora. ¿Por qué es tan importante la hora en un host ESXi? Porque
muchas de las funcionalidades de vSphere requieren que los hosts y demás componentes de la
plataforma estén sincronizados casi al segundo.

Seleccionaremos la pestaña Configuration del cliente vSphere y haremos click en Time


Configuration
Ahora pulsaremos en Properties, Botón Options y en General, seleccionaremos Start and stop with
host.
En NTP Settings, pulsaremos el botón Add e introduciremos un servidor de hora conocido. Si no
sabes ninguno, puedes probar a usar [Link]. Marcamos Restart NTP service to apply changesy
damos al botón de OK.

Marcamos por último NTP Client Enabled y pulsamos OK

Mientras la hora aparezca en color rojo, no estará sincronizada. No he podido obtener una captura de
la hora sin sincronizar, pero es un dato a conocer.
CONFIGURAR EL ACCESO SSH A ESXI
Otra de las cosas útiles que podremos hacer en ESXi tras la instalación es habilitar el acceso por
SSH. Podemos hacerlo desde la DCUI (Direct Console User Interface) o desde el cliente vSphere.
Vamos a ver como se hace de ambas maneras.

Para habilitar el acceso SSH via DCUI, haremos login con F2 como hicimos inicialmente para
configurar la red de gestión e iremos a Troubleshooting Options.

Una vez estemos en Troubleshooting Options, seleccionaremos Enable SSH para habilitar el acceso
SSH.

Este acceso nos será útil si queremos realizar resolución de problemas más avanzada o trabajar con
esxcli. esxcli no es un objetivo de la certificacion VCP, sino más bien de VCAP, por lo que no será
tratado en este curso.

Si preferimos utilizar el cliente vSphere de Windows para habilitar el SSH en ESXi, deberemos ir a
la pestaña Configuration, Security Profile, Services, Properties
Una vez allí, seleccionaremos SSH y pulsaremos el botón Options, para seleccionar luego la
opciónStart and stop with host y pulsar OK
HABILITAR, CONFIGURAR Y
DESHABILITAR HYPERTHREADING EN
HOSTS ESXI INTEL
Hyperthreading es una tecnología de Intel que permite, en determinadas circunstancias, obtener un
hilo adicional de procesamiento por cada core. En la práctica no supone una mejora de rendimiento
del doble, y en algunos casos específicos, puede hasta penalizar el rendimiento del host. Por ello,
debemos saber como habilitarlo y deshabilitarlo.
Para habilitarlo o deshabilitarlo, iremos a la pestaña de configuración en el cliente vSphere y, dentro
del panel de Hardware, pulsaremos en Processors, para posteriormente hacer click enProperties.

Te recomiendo utilizarlo salvo en casos específicos en los que tengas que analizar un problema
extraño de rendimiento de las CPUs. Por lo general el Hyperthreading suele aportar un 30% de
beneficio en rendimiento de CPU global.

CONFIGURAR LAS OPCIONES DE


RENDIMIENTO Y AHORRO DE ENERGÍA EN
VMWARE ESXI
Este apartado, al que mucha gente no presta demasiada atención, sirve para configurar el balance
entre consumo de energía y rendimiento que queremos obtener de nuestro host ESXi. Dependiendo
de como configuremos estas opciones, el host consumirá más energía, ofreciendo mayor
rendimiento, o consumirá menos, rebajando la potencia general del host. Para seleccionar una de las
opciones de ahorro de energía, nos dirigiremos a la pestaña Configuration, Power Management,
Properties. Elige la opción que mas te interese para tu entorno.

AJUSTE DE VALORES AVANZADOS DE


CONFIGURACIÓN EN ESXI
En este apartado aprenderemos a ajustar valores avanzados de ESXi, otro requisito para el examen
de certificacion VCP. Vamos a ajustar el modo en que se comparten paginas de memoria idénticas
entre máquinas virtuales. Sin entrar en mucho detalle, aprenderemos a realizar ajustes avanzados en
un host esxi con este valor. Si quieres más detalles puedes visitar el post sobre TPS, comparticion de
memoria entre máquinas virtuales en ESXi.
Para ajustar valores avanzados en el host ESXi, iremos a la pestaña Configuration,
Panel Software,Advanced Settings. El valor que vamos a ajustar se encuentra en la rama Mem del
arbol, y se [Link]. Pondremos el valor a 0 y pulsaremos OK. Este ajuste
en concreto puede necesitar que reiniciemos el host, hagámoslo antes de continuar.
Licenciar un host ESXi

IMPORTANTE, para el laboratorio de aprendizaje para la certificacion VCP es importante dejar el


modo evaluación, por lo que no debemos asignar una licencia gratuita. Sin embargo, es objetivo de
la certificacion VCP saber asignar licencias a un host, directamente y a través de vCenter. Veremos
ahora como asignarla directamente y en capítulos posteriores como hacerlo desde vCenter.
Para asignar una licencia a un host VMware ESXi, deberemos ir, dentro del cliente vSphere de
Windows, a la pestaña Configuration, dentro del panel Software, haremos click en Licensed
Features y finalmente haremos click en Edit.
Para asignar la licencia, haremos click en el botón Enter Key e introduciremos el código de licencia.
No te olvides de repetir el procedimiento y volver a asignar la licencia de evaluación para poder
tener todas las funcionalidades activas.
AGREGAR ALMACENAMIENTO EN ESXI
Nuestro host de momento no tiene ningún tipo de almacenamiento, ni local (propio del servidor) ni
compartido (en red). Estaría bien que le diesemos acceso a un disco local al menos para poder
comenzar a hacer cosas.

Iremos a la pestaña de Configuración, en la zona Hardware seleccionaremos Storage y haremos click


en Add Storage.
Seleccionaremos Disk/LUN y elegiremos un disco local de nuestro equipo. Es importante que nos
aseguremos de que se puede borrar todo el contenido del mismo.

Seleccionaremos el sistema de ficheros VMFS-5


Seguimos para adelante con los menús hasta que se nos pregunte el nombre del datastore. Si vas a
manejar mucho almacenamiento local, te recomiendo que los identifiques de la forma que puedes
ver en la captura. De esa forma sabes a que equipo pertenece, que es local, si es hdd o ssd, y su
tamaño.
Una vez terminemos el asistente, dispondremos de un datastore local en el que poder crear máquinas
virtuales más adelante.

CREACIÓN DE PUERTOS DE RED


Nuestras máquinas virtuales van a necesitar red para comunicarse entre sí y con el exterior (si lo
necesitan). En VMware podemos distinguir tres elementos básicos de red. vmKernels, vSwitches y
Portgroups.

Los vSwitches son el equivalente a los switches de red normales, mientras que los portgroups son
agrupaciones de “puertos de red” de máquinas virtuales que a su vez se conectan a vSwitches.

 Un vSwitch está compuesto por uno o varios uplinks, que corresponden con las tarjetas de
red físicas del host.
 Un Portgroup está compuesto por el conjunto de puertos virtuales que conectan las
máquinas virtuales a él.
 Un vmkernel es un puerto de uso exclusivo del host ESXi que realiza cualquier actividad de
entrada o salida de datos (almacenamiento, vmotion, fault tolerance, vsan, etc)
Para crear nuestro primer Portgroup, iremos a Configuration, Networking, Add Networking y
seleccionaremos crear un Virtual Machine Portgroup.

Podremos seleccionar un vSwitch ya existente (El de gestión que usamos para controlar la máquina)
o crear uno nuevo con otra tarjeta de red diferente.
Finalmente seleccionamos un nombre para el Portgroup y ya estará listo para que le conectemos
máquinas virtuales.
Para los laboratorios de este curso de VMware será necesario que dispongas de TRES hosts ESXi
diferentes. Realiza el ejercicio de configurar tú mismo los otros dos hosts.

Este es el final del primer capítulo de nuestro curso de VMware. Tras aprender a instalar ESXi, el
siguiente paso es aprender a instalar vCenter en el capítulo 02.
CURSO DE VMWARE 5.5 –
INSTALAR VCENTER
2 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere,guia vcp, tutorial
vcp

GUIA DE CERTIFICACION VCP


– INSTALACIÓN DE VCENTER PARA
WINDOWS Y VCENTER SERVER
APPLIANCE
Bienvenido al capítulo 2 de la guía de certificacion VCP. En este capítulo aprenderemos los
siguientes conceptos necesarios para la obtencion de la certificacion VCP de VMware:

 Identificar las diferentes versiones de vCenter y sus requisitos de funcionamiento.


 Instalar vCenter Server para Windows y configurarlo.
 Instalar vCenter Server Appliance y configurarlo.
vCenter Server es un componente fundamental de VMware vSphere y es utilizado para administrar
hosts ESXi así como el inventario de recursos que los rodean. vCenter Server existe en dos formatos.
Uno que puede ser instalado en versiones soportadas de Windows Server y otro denominado vCenter
Server Appliance que es una máquina virtual preconfigurada, ejecutando SUSE Linux. Ambos
proporcionan casi las mismas funcionalidades y no es necesario tener conocimientos de Linux para
manejar vCenter Server Appliance. En este curso de VCP aprenderemos a instalar vCenter Server en
un servidor Windows 2012, así como el vCenter Server Appliance.

IDENTIFICAR LAS DIFERENTES VERSIONES


DE VCENTER
En la versión 5.5 de vSphere existen tres versiones de vCenter:

 vCenter Server Essentials.


 vCenter Server Foundation.
 vCenter Server Standard.
Todas estas versiones incluyen los siguientes componentes:

 Management Service.
 Database Server.
 Inventory Service.
 vSphere Web Client.
 vCenter APIs and .NET Extensions.
 vCenter Single Sign On.
 vCenter Orchestrator.
 vCenter Server Linked Mode.

VCENTER SERVER ESSENTIALS


Se trata de una versión totalmente funcional de vCenter solo disponible cuando se adquiere un kit de
licencias vSphere Essentials (Essentials normal y Essentials Plus). Está orientada a pequeños
negocios con necesidades de virtualización. Su limitación principal es que solo puede gestionar hasta
3 hosts con hasta 2 cpus cada uno y que no pueden combinarse ni ser administrados de forma
conjunta junto con otras ediciones de vSphere, es decir, no puedes integrar hosts con licenciamiento
no Essentials en este vCenter.

VCENTER SERVER FOUNDATION


Es otra edición limitada de vCenter Server en la que puedes administrar hasta tres hosts máximo y en
la que adquieres funcionalidades de forma independiente para ahorrar costes.

VCENTER STANDARD EDITION


Se trata de la edición completa sin limitaciones de vCenter Server. Las únicas restricciones que
encontrarás en vCenter Server Standard son las limitaciones máximas del propio software, que van
hasta el manejo de cientos de hosts y miles de máquinas virtuales. Puedes consultar los máximos de
vCenter Server en el siguiente enlace [Link]
[Link]

REQUISITOS DE INSTALACIÓN DE
VCENTER SERVER
REQUISITOS DE VCENTER SERVER PARA WINDOWS
 Procesador de 64 bit Intel o AMD con 2 cores.
 Sistema operativo soportado (Windows 2008 o Windows 2012, ambos de 64 bit)
 DSN de 64 bit para vCenter Server y de 32 bit para Update Manager.
 12GB de RAM.
 100GB de disco para la instalación, con 40-60GB adicionales posteriormente.
 Tarjeta de red Gigabit.
vCenter para Windows puede utilizar como base de datos MSSQL Express si es un despliegue
pequeño de hasta 5 hosts o 50 VMs. Para despliegues mayores puede utilizar MSSQL Standard o
superior o una base de datos externa Oracle.

La instalación de vCenter Server para Windows está soportada tanto si se hace en una máquina física
como si se instala en una virtual.
REQUISITOS DE VCENTER SERVER APPLIANCE
(VCSA)
 Procesador de 64 bit Intel o AMD con 2 cores.
 70GB de espacio en un datastore ESXi.
 8GB de RAM para despliegues mínimos, hasta 10 hosts y hasta 100 VMs.
 16GB de RAM para manejar entre 10 y 50 hosts o 100-1500 VMs.
 24GB de RAM para manejar entre 50 y 100 hosts o 1500-3000 VMs.
 Tarjeta de red Gigabit.
vCenter Server Appliance puede utilizar como base de datos un vPostgres incluido en el propio
Appliance o una base de datos externa Oracle para manejar hasta 400 hosts y 4000 VMs
(dedicandole 32GB de RAM).

En ambos casos, es crítico dimensionar bien el tamaño de la base de datos y NO USAR los niveles
de estadísticas superiores a 1 salvo para resolución de problemas. Tener miles de gráficas
disponibles está bien, pero puede matar el rendimiento de la base de datos y y acabar afectando a
vCenter. Volveremos a este tema de las estadísticas más adelante.

INSTALAR VCENTER SERVER 5.5 PARA


WINDOWS
Lo primero que debemos descargar es la iso de vCenter de la web de VMware. Es gratuito para la
evaluación de 60 dias. Para nuestro laboratorio de certificacion VCP no necesitamos una cantidad
exagerada de hosts, así que la base de datos Microsoft SQL Server Express que viene con la ISO nos
servirá de sobra.

Una vez hayamos descargado la iso de VMware (yo voy a usar una llamada VMware-VIMSetup-all-
[Link]) la grabamos a DVD, USB o la montamos directamente en
Windows y ejecutamos el instalador que viene en el mismo.

Seleccionamos Simple Install y pulsamos el botón de Install. Esto lanzará de forma consecutiva los
instaladores de vCenter Single Sign On, vSphere Web Client, vCenter Inventory Service y
finalmente vCenter Server junto con vCenter Orchestrator. Recuerda que si pretendes usar vCenter
en un entorno de producción de más de 5 hosts o 50 máquinas virtuales, DEBES usar una base de
datos MSSQL Externa cuyo procedimiento de instalación te dejo enlazado.
INSTALACIÓN DE SINGLE SIGN ON
Se nos pedirá que seleccionemos una interfaz de red (una IP realmente) en la que configurar los
servicios
Realizará una validación previa antes de instalar Single Sign On
Ahora nos pedirá una contraseña para el ususario Administrator@[Link]. Guardala bien, será
tu usuario posteriormente para todo. Los requerimientos de complejidad de la contraseña te harán
elegir una contraseña complicada.

Debemos dar un nombre a nuestro “site” Se trata de un nombre por el que podremos identificar esta
instancia de Single Sign On. Yo lo llamaré [Link]

Proseguimos con la instalación hasta que esta parte termine.

INSTALACIÓN DE VSPHERE WEB CLIENT


Lo primero que nos aparecerá al ir a instalar vSphere Web Client es una petición de confirmación de
que el certificado SSL que usa nuestro Single Sign On es correcto. Lo aceptamos y la instalación
seguirá adelante hasta terminar sin preguntarnos nada más.
INSTALACIÓN DE VCENTER INVENTORY SERVICE
La instalación de vCenter Inventory Service comienza de forma automática tras la instalación de
vSphere Web Client y tampoco nos pedirá ningún dato en el transcurso de la misma.

INSTALACIÓN DE VCENTER SERVER PARA


WINDOWS
El instalador de vCenter Server es el último que se ejecuta con el Simple Install y lo primero que nos
preguntará es la licencia. Si no introducimos ninguna, vCenter se pondrá en modo evaluación con
todas las funcionalidades disponibles.
A continuación se nos pregunta por la base de datos. Utilizaremos la SQL Server Express que viene
con la ISO. Si vamos a hacer un despliegue para más de 5 hosts o 50 VMs, insisto una vez más en
que debes usar una instancia de MSSQL Server Standard y crear base de datos, usuarios, permisos,
esquema y dos DSN previamente.

Indicamos a vCenter que se ejecute con el usuario de Administrador


Normalmente en un despliegue en producción para un entorno grande, marcaremos la
opción Increase available ephemeral ports. No lo necesitaremos para nuestro laboratorio a lo largo
del curso de certificacion VCP.
La siguiente pantalla nos preguntará por el tamaño de nuestro inventario. Lo dejaremos en small, ya
que no vamos a acercarnos ni a los 100 hosts ni a las 1000 máquinas virtuales a lo largo de nuestro
curso de VMware vSphere.

Tras pasar de la encuesta de experiencia de uso, podemos pulsar el botón Install y se comenzará a
instalar primero SQL Server, luego la base de datos de vCenter y finalmente los servicios de vCenter
Server.
INSTALACIÓN DE VSPHERE UPDATE MANAGER
Update Manager es el componente que se encarga de gestionar las actualizaciones en vSphere. El
instalador nos preguntará lo primero de todo por las credenciales a utilizar para conectarse con
vCenter Server.
Posteriormente nos preguntará por la base de datos a utilizar. Nosotros vamos a utilizar SQL Server
2008 Express. Ten presente que si instalas Update Manager usando un MSSQL Server externo o
diferente al Express, Update manager NECESITA un DSN de 32 bit.

En las siguientes pantallas podemos recibir un aviso de poco espacio en disco. Para nuestro
laboratorio de certificacion VCP nos servirá de sobra con el espacio que tenemos.
INSTALACIÓN DE VSPHERE ESXI DUMP
COLLECTOR
ESXi Dump collector se encargará de recoger volcados de memoria a través de la red cuando un host
tiene problemas. La instalación nos preguntará en que modo queremos instalarlo. Para nuestro
laboratorio, lo instalaremos integrado con vCenter
Una vez más, tendremos que proporcionar nuestras credenciales, confirmando que el certificado SSL
es el que esperamos.
Podemos dejar el puerto por defecto y seleccionar una IP alcanzable en nuestra red para que el
servicio escuche en ella.

INSTALACIÓN DE VSPHERE SYSLOG COLLECTOR


Syslog Collector centralizará los logs de nuestros hosts en un único equipo. (requiere configuración
posterior en el lado de los hosts). Puedes aprender a configurar el envio de logs por red en ESXi en
esta otra entrada.
Los pasos para la instalación son similares a los del Dump Collector y salvo las credenciales,
podemos dejar todos los valores por defecto.

INSTALACIÓN DE VSPHERE AUTO DEPLOY


vSphere Autodeploy es una funcionalidad avanzada de vSphere que permite arrancar los hosts ESXi
directamente desde la red y configurarlos cada vez que arrancan. Está pensado para entornos muy
grandes y automatizados y convierte a vCenter en un componente muy sensible a proteger en caso de
un apagón y altera los planes de contingencia ante desastres. Más adelante, casi al final del curso de
certificación VCP veremos más sobre Autodeploy. Aceptamos los valores por defecto de la
instalación.

Aqui termina la parte referente a la instalación de vCenter Server para Windows de nuestro curso de
vmware. En la siguiente parte, vamos a realizar una instalación de vCenter Server Appliance

INSTALAR VCENTER SERVER


APPLIANCE 5.5
vCenter Server Appliance es una versión alternativa de vCenter Server que va cogiendo peso e
importancia en las últimas versiones de vSphere. Se trata de un appliance con SUSE Linux (no es
necesario tener conocimiento de Linux para usarlo, aunque si vendrá bien alguna vez) que se
despliega únicamente en forma de máquina virtual dentro de un host ESXi ya existente.
Para instalar vCenter Server Appliance en nuestro laboratorio de certificacion VCP, debemos
descargar primero la imagen del Appliance. Se trata de un archivo con extensión OVA que contiene
todo lo necesario para ser desplegado desde el vSphere Client de Windows. Yo usare la
versión VMware-vCenter-Server-Appliance-5.5.0.20200-2183109_OVF10.ova

Una vez descargado el .OVA de la web de VMware en modo evaluación, abriremos el cliente
vSphere Client de Windows y seleccionaremos el host donde queremos desplegar la maquina virtual
y buscaremos en el menú File, Deploy OVF Template

Buscaremos el archivo .OVA

Continuaremos hasta la pantalla de selección de almacenamiento. En mi caso tengo varios


almacenamientos, tanto locales como en red. Tu puedes instalarlo en un disco local de tu ESXi.
Se nos pedirá que seleccionemos un portgroup al que conectar la red del vCenter Server Appliance.
Seleccionaremos uno adecuado para que este vCenter pueda tener visibilidad con el resto de hosts
ESXi del entorno.

Seleccionaremos Power on after deployment y pulsaremos el botón Finish.


Una vez se haya terminado de desplegar y el primr arranque (tarda unos minutos), veremos en la
consola de VCSA una pantalla similar a esta. En ella nos indica la ip que debemos visitar para
empezar a configurar VCSA. Si no disponemos de DHCP en nuestra red, veremos una pantalla de
configuración de red previamente.
La configuración de VCSA se hace de forma íntegra mediante navegador web accediendo a la
direccion [Link] El usuario inicial para conectarse a VCSA es root / vmware
Tras aceptar la licencia de uso, lo primero que haremos (en mi caso al menos) es ponerle una
dirección IP fija, y a comentamos previamente que está entre las mejores prácticas el uso de
direccionamiento ip fijo para los hosts y servicios de vSphere, sobre todo vCenter. Para configurar la
ip fija, cancelaremos el asistente antes de nada, tal y como lo indica en el punto Configure Options.
Vamos a Network, Address y seleccionamos direccionamiento IPv4 estático, momento en el que
cambiará el menú para pedirnos todos los datos necesarios dentro de nuestra red.
Una vez lo tengamos todo rellenado, pulsaremos el botón Save Settings. Ten presente que si has
puesto una IP diferente, tendrás que cambiar la dirección del navegador, ya que la ip original no
seguirá siendo válida.
Volvemos a hacer login con root / vmware en la nueva IP de nuestro VCSA y lanzaremos
manualmente el Asistente de Configuración haciendo click en el botón indicado en la captura de
pantalla.
Elegiremos configuración personalizada para revisar todas las opciones que nos ofrece el asistente.
En VCSA solo podemos optar por usar la base de datos vPostgres integrada, o utilizar Oracle, que
permite alcanzar mayor número de hosts y VMs. En nuestro caso nos quedaremos con la integrada,
así que dejamos la opción embedded.
Single Sign On es un producto que puede instalarse conjuntamente con vCenter o en un equipo
separado. En la siguiente pantalla del asistente nos permite seleccionar si vamos a usar un Single
Sign On externo o el incorporado en VCSA. En nuestro curso de VMware vamos a utilizar la opción
embedded. Configuraremos una contraseña para el usuario Administrator@[Link] y la

recordaremos muy bien 


Si fuesemos a utilizar autenticación con Active Directory, daríamos aquí los datos de dominio y
usuario Administrador. No es el caso en nuestro curso de VMware así que seguiremos para adelante.
La sincronización horaria es MUY IMPORTANTE como ya dijimos antes. Hay bastantes cosas que
pueden ir mal si los relojes de nuestra infraestructura vSphere no están sincronizados, por lo que
debemos en todo momento intentar que tanto los hosts como máquinas virtuales, como servidores
externos auxiliares estén todos con la misma hora. La mejor de las opciones es siempre el uso de
NTP, y en caso de no estár disponible, mediante VMware tools.
Con este último paso, el asistente ya nos ha preguntado toda la información que necesitaba y puede
comenzar a configurar los servicios.
Una vez se hayan completado todos los pasos, cerraremos el asistente y realizaremos un par de
cambios adicionales en la web de configuración de VCSA:
Cambiaremos la contraseña de Administrador (root) de VCSA, la que acabamos de usar para acceder
a [Link]

Cambiaremos el número de días de caducidad de esta contraseña. En nuestro caso, desactivaremos la


caducidad de esta contraseña, directamente.
Por último, a mi siempre me gusta reiniciar VCSA tras el asistente de inicio. Podemos reiniciarlo
directamente desde la web de configuración en System > Reboot
Con esto termina el capítulo de instalación y configuración de vCenter de nuestro curso de VMware
orientado a la certificación VCP. En el siguiente capítulo repasaremos o aprenderemos una serie de
conceptos importantes sobre almacenamiento y redes necesarios para nuestros siguientes ejercicios.
CURSO DE VMWARE 5.5 – TIPOS
DE ALMACENAMIENTO
2 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere,guia vcp, tutorial
vcp

En este capítulo intermedio de nuestro curso de ayuda a la preparacion de la certificacion VCP de


VMware vamos a ver más a fondo conceptos fundamentales para el resto de nuestro curso de
vmware para preparar la certificacion VCP acerca del almacenamiento. No podemos continuar
profundizando en el curso de VMware vSphere sin conocer al detalle como funciona
elalmacenamiento en estos entornos virtualizados.

TIPOS DE ALMACENAMIENTO EN
VMWARE VSPHERE
Hasta ahora en el curso de VMware para preparar la certificacion VCP hemos visto que un host es el
encargado de ejecutar máquinas virtuales. Pero estas máquinas virtuales han de estar almacenadas en
algun tipo de medio físico. Diferenciaremos estos tipos de almacenamiento en tres:

 Almacenamiento local o DAS


 Almacenamiento NAS (Network Attached Storage)
 Almacenamiento SAN (Storage Area Network)
En el mundo de la vitualización, se conocen los contenedores de datos de máquinas virtuales como
Datastores (nombre común a los tres tipos de almacenamiento citados anteriormente).A continuación
veremos una descripción más en detalle de cada uno de estos tipos de almacenamiento y su utilidad.
Es fundamental para continuar con nuestro curso de VMware que no te quede ninguna duda con
respecto a este capítulo.

ALMACENAMIENTO LOCAL (DAS) EN


VSPHERE
El almacenamiento local se refiere a los dispositivos de almacenamiento que tiene conectados
directamente el host mediante una controladora de disco. Por ejemplo, en nuestro ordenador de
sobremesa, el almacenamiento local es el disco duro (o discos duros, en plural) internos que tenemos
dentro de la caja. En un portátil, sería el pequeño disco duro que lleva dentro de la carcasa. En un
host ESXi, serán aquellos discos duros que tiene conectados mediante un controlador soportado.
Por ejemplo, el almacenamiento conectado mediante USB no es utilizable por el host ESXi aunque
esté conectado directamente mediante un cable.
Así pues, si tenemos un servidor actuando como host ESXi, con 4 discos SAS de 300GB conectados
a una controladora RAID en ese mismo servidor, y configurados como dos RAID1, el
almacenamiento local de ese host serán 2 volumenes de 300GB que ESXi interpretará como discos
duros físicos, aunque entre medias la controladora esté duplicando la información a 4 discos
realmente.
Dentro de estos discos locales, crearemos por lo general un datastore (o varios) que será el
contenedor lógico de los datos de nuestras máquinas virtuales.

Las ventajas del almacenamiento local son el menor coste y el menor coste de administración.


Las desventajas del almacenamiento local son que impone una gran cantidad de limitaciones en
funciones avanzadas de vSphere como alta disponibilidad (HA) o DRS (entre otras).

ALMACENAMIENTO NAS EN VSPHERE


El almacenamiento NAS, también conocido como almacenamiento en ficheros, es un tipo de
almacenamiento conectado por red a los hosts ESXi utilizando protocolo NFS. En este caso,
debemos disponer de un equipo remoto, conectado mediante una red IP y a ser posible sin
enrutamientos de por medio, que es el responsable de servir los archivos de las máquinas virtuales a
los hosts ESXi mediante el previamente citado protocolo Network File Sharing. Se trata del
protocolo más sencillo para conectar almacenamiento compartido a hosts ESXi y en la actualidad
dispone de casi todas las ventajas que ofrecen los protocolos SAN más avanzados en ESXi.

En esta configuración, en el host esxi indicamos la IP del servidor NFS remoto, así como la ruta del
volumen compartido que queremos montar. Previamente, tendremos que haber autorizado en el
servidor NFS a este host para acceder en modo lectura o lectura y escritura, ya que es el sistema de
seguridad que maneja NFS. El volumen no ha de ser formateado ya que el ESXi accede directamente
a archivos que se manejan en el sistema de archivos propio del servidor NFS.

Las ventajas del almacenamiento NAS son que ofrece todas las funcionalidades avanzadas de
vSphere sin necesidad de invertir en equipamiento de Fibra Óptica. La configuración es sencilla y
rápida y el rendimiento es casi igual al del almacenamiento SAN. Otra ventaja de NFS es que es
menos sensible a la latencia que otros protocolos SAN.

Las desventajas del almacenamiento NAS son un peor escalado en entornos grandes, donde se
necesitan agrupar máquinas virtuales en función de sus patrones de acceso o la velocidad de acceso
es crítica. El tráfico de datos NFS no va cifrado, por lo que resulta más inseguro en entornos
sensibles.
ALMACENAMIENTO SAN EN VSPHERE
El almacenamiento SAN, también conocido como almacenamiento por bloques, permite a los
clientes conectados, en nuestro caso los hosts ESXi, acceder directamente a bloques de disco
existentes en el servidor de almacenamiento. Es, por decirlo de una forma resumida, una forma de
conectar mediante un cable de red o fibra óptica, discos duros que el host ESXi debe formatear y
administrar a nivel más bajo que en el caso de NFS. Los hosts ESXi pueden montar almacenamiento
SAN mediante uno (o varios) de los siguientes protocolos:

 iSCSI
Utilizando iSCSI podemos obtener las ventajas del almacenamiento con bloques (baja latencia,
mayor rendimiento) de la mano de una red IP convencional. Ambos extremos han de disponer de
permisos mutuos para que puedan comunicarse entre ellos. Además la conexión inicial puede ir
autentificada mediante contraseña bidireccional. Esto, sin embargo, requiere recursos extra
dedicados exclusivamente a la comunicación con el almacenamiento.
En una configuración típica iSCSI intervienen varios elementos:
 Iniciador: Es el componente del lado cliente que establece la conexión con el
dispositivo de almacenamiento en bloques. Puede ser un componente software o una tarjeta HBA
(Host Bus Adapter).
 IQN: Es el identificador único de cada uno de los dos extremos de la comunicación
iSCSI. Han de permitirse expresamente en ambos extremos.
 CHAP: Challenge Handshake Authentication Protocol, es un protocolo de cifrado
mediante clave compartida para establecer una comunicación de datos.
 FiberChannel o FC
Fiberchanel utiliza redes exclusivamente de fibra óptica, mediante unos switches especiales
denominados Fabric, para conectar almacenamiento en bloques a los hosts, mediante la utilización
de una tarjeta HBA en éstos últimos. En vez de tener IQN, en FiberChannel denominamos WWN
(world wide name) y el acceso se hace mediante una tecnica llamada Lun Masking, que previene la
visibilidad de los almacenamientos a determinados WWN.
 FiberChannel over Ethernet o FCoE es un estandar reciente para ofrecer almacenamiento
FiberChannel a través de redes Ethernet.
Todos estos tipos de almacenamiento tienen en común que lo que ofrecen es un espacio de datos que
el host tiene que formatear utilizando el sistema de archivos propio de VMware, el VMFS. Es por
esto, al disponer de acceso directo a disco, que se denomina almacenamiento en bloques, pues toda
la lógica del almacenamiento de los datos se delega en el host ESXi. En la actualidad, el sistema de
archivos VMFS va por la versión 5.60 y soporta todas las características propias de un sistema de
archivos para cluster, utilizando un tamaño de bloque grande para un sistema de archivos, de 1
Mbyte por defecto.

Para añadir almacenamiento iSCSI en VMware seguiremos el siguiente procedimiento:


Añadir un iniciador iSCSI por software en nuestro host
Apuntamos el IQN del iniciador, para dar permisos en el servidor iSCSI a este host. Cada fabricante
o proveedor de servidores iSCSI tiene una forma particular y diferente de configurar sus equipos o
software, acude al manual de tu servidor iSCSI para dar permisos al IQN del iniciador iSCSI del host
ESXi.

Añadimos un nuevo target estático, indicando la IP del servidor iSCSI y el nombre IQN del target
que hemos creado en el servidor iSCSI . Pulsamos en el botón CHAP y seleccionamos el usuario y
contraseña que hemos elegido para validar esta conexión.
Reescaneamos el HBA (Host Bus Adapter) para que busque nuevos dispositivos disponibles con los
datos que le hemos proporcionado.
Confirmamos que aparece el disco que esperamos

Vamos al asistente de Add Storage, elegimos DISK/LUN y agregamos el disco iSCSI que acabamos
de crear para el laboratorio del curso de VMware.
Se nos pedirá elegir el filesystem con el que se formateará el nuevo disco.

Seguimos adelante con el asistente hasta el final y ya tendremos nuestro nuevo datastore disponible
en esa LUN iSCSI.
THIN PROVISIONING Y THICK
PROVISIONING
Hay dos conceptos importantes que debemos conocer como son el thin y thick provisioning.
En inglés, thin es delgado y thick es grueso. Estos términos, en almacenamiento, se refieren a la
forma en que se dispone del espacio de disco.

Con Thin provisioning, podemos:


 Crear un único (o varios) archivos que ocupen más espacio del que tenemos disponible en el
datastore.
 Conseguir que la suma del espacio máximo de los archivos de un datastore sea mayor que el
espacio disponible en ese datastore.
 Utilizar de una forma más eficiente el espacio disponible en disco.
Con Thick Provisioning, cuando creamos un archivo de N gigas, esos N gigas se reservan
automáticamente para ese archivo.
Existen dos modalidades de Thick Provisioning. Lazy Zeroed y Eager Zeroed. Con Lazy Zeroed
thick provisioning, el espacio se reserva, pero no se llena de ceros (0). Resulta una forma de
provisionar espacio casi inmediata, aunque el espacio que va a tener ese archivo puede contener
datos previos de archivos que se hayan borrado o movido. Con Eager Zeroed thick provisioning,
TODO el espacio que vayamos a asignar a ese archivo o máquina virtual, se llena de ceros de forma
inicial, asegurando que tenemos un espacio de disco limpio, pero ralentizando considerablemente el
proceso de creación de la máquina virtual e impactando en diferente medida al almacenamiento que
tiene que soportar todos esos gigas de escrituras.
A primera vista, thin provisioning parece la panacea, pero resulta problemático por cuatro motivos:
 A nivel de costes, es muy atractivo leer que un datastore está al 80% cuando realmente tiene
asignados un 300% del espacio que realmente tiene.
 Maximiza la fragmentación de los archivos dentro del almacenamiento.
 No es compatible con Fault Tolerance.
 Las máquinas con thin provisioning tienen la capacidad de hacer que todas las máquinas de
ese datastore se caigan por una escritura no controlada a disco (empezar a escribir logs de forma
incontrolada cuando tienen disponible en la máquina virtual más espacio del que queda libre en el
datastore). En esa situación, todas las máquinas quieren escribir bloques nuevos que creen que tienen
disponibles, y se cuelgan al no ser posible encontrar donde por parte del almacenamiento.
CURSO DE VMWARE 5.5 –
DATACENTERS Y CLUSTERS
12 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere, guia
vcp, tutorial vcp, VCP

CURSO DE VMWARE PARA LA


CERTIFICACION VCP – VSPHERE WEB
CLIENT, DATACENTERS, CLUSTERS
En el cuarto capítulo del curso de VMware para la certificacion VCP vamos a repasar los diferentes
objetos que podemos encontrarnos en el inventario de vSphere. Estos objetos, si bien se organizan
jerárquicamente, no se utilizan únicamente para simple organización y utilizar algunos como forma
de organizar el inventario es un error grave como veremos posteriormente. Tras repasar estos
conceptos, añadiremos a nuestro recién instalado vCenter toda esa jerarquía de forma práctica.

En nuestro curso de VMware utilizaremos los siguientes nombres de objetos de inventario:

 Datacenter [Link]
 Cluster laboratorio
 Hosts
 [Link]
 [Link]
 [Link]
 Networks
 Master Gestion
 vMotion
 FT
 VSAN
 Datastores
 QNAP01-VM01
 QNAP01-VM02

DATACENTERS
Un Datacenter en vSphere es una entidad organizativa que agrupa diferentes objetos que interactúan
entre sí en vSphere. Un Datacenter agrupa cuatro jerarquías diferentes de objetos:

 Hosts y Clusters
 Maquinas virtuales y Templates
 Networks
 Datastores y Datastore Clusters
Dentro de un datacenter, no se pueden repetir los nombres de objetos de Networks niDatastores.
De esta forma, no podemos tener una red VSAN en un cluster y otra que se llame igual en otro
cluster, si ambos comparten el mismo datacenter. Igualmente, tampoco se pueden repetir los
nombres de datastores dentro de un mismo datacenter. Si que se puede, sin embargo, tener datastores
con el mismo nombre si se encuentran en diferentes datacenters lógicos. A lo largo de este curso de
vmware, cuando hablemos de datacenters, siempre estaremos hablando del nivel lógico del
inventario de vSphere, no de edificios donde alojar servidores.

CLUSTERS
Un cluster en vSphere es una agrupación de hosts ESXi con sus correspondientes máquinas virtuales
que actúan como una única unidad. A medida que vamos añadiendo hosts a un cluster, los recursos
de estos nuevos hosts pasan a integrar lo que conocemos como pool de recursos del cluster, haciendo
una bolsa única y conjunta de capacidad de computación. El cluster es objeto donde se configuran
cuatro funcionalidades importantes de vSphere que veremos más adelante. HA (Alta disponibilidad),
DRS (Distributed resource scheduler), EVC (Enhanced vMotion Compatibility) y VSAN (Virtual
SAN).

Pregunta de examen VCP5


Un cluster puede contener máximo de:

 32 Hosts.
 4000VMs.
 512 VMs por host.
 2048 VMs encendidas por datastore.

HOSTS
Los hosts, como ya hemos visto, son los servidores que hemos instalado con ESXi y que sirven para
virtualizar cargas de trabajo a modo de máquinas virtuales.

Pregunta de examen VCP5


Un host puede tener como máximo

 320 CPUs lógicas disponibles (incluyendo hyperthreading en procesadores Intel)


 16 nodos NUMA
 512 máquinas virtuales
 4096 vCPUs asignadas a VMs
 32 vCPUs por core

RESOURCE POOLS
Los Pools de Recursos (Resource Pools) son un conjunto de capacidades de memoria y CPU de que
disponen los hosts o clusters en vSphere. Los Resource Pools se utilizan con dos fines:

 Priorizar la utilización de recursos en momentos de contención


 Limitar el consumo de recursos de un conjunto de máquinas virtuales haya o no
contención.
Los Resource Pools NO SON una forma de organizar máquinas virtuales.
Pregunta de examen VCP5
Un Resource Pool puede contener un máximo de:

 1024 objetos
 8 niveles de jerarquía
 1600 resource pools por host
 1600 resource pools por cluster

DATASTORES
Los datastores son la representación del almacenamiento disponible en nuestra plataforma vSphere.
Un datastore es un espacio disponible para almacenar máquinas virtuales y los ficheros asociados a
ellas. Como vimos en capítulos anteriores, un datastore puede estar conectado mediante FC
(FiberChannel) o una red IP (NFS o iSCSI) o incluso ser un disco local del host. Sin embargo, de
cara a esxi, todos los datastores son iguales, sin importar la tecnología que haya por detras para
conectarlos al host. La existencia del concepto de datastore es esto precisamente, una capa que
unifica todos los almacenamientos para presentarlos por igual al host. Los datastores también pueden
agruparse en clusters como veremos posteriormente.

Pregunta de examen VCP5


 Un host puede tener máximo 2048 virtual disks
iSCSI
 256 LUNS por servidor de almacenamiento
 4 HBAs iSCSI, que usen un máximo de 8 tarjetas.
 1024 caminos (paths) hasta el almacenamiento iSCSI usando multipath.
 8 caminos a una LUN única
 64 targets iSCSI en las HBA de Gbit
 128 targets iSCSI en las HBA de 10Gbit
 256 targets iSCSI con la iniciadora iSCSI por software
NFS
 256 Mounts NFS
FiberChannel
 256 LUNS por almacenamiento FC
 64TB por LUN
 LUN id maximo 255
 32 paths a una LUN
 1024 paths totales
 8 HBAs de cualquier tipo
 16 puertos en esas HBAs
 256 targets por HBA
FCoE
 4 adaptadores software FCoE
VMFS
 64TB por volumen
 256 volumenes por host.
 64 hosts por volumen
 2048 VMs encendidas en un volumen único VMFS
 128 operaciones de vMotion concurrentes por volumen VMFS
VMFS5
 62TB Tamaño Maximo de RDM (Raw Device Mapping) virtual
 64TB Tamaño máximo de RDM físico
 1MB Tamaño de bloque VMFS5 nativo. Si se ha actualizado desde VMFS3, hereda el
tamaño de bloque original.
 62TB Tamaño de archivo máximo.
 130690 Número aproximado máximo de ficheros por volumen
VMFS3
 2TB menos 512bytes Tamaño máximo de RDM virtual y físico
 8MB de tamaño de bloque
 256GB de tamaño de archivo usando bloques de 1MB
 512GB de tamaño de archivo usando bloques de 2MB
 1TB de tamaño máximo de archivo usando bloques de 4MB
 2TB menos 512bytes de tamaño máximo de archivo usando bloques de 8MB
 30720 archivos aproximadamente por volumen.

NETWORKS
Las redes son el conjunto de tarjetas de red que agregamos a nuestras máquinas virtuales para
dotarlas de conectividad de red, así como los vSphere Distributed Switches (switches distribuidos) a
los que se conectan. Veremos más adelante lo que son los switches distribuidos, pero
puntualizaremos que dos máquinas virtuales están dentro de la misma Network si se encuentran
conectadas al mismo PortGroup dentro de un mismo Distributed Switch, aunque éste comprenda
varios hosts diferentes y las máquinas virtuales estén en ejecución en diferente host. Veremos los
máximos de configuración cuando nos metamos más a fondo con las redes.

Pregunta de examen VCP5


Tarjetas fisicas en el host
 24 tarjetas 1gb Intel e1000e
 16 tarjetas 1gb Intel igb
 32 tarjetas 1gb Broadcom tg3
 16 tarjetas 1gb Broadcom bnx2
 8 tarjetas 10gb NeXen nx_nic
 8 tarjetas 10gb Serverengines be2net
 8 tarjetas 10gb Intel ixgbe
 8 tarjetas 10gb Broadcom bnx2x
 Combinadas, 8 tarjetas 10gb y 4 de 1gb.
 4 puertos 40gb Mellanox mlx4_en
vSphere Switches
 4096 virtual network ports por host
 1016 puertos activos por host
 64 LAGS LACP por host
 32 Uplinks para LACP por host
vSphere Distributed Switch
 6500 puertos por Distributed switch en modo Static / Dynamic
 1016 puertos por Distributed Switch en modo Ephemeral
 60000 puertos en total por Distributed Switch
 60000 puertos de Distributed Switch por vCenter
 10000 Portgroups de Distributed Switch por vCenter del tipo Static / Dynamic
 1016 portgroups de Distributed Switch de tipo Ephemeral por vCenter
 128 Distributed Switches por vCenter
 16 Distributed Switches por host
 1000 hosts por Distributed Switch
 64 resource pools de red por Distributed Switch
 64 grupos LACP por Distributed Switch
vSphere Standard Switch
 512 puertos por cada Standard vSwitch
 1000 portgroups de Standard Switch por host

FOLDERS
Los folders son carpetas para agregar de forma lógica objetos del mismo tipo. Así pues, podemos
agregar maquinas virtuales bajo un nombre que nos resulte identificativo o incluso podemos anidar
carpetas dentro de carpetas siempre que se mantenga la premisa de que contengan el mismo tipo de
objetos. No se pueden mezclar carpetas de hosts con carpetas de maquinas virtuales por ejemplo.
También son receptores de permisos. Podemos asignar permisos de forma específica a todo lo que
esté contenido dentro de un folder. Los nuevos objetos que se vayan incorporando a esta carpeta
heredarán los permisos aplicados a ella.

VIRTUAL MACHINES
Las máquinas virtuales son contenedores dentro de los cuales ejecutamos un hardware virtualizado y
en las que podemos instalar sistemas operativos.

TEMPLATES
Los templates o plantillas son un tipo especial de máquinas virtuales que está listo para ser clonado y
replicado para crear nuevas máquinas virtuales. Un template no puede ser encendido, pero si
clonado, por ejemplo. Los templates pueden ser convertidos con un solo click a máquinas virtuales
para ser encendidos. Las máquinas virtuales han de estar apagadas para ser convertidas a template
con otro par de clicks.

La operación de crear nuevas máquinas a partir de un template se denomina “Deploy from template”
o “desplegar desde plantilla”. Esta operación clona el template como una nueva máquina virtual y
nos da la posibilidad de personalizar diversos ajustes, como las configuraciones de red, nombre del
host, etc si nuestro sistema operativo está soportado.

VAPPS
Las vApps son un conjunto de máquinas virtuales que se configuran para operar de forma conjunta.
Se pueden establecer dependencias en el orden de encendido, por ejemplo, o distribuirlas de forma
conjunta mediante un único archivo .ova

CONFIGURANDO NUESTRO
DATACENTER VSPHERE
Hasta ahora hemos hecho tareas de instalación de ESXi, vCenter y hemos revisado algunos
conceptos importantes a la hora de manejar una infraestructura virtualizada. Es hora de comenzar a
practicar lo que hemos ido aprendiendo. Vamos a configurar la jerarquía de nuestro datacenter tal y
como lo puse al comenzar esta entrada:

 Datacenter [Link]
 Cluster laboratorio
 Hosts
 [Link]
 [Link]
 [Link]
 Networks
 Master Gestion
 vMotion
 FT
 VSAN
 Datastores
 QNAP01-VM01
 QNAP01-VM02

CONECTAR A VCENTER
Vamos a intentar acostumbrarnos a utilizar todo lo posible el cliente web de vSphere, ya que es el
que está destinado a permanecer en un futuro. Veremos que hay aún cosas que no pueden llevarse a
cabo con este cliente. En esos casos concretos, utilizaremos el Cliente vSphere de Windows
tradicional.

Para conectar a vSphere Web Client, abriremos un navegador y pondremos la siguiente


direccion[Link]
Lo primero que hemos de hacer tras aceptar los avisos de SSL es descargarnos el plugin de
integración que puedes ver en la imagen. Es importante para utilizar la consola de las máquinas
virtuales desde el navegador y poder conectar imagenes .ISO o desplegar máquinas virtuales que
vienen en formato appliance .OVA / .OVF

Una vez hayamos instalado el plugin de integración, regresamos a la


dirección [Link] nos identificamos con el
usuarioAdministrator@[Link] que creamos durante la instalación de vCenter.
Una vez hayamos hecho login nos encontraremos con esta pantalla. Es el panel principal de
vSphere Web Client. En el podemos distinguir cinco áreas diferenciadas:

1. Navegador
Nos permite movernos por las diferentes áreas del inventario de vCenter.
2. Contenido
Nos muestra detalles del objeto que tenemos seleccionado.
3. Búsqueda
Nos permite buscar en el inventario de vCenter de forma rápida el objeto que deseemos, desde
máquinas virtuales a portgroups, hosts, clusters, carpetas, etc…
4. Información
Se divide en tres contenedores que nos muestran la siguiente información:
 Tareas
Nos muestra el conjunto de tareas que se encuentran en ejecución.
 Trabajo en curso
Nos muestra una relación de trabajos que nos encontramos realizando o hemos dejado para realizar
posteriormente.
 Alarmas
Nos muestra una relación de warnings o alertas que se encuentran activas en este momento.
5. Mensajes de vCenter
Nos muestra mensajes de información de vCenter, como por ejemplo licencias que van a caducar en
el ejemplo.
CREAR UN DATACENTER
Nuestro primer paso va a ser crear un datacenter en nuestro servidor vCenter. Ese datacenter se
llamará [Link], pero podemos darle el nombre que nos resulte más significativo para identificarlo.
Una buena idea es llamarlo como la ubicación física de los hosts que incluiremos dentro.

Para crear el datacenter en vSphere, haremos click en el inventario en vCenter y a continuación en


Datacenters.

Una vez estemos dentro de datacenters, pulsaremos el botón de Create new datacenter y le
daremos el nombre que hayamos elegido.
AÑADIR UN HOST A UN DATACENTER
Es hora de añadir nuestros tres hosts a este datacenter. Para ello, y sin salirnos de la ventana de
contenido de Datacenters, pulsaremos el botón de Add a Host.

La primera pantalla del asistente nos pedirá el hostname o dirección IP del nuevo host que vamos a
añadir a nuestro Datacenter.
El siguiente paso nos pedirá las credenciales del host (root y la contraseña que hubiésemos elegido
durante la instalación). También nos pedirá, antes de proseguir, que validemos el certificado SSL
auto firmado que presenta el host.

El paso Host Summary nos informa de la versión de ESXi que tiene instalada el host así como el
nombre del fabricante del hardware. En este caso, al tratarse de ESXi virtualizados, el fabricante
aparece como VMware.
En el momento de asignar la licencia, para nustro curso de VMware vamos a utilizar licencias de
evaluación de VMware, que son las que vienen por defecto y nos permiten disfrutar durante 60 días
de todas las funcionalidades de vSphere con el nivel de licenciamiento Enterprise Plus.

El siguiente paso Nos pregunta si queremos activar el LockDown Mode. El LockDown Mode es
una funcionalidad de seguridad de ESXi que desactiva los accesos directos mediante el cliente
vSphere de Windows, para que el servidor ESXi solamente sea administrable mediante vCenter o el
acceso físico por consola.
Finalmente se nos pedirá la ubicación donde queremos añadir este host. Aquí podríamos elegir un
cluster, si tuviéramos alguno configurado. Lo dejaremos tal cual y repetiremos el procedimiento para
el resto de hosts ESXi que vamos a utilizar en nuestro laboratorio durante este curso de VMware
para la certificacion VCP.

Podemos ver como las tareas se van ejecutando en el panel de tareas de la parte derecha de la
pantalla.
CLUSTERS DE VSPHERE
Como vimos anteriormente, el cluster es una entidad que agrupa hosts ESXi para crear un conjunto
agregado de recursos y habilitar diversas funcionalidades de vSphere. Vamos a crear nuestro cluster
llamado laboratorio, pero previamente vamos a aprender una serie de conceptos nuevos que
pertenecen al ámbito de los clusters VMware.

¿QUÉ ES EVC?
Te estarás preguntando ¿Qué es EVC? Bien, EVC es una funcionalidad de los clusters vSphere
destinada al vMotion (migración en caliente de máquinas virtuales) que permite establecer una
plantilla con el conjunto de instrucciones de CPU disponibles para los hosts de ese cluster. La
utilidad de EVC es clara cuando juntamos hosts con diferentes generaciones de CPUs dentro de un
cluster. Podemos tener hosts con CPU Xeon Sandy Bridge que tienen una serie de instrucciones
disponibles en la CPU. Pasados un par de años, compramos otro servidor, con procesadores Xeon
Ivy Bridge y lo queremos añadir al cluster. Para que las máquinas virtuales sean ejecutables dentro
de cualquiera de los hosts de este cluster, deben tener disponibles el mismo juego de instrucciones en
TODAS las CPUs en las que pueden ejecutarse. Al activar EVC con nivel Sandy Bridge,
recortaremos las funcionalidades disponibles de los nuevos servidores físicos Ivy Bridge, pero
podremos incluir estos últimos en un cluster previamente existente.

Es muy importante saber que EVC solo funciona dentro de un mismo fabricante. No podemos hacer
vMotion desde un host AMD a uno Intel ni viceversa. La recomendación general es mantener los
clusters siempre con el mismo tipo de procesadores, pero podemos juntar procesadores con un salto
de generación entre ellos sin mucho problema. Si dispones de procesadores con un salto de dos o
más generaciones entre ellos, es más conveniente separarlos en diferentes clusters para aprovechar
mejor las nuevas funcionalidades que van apareciendo con la evolución de las familias de CPUs.

¿QUÉ ES VMOTION?
vMotion es la capacidad de mover una (o varias) máquinas virtuales encendidas desde un host físico
a otro diferente sin necesidad de apagarlas ni planificar ninguna ventana de mantenimiento. Todo el
proceso es transparente totalmente para el usuario y se realiza de la siguiente forma:
Copia inicial de la memoria RAM de la máquina origen a destino. En el momento de comenzar esta
copia se comienzan a almacenar los cambios que se realizan en memoria RAM en el origen, para
transferirlos en siguientes copias de menor tamaño. Cuando estas copias han terminado, se transfiere
el estado y registros de CPU para esa máquina virtual desde el host de origen al destino y se
suspende durante una fracción de tiempo la máquina virtual en el origen, para pasar a ejecutarse en
el destino. Todo, la ejecución de programas, transferencias de red, etc, sigue funcionando sin
enterarse de que ha pasado de un servidor físico a otro.

¿QUÉ ES DRS?
DRS, o Distributed Resource Scheduler es una funcionalidad de vSphere que permite automatizar (o
no) el reparto de carga entre los diferentes hosts de un cluster mediante la utilización de vMotion y la
configuración de diferentes umbrales de agresividad a la hora de repartir la carga. DRS se ejecuta
cada cinco minutos y analiza las cargas de trabajo de los diferentes hosts que componen un cluster.
Si observa que el nivel de desigualdad de utilización es superior al que hemos establecido, invocará
acciones de vMotion en el cluster para repartir esta carga y dejar el cluster lo más nivelado posible.

DRS permite además establecer una serie de reglas de afinidad o anti afinidad que nos permitirán
asegurarnos de que una máquina virtual está separada en un host físico diferente de otra que
desempeña el mismo rol, por ejemplo, para asegurarnos que no se nos cae todo de golpe con un
único fallo de host físico. Veremos todas estas reglas más adelante.

Una característica extra de DRS es DPM, Distributed Power Management, que permite vaciar
mediante vMotion hosts que no se necesitan para la carga de trabajo actual del cluster. Esto permite
ahorro de energía al prescindir de servidores encendidos en periodos de poca utilización, como por
ejemplo por las noches.

¿QUÉ ES HA?
El concepto HA dentro de VMware se refiere a alta disponibilidad de máquinas virtuales. HA es una
funcionalidad que actúa a nivel de cluster que permite que, en caso de fallo de un host, las máquinas
afectadas (disponiendo de almacenamiento compartido visible por todos los otros hosts del cluster)
se reinicie sola en otro host que haya sobrevivido a la caída. Podemos configurar VMware HA para
que monitorice a más bajo nivel el comportamiento de la máquina virtual y la reinicie en caso de
que, aunque su host no sufra contratiempos, el sistema operativo se cuelgue, por ejemplo.

¿QUÉ ES VSAN?
VSAN es una tecnología de almacenamiento distribuido entre hosts ESXi que VMware ha
presentado a finales de 2013. La idea detrás de VSAN es utilizar una mezcla de almacenamiento
SSD y discos duros tradicionales instalados en servidores físicos separados para crear un cluster de
almacenamiento con tolerancia a fallos y aceleración mediante tecnología Flash. Veremos en más
detalle esta tecnología más adelante.

CREAR UN CLUSTER DE VSPHERE


Vamos con la creación de nuestro cluster para el laboratorio del curso VMware para la certificacion
VCP. Manteniéndonos en la misma ventana de propiedades de Datacenters, pulsaremos el botón
de Create New Cluster.

En la pantalla de creación del cluster tenemos opción de activar las siguientes funcionalidades de
vSphere: DRS, HA, EVC y VSAN. De momento las dejaremos todas desactivadas.

Volvamos a la página inicial del inventario y hagamos click sobre Clusters.


 

Veremos que ya tenemos disponible nuestro nuevo y flamante cluster con una capacidad de… 0
Ghz. De poco nos va a servir este cluster si no tiene recursos, así que vamos a añadirle nuestros tres
[Link] ello, pulsaremos el botón de Move Hosts Into Cluster.

Ahora seleccionamos los hosts que vamos a incorporar a nuestro cluster y con pulsar OK, los hosts
se comenzarán a agregar a nuestro cluster.
Podremos ver como los recursos de los hosts se han incorporado a nuestro cluster laboratorio.

Una pregunta de examen VCP es el máximo de hosts que permite un cluster vSphere. En la versión
5.5 es de 32 hosts. En vSphere 6 está previsto que sean 64.
Con esto terminamos el cuarto capítulo del curso de VMware para la certificacion VCP. En el
siguiente capítulo agregaremos almacenamiento compartido a todos estos hosts y configuraremos
VMkernels que nos permitirán activar las funcionalidades avanzadas como vMotion, etc. También
habilitaremos funcionalidades extra en nuestro cluster laboratorio.
CURSO DE VMWARE 5.5 –
VIRTUAL NETWORKING,
VSWITCH
17 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere, guia
vcp, tutorial vcp, VCP

VIRTUAL NETWORKING –
VMKERNELS,
PORTGROUPS, VSWITCHES
En este quinto capítulo de nuestro curso de VMware para la certificacion VCP vamos a configurar
nuestros hosts ESXi, aprendiendo lo que son los VMkernels, vSphere Standard vSwitch, vSphere
Distributed vSwitch y configurando los VMkernels necesarios para vMotion, Fault Tolerance y
VSAN, funcionalidades que veremos en posteriores capítulos.

CONFIGURAR LA RED EN VMWARE


VSPHERE
La base principal de la comunicación en VMware pase por los vSwitches. Disponemos de dos tipos
de vSwitches que veremos a continuación.

VSPHERE STANDARD VSWITCHES


Los Switches Standard de vSphere son una entidad propia de cada host vSphere y se utilizan para
comunicar las máquinas virtuales con el exterior utilizando los adaptadores de red físicos del host.
Un vSphere Standard vSwitch (VSS a partir de ahora) se compone de physical adapters (mínimo 0) y
permite conectar a el dos tipos de objetos. Portgroups y VMkernels.

VSPHERE DISTRIBUTED VSWITCHES


Los Switches Distribuidos de vSphere (Distributed vSwitch o DVS). Los Distributed Virtual Switch
permiten simplificar enormemente la gestión y configuración de redes en un entorno con varios hosts
ESXi. Para configurarlos, se crea el DVS y se asignan las tarjetas de red que queramos de una serie
de hosts. Automágicamente, se creará un switch en todos esos hosts que compartirá siempre la
misma configuración, eliminando posibilidades de error por la creación manual de puertos, etc. DVS
tiene ventajas añadidas como la creación de puertos LACP, Monitorización por Netflow de los
puertos de las máquinas virtuales, pero sinceramente para mí la mayor ventaja es la facilidad de
administración y comodidad a la hora de añadir hosts nuevos a tu infraestructura. DVS está
disponible solo con el licenciamiento VSAN y Enterprise Plus.
VIRTUAL MACHINE PORTGROUPS
Son objetos que tienen como misión proporcionar conectividad entre las máquinas virtuales de un
host y los vSwitches configurados en ese host. Un Porgroup puede ser Standard o Distribuido. En un
Virtual Machine Portgroup podemos configurar VLANs, reglas de seguridad, Traffic Shaping y NIC
Teaming

VLANS
Sirven para etiquetar el tráfico de red con una marca especial que hace que solo sea visible para las
máquinas virtuales conectadas a ese portgroup o a otras que tengan configurada esa VLAN. Las
VLANs pueden quedarse dentro del ámbito de los vSwitches o propagarse más arriba a través de los
switches físicos de la capa de electrónica de red si se configuran estas VLANs en ellos.

SECURITY
Podemos configurar las siguientes reglas de seguridad de forma individual en cada Virtual Machine
Portgroup

 Promiscuous Mode (aceptar / rechazar)


Al activar esta opción permitimos que una máquina virtual conectada a este Virtual Machine
Porgroup pueda poner su interfaz de red en modo promíscuo, capturando todos los paquetes de red
que lleguen a ese Virtual Machine Porgroup en particular. Puede ser util para la resolución de
problemas o la instalación de un sistema de detección de intrusiones (IDS).
 MAC Address Changes (aceptar / rechazar)
Al activar esta opción, permitiremos que las máquinas virtuales de dentro del Virtual Machine
Portgroup cambien su dirección mac desde alguna aplicación o el propio sistema operativo. Puede
sernos util a la hora de montar un bonding / teaming en un equipo.
 Forged Transmits (aceptar / rechazar)
Al activar esta opción estaremos permitiendo que de la máquina virtual salgan paquetes marcados
con una dirección MAC de origen diferente a la que tiene asignada esa máquina virtual. Yo solo he
tenido que hacer esto a la hora de realizar simulaciones para resolución de problemas.
TRAFFIC SHAPING
Nos permite limitar el ancho de banda que puede consumir este Virtual Machine PortGroup de tres
maneras diferentes:

 Average Bandwidth
Es el ancho de banda medio que permitimos que fluya por este Virtual Machine Port Group, medido
en kilobits por segundo.
 Peak Bandwidth
El ancho de banda máximo que permitimos que alcance este Virtual Machine Port Group en
cualquier momento, medido en kilobits por segundo.
 Burst Size
La cantidad de kilobytes que permitimos un pico de tráfico antes de penalizar el ancho de banda
aplicando el traffic shaping. Este parámetro se aplica siempre que no se haya superado el ancho de
banda medio establecido en la primera limitación y puede llegar hasta el valor de Peak Bandwidh
siempre y cuando haya ancho de banda disponible en el interfaz.
NIC TEAMING
En el menú de configuración de NIC Teaming dentro de un Virtual Machine Portgroup nos
encontramos con dos bloques de opciones configurables:

POLICY EXCEPTIONS

 Load Balancing – Nos permite establecer opciones de balanceo de carga entre dos o más
tarjetas de red físicas.

 Route based on the originating virtual port ID


Balanceará la carga tomando como parámetro el puerto virtual al que se conecta la VM dentro del
Virtual Machine PortGroup. Tomemos el siguiente ejemplo:
 Tenemos VM1 con identificador en el inventario de su puerto de red 001,
VM2 con identificador 002, VM3 con identificador 003. Si tenemos 2 tarjetas de red, comenzará
asignando el tráfico de VM1 por la NIC1, el de VM2 por la NIC2, el de la VM3 por la NIC3, por
ejemplo. Los ID de los puertos no siempre son correlativos, pero el balanceo de carga debería ser
siempre estable en lo que se refiere a VM – NIC física. Es similar al siguiente pero se controla
mejor por donde va el tráfico de cada máquina virtual.
 Route based on IP hash – Este balanceo de carga tomará los parámetros de
dirección IP de origen y dirección IP de destino para aplicarles un hash (una operación).
Dependiendo de ese resultado, enviará el tráfico por una tarjeta de red u otra. En este escenario (y
siempre que haya más de una dirección IP generando tráfico), el tráfico se enviará de forma activa
por todas las tarjetas de red incluso aunque solo haya una máquina virtual. Se suele utilizar para
balancear el ancho de banda en servidores capaces de saturar el ancho de banda de una única
interfaz.
 Route based on source MAC hash – Este modo de balanceo tomará como factor
de decisión la dirección MAC de la tarjeta de red de la máquina virtual que envía el tráfico. Si una
máquina virtual tiene más de una tarjeta de red virtual conectada, podría enviarse el tráfico de
forma activa por más de un interfaz físico del host. En caso contrario, es similar al caso 1.
 Use Explicit failover order – En este modo de balanceo, especificamos en el
bloque de opciones 2 (Failover Order) cuales van a ser las tarjetas de red físicas del host que van a
usarse de forma activa, mantenerse en espera para un caso de fallo, o directamente por que tarjeta
de red física no vamos a mandar nada de tráfico nunca.
 Network  Failover Detection – Establece los métodos y criterios para detectar la caida de
un interfaz de red físico de un host ESXi.
 Link status only – La caida del enlace físico de la tarjeta de red del host ESXi es la
que hace considerar al host que no tiene conectividad y que debe hacer el cambio a la tarjeta de red
de StandBy (si la hubiera).
 Beacon probing – Es una modalidad de detección de problemas de red en la que
podemos detectar el mal funcionamiento de una tarjeta de red incluso si no pierde el enlace físico.
Funciona mediante el envío de paquetes de broadcast desde todas las tarjetas de red pertenecientes
a un mismo team (grupo de nics agregadas). El switch, al recibir estos paquetes, está obligado a
retransmitirlos a todos los puertos de red que tiene conectados. De esta forma, si ESXi detecta que
le faltan los broadcasts de una tarjeta de red la marcará como caida y utilizará las demás. Este
método de prueba está recomendado con al menos tres interfaces de red dentro de un mismo team,
para que ESXi pueda determinar que falla una de ellas (las otras dos se ven entre sí, pero no ven a
la tercera que se ha caido). Esta modalidad NO DEBE USARSE cuando usamos balanceo
mediante hash IP.
 Notify Switches – Si activamos esta opción, al hacer un failover de tarjeta de red (activar la
secundaria porque hemos perdido la primaria), ESXi enviará paquetes falsos supuestamente
originados en las máquinas virtuales que acaban de cambiar de tarjeta de red física, de manera que
los switches actualicen sus tablas ARP y acepten sin problemas el tráfico de esas máquinas virtuales
en un nuevo puerto físico.
 Failback – Con esta opción seleccionamos si queremos que una tarjeta de red, tras volver a
considerarse como activa (recuperar el link, por ejemplo) vuelva a entrar en funcionamiento de
forma inmediata. Un caso típico en el que podríamos querer tener esta opción a NO, es cuando
estamos haciendo trabajos de red en un switch y una de las NICS, conectada a este switch, va a estar
flapeando (levantandose y cayendose) durante un periodo de tiempo.
FAILOVER ORDER

Nos permite configurar las interfaces físicas del vSwitch a las que se conecta el Virtual Machine
Portgroup para establecer uno de los siguientes escenarios:

 Activo-Activo
Todas las tarjetas de red que coloquemos en este grupo se considerarán activas y serán candidatas a
enviar tráfico de las máquinas virtuales en condiciones normales.
 Activo-StandBy
El tráfico se moverá solo por las tarjetas de red que coloquemos en el grupo Active y las que
asignemos al grupo StandBy quedarán disponibles para entrar en funcionamiento en caso de que
haya un problema de red que cause que las activas dejen de estar disponibles.
 Unused
Nos permitirá especificar tarjetas de red del vSwitch al que se conecta el Virtual Machine Porgroup
que deseamos dejar SIN USO de forma específica, porque queremos dedicarlas a otros menesteres,
por ejemplo.
Realiza este ejercicio solo si tienes más de una tarjeta de red en tu host. Si solo tienes una
tarjeta de red, tu host ESXi ya tendrá un Virtual Machine Portgroup que utilizaremos más
adelante y deberás obviar los ejercicios de Distributed Virtual Switch, adaptándolos a
Standard Virtual Switch (Creando vmkernels y Portgroups en tu único vSwitch0).
A continuación crearemos un Virtual Machine Portgroup en uno de los hosts que hemos añadido a
nuestro cluster del laboratorio del curso de VMware.

Seleccionaremos un Host en el inventario e iremos a Manage > Networking > Virtual Switches, para
hacer click en el botón de Add Networking, seleccionando Virtual Machine Port Group for a
Standard vSwitch
A continuación elegiremos crear un nuevo Standard vSwitch
Seleccionaremos las nics que queramos asignar a nuestro VSS
Las ordenamos en función de que queramos utilizarlas en modo activo, pasivo o dejarlas sin uso de
momento.
Continuamos el Asistente de creación poniendo un nombre al nuevo Virtual Machine Portgroup y
finalizamos.

Si hacemos click en el nuevo vSwitch que hemos creado, veremos las tres tarjetas de red que tiene
asignadas, las dos que tiene activas y la otra sin uso (de forma genérica para todo el vSwitch)
Ahora vamos a crear un segundo Portgroup en el vSwitch 1 y vamos a hacer que su tráfico vaya
solamente por la vmnic3, que hemos dejado sin uso en el Portgroup anterior.
Tras crear un nuevo Virtual Machine Portgroup y seleccionar vSwitch1 como el vSwitch al que
vamos a asignarlo, haremos click en su nombre y pulsaremos el botón de Editar
En la sección de configuración de Teaming and Failover, podemos hacer un override de la
configuracion por defecto del vSwitch 1 (que dice que por defecto todos los portgroups conectados a
él usan la vmnic1 y vmnic2 de forma activa / activa) y seremos capaces de subir vmnic3 desde
Unused adapters hasta Active y bajar las otras dos a [Link]én aquí podremos cambiar las
opciones de balanceo de carga, detección de fallos, etc que explicabamos anteriormente. En el caso
de este Virtual Machine Portgroup no tiene mucho sentido ya que solo tiene la vmnic3 como punto
de comunicación con el exterior, así que de poco nos serviría el load balancing. Sin embargo si
podríamos aplicarlo al penúltimo portgroup que creamos, que sí tenía dos interfaces activas.

Elimina el vSwitch1 que acabamos de crear, seleccionándolo y pulsando el botón Remove Selected
Standard vSwitch.
Confirmamos la eliminación del vSwitch 1

VMKERNELS (VMK)
Los VMkernels son interfaces especiales que permiten la conectividad únicamente del HOST
ESXi. Se utilizan para diversas funciones, como administración, vMotion, Fault Tolerance, VSAN,
Replicación y Almacenamiento pero única y exclusivamente por parte del HOST ESXi.
Se pueden tener varios VMkernels por host ESXi, pero deberemos tener como mínimo  para la
administración remota de ese host ESXi. Los VMkernels funcionan utilizando IP como protocolo de
comunicación, tanto ipv4 como ipv6, aunque existen algunas limitaciones al utilizar ipv6 en los
VMkernels.

CREACIÓN DE UN DISTRIBUTED VIRTUAL


SWITCH (SWITCH DISTRIBUIDO O DVS)
El resto de ejercicios del curso de VMware los realizaremos utilizando Distributed Virtual Switch,
así que vamos a crear un DVS con las tarjetas de red de que dispongamos en nuestro laboratorio. En
mi caso los hosts esxi tienen 7 tarjetas de red distribuidas de la siguiente forma:
 vmnic0 – Gestion, tráfico de VMs y Almacenamiento
 vmnic1 – vMotion
 vmnic2 – vMotion
 vmnic3 – Fault Tolerance
 vmnic4 – Fault Tolerance
 vmnic5 – VSAN
 vmnic6 – VSAN
Si dispones de solo dos tarjetas de red, te recomiendo agrupar por un lado vMotion, FT y VSAN y
por otro Gestión, Almacenamiento y Servicio.(lo óptimo es dejar almacenamiento apartado en una
nic propia, pero no en nuestro laboratorio del curso de vmware no vamos a mover barbaridades de
tráfico, así que nos servirá).

Para crear un Distributed Virtual Switch iremos en el vSphere Web Client a la pantalla principal
Home y elegiremos Networking

Haremos click derecho encima de nuestro Datacenter y elegiremos la opción de New Distributed
vSwitch
Elegimos un nombre para nuestro Distributed vSwitch. Este será el primero de tres Distributed
vSwitches que vamos a crear para vMotion, FT y VSAN.
Seleccionamos la versión 5.5.0 de Distributed vSwitch para disponer de todas las características que
aporta la última versión.
Seleccionamos 2 uplinks para nuestro Distributed vSwitch
Al finalizar el asistente podremos ver que aparece un nuevo elemento de red en nuestro inventario de
objetos de red, el Distributed vSwitch que vamos a dedicar a vMotion

Ahora vamos a agregar hosts a este Distributed vSwitch haciendo click derecho sobre él y pulsando
Add and Manage hosts
En el asistente, seleccionamos Add Hosts
Añadimos los hosts de nuestro laboratorio del curso de vmware pulsando en el botón New hosts
Seleccionamos Manage Physical Adapters para agregar a este Distributed vSwitch las tarjetas de red
de cada host correspondientes a este Distributed vSwitch
Seleccionamos los uplinks que queremos para este Distributed vSwitch y pulsamos el botón de
Assign uplink. En el caso de mi laboratorio, asignaré vmnic1 al uplink 1 y vmnic2 al uplink 2.
Repetimos la operación con el resto de hosts.
La siguiente ventana nos analizará el impacto que puede tener esta operación sobre puertos vmkernel
ya existentes. Como estamos migrando uplinks vacíos al Distributed vSwitch, no va a haber ningún
impacto.
 

Finalizamos el asistente.

El siguiente paso es crear un Distributed Port Group al que conectar los VMkernels de cada host
ESXi destinados a vMotion. Para completar esta tarea, haremos click derecho sobre el Distributed
vSwitch y seleccionaremos New Distributed Port Group.
 

Le daremos un nombre identificativo, en nuestro caso vMotion.

Dejamos las opciones que vienen por defecto salvo la VLAN si vamos a utilizar alguna en los
puertos directamente conectados. Si estás usando un ESXi anidado, te recomiendo que configures las
opciones avanzadas y permitas modo promíscuo, cambio de MAC y Forged Transmits.
Finalizamos el asistente.

Ahora vamos a crear los vmkernels destinados a gestionar el vMotion en los hosts del laboratorio del
curso de vmware. Para ello, iremos en el inventario a la pestaña de hosts, seleccionaremos cada uno
de los hosts, y en Manage > Networking, haremos click en Virtual Switches. Después
seleccionaremos el nuevo Distributed vSwitch llamado vMotion y haremos click en el botón de Add
Host Networking.
Seleccionaremos Añadir VMkernel Network Adapter
Seleccionaremos el Distributed Port Group que acabamos de crear en el paso anterior.
En el siguiente paso, seleccionaremos tráfico de vMotion e IPv4

El siguiente apartado requiere que asignes direccionamiento IP propio de tu red. En mi red, la red de
vMotion es 192.168.2.x.

Finalizamos el asistente

 
Repetimos el paso de creación de VMkernel para los hosts esxi02 y esxi03.

Repetimos el proceso completo de creación de Distributed Virtual Switch para crear:

 Un nuevo Distributed vSwitch para FT (Fault Tolerance)


 Un nuevo Distributed vSwitch para VSAN
 Un nuevo Distributed Port Group para FT
 Un nuevo Distributed Port Group para VSAN
 Un nuevo VMkernel destinado a Fault Tolerance en cada host ESXi, creándolo en el su
Distributed vSwitch / Distributed Port Group correspondiente.
 Un nuevo VMkernel destinado a VSAN en cada host ESXi, creándolo en su Distributed
vSwitch / Distributed Port Group correspondiente.
Al final, tus distributed vSwitches deberán quedar como puedes ver en la imagen:

En la configuración de CADA HOST, deberíamos tener vmkernels configurados en cada uno de los
Distributed Port Groups como vemos en la imagen:
Existen formas de hacer tareas de las que hemos realizado anteriormente de forma combinada, como
crear un portgroup inicial a la hora de crear el Distributed vSwitch, o Crear VMkernels a la hora de
añadir hosts a un Distributed vSwitch. Practica por tu cuenta esas opciones.

Para futura referencia, en mi laboratorio estoy usando los siguientes direccionamientos ip en los 3
hosts:

esxi01
Gestion y almacenamiento [Link]

vMotion – [Link]

Fault Tolerance – [Link]


VSAN – [Link]

esxi02
Gestion y almacenamiento [Link]

vMotion – [Link]

Fault Tolerance – [Link]

VSAN – [Link]

esxi03
Gestion y almacenamiento [Link]

vMotion – [Link]

Fault Tolerance – [Link]

VSAN – [Link]

Para comprobar si la conectividad es correcta, podemos entrar en uno de los hosts por ssh y hacer
vmkping a las ips de los vmkernels de los demás hosts.

COMPROBAR CONECTIVIDAD VMOTION


Entramos a esxi01 por ssh y hacemos vmkping -c1 a las ips de vmkernel de vMotion de los otros
hosts. El -c1 es para solo hacer un ping.

~ # vmkping -c1 [Link]

PING [Link] ([Link]): 56 data bytes

64 bytes from [Link]: icmp_seq=0 ttl=64 time=1.064 ms

--- [Link] ping statistics ---

1 packets transmitted, 1 packets received, 0% packet loss


round-trip min/avg/max = 1.064/1.064/1.064 ms

~ # vmkping -c1 [Link]

PING [Link] ([Link]): 56 data bytes

64 bytes from [Link]: icmp_seq=0 ttl=64 time=1.002 ms

--- [Link] ping statistics ---

1 packets transmitted, 1 packets received, 0% packet loss

round-trip min/avg/max = 1.002/1.002/1.002 ms

Desde esxi01 tenemos conectividad vMotion con los otros dos hosts. Bien, procederemos a probar
FT y VSAN de la misma forma

COMPROBAR CONECTIVIDAD FAULT TOLERANCE


Desde la sesión SSH que tenemos abierta en esxi01, hacemos vmkping a las ips de los vmkernels de
FT de los otros dos hosts.

~ # vmkping -c1 [Link]

PING [Link] ([Link]): 56 data bytes

64 bytes from [Link]: icmp_seq=0 ttl=64 time=1.122 ms

--- [Link] ping statistics ---

1 packets transmitted, 1 packets received, 0% packet loss

round-trip min/avg/max = 1.122/1.122/1.122 ms

~ # vmkping -c1 [Link]


PING [Link] ([Link]): 56 data bytes

64 bytes from [Link]: icmp_seq=0 ttl=64 time=0.679 ms

--- [Link] ping statistics ---

1 packets transmitted, 1 packets received, 0% packet loss

round-trip min/avg/max = 0.679/0.679/0.679 ms

COMPROBAR CONECTIVIDAD VSAN


Por ultimo, de nuevo desde la sesion root de SSH que tenemos abierta en esxi01, hacemos vmkping
a las ips de los vmkernels de VSAN que tenemos en los otros dos hosts.

~ # vmkping -c1 [Link]

PING [Link] ([Link]): 56 data bytes

64 bytes from [Link]: icmp_seq=0 ttl=64 time=0.932 ms

--- [Link] ping statistics ---

1 packets transmitted, 1 packets received, 0% packet loss

round-trip min/avg/max = 0.932/0.932/0.932 ms

~ # vmkping -c1 [Link]

PING [Link] ([Link]): 56 data bytes

64 bytes from [Link]: icmp_seq=0 ttl=64 time=0.915 ms


--- [Link] ping statistics ---

1 packets transmitted, 1 packets received, 0% packet loss

round-trip min/avg/max = 0.915/0.915/0.915 ms

Hasta aquí llegamos en esta entrada del curso de vmware para ayudarte con la certificacion VCP. En
siguientes capítulos vamos a comenzar a habilitar y utilizar funciones vomo vMotion, HA, DRS y
Fault Tolerance.
CURSO DE VMWARE 5.5 –
ALMACENAMIENTO
COMPARTIDO
18 noviembre, 2014VMwarecertificacion vcp, consejos vcp, curso vcp, curso vmware, curso vsphere, guia
vcp, tutorial vcp

En este corto capítulo de nuestro curso de vmware añadiremos almacenamiento compartido desde
vCenter a nuestros hosts esxi del laboratorio VMware. Hace un par de capítulos ha habíamos pasado
por encima del almacenamiento, creando datastores en almacenamiento local y mirando como se
agregaban desde el cliente vmware de Windows. Ahora vamos a crearlos utilizando vCenter, que es
la forma habitual de trabajar y simplifica en gran medida tareas como esta, ya que podemos agregar
almacenamiento compartido a literalmente centenares de hosts con una única operación. En este
laboratorio utilizaremos NFS como protocolo para el almacenamiento compartido y crearemos dos
datastores a partir de dos volumenes NFS que debemos tener configurados en nuestro laboratorio
con la solución de almacenamiento compartido que hayamos elegido.

Antes de nada, utilices el protocolo que utilices de almacenamiento compartido, debes dar permisos
en el lado del storage para poder conectar nuestros hosts ESXi. En el caso de NFSv3, la validación
es simplemente mediante la ip de origen que intenta montar el volumen. Yo ya he creado los
permisos correspondientes de lectura y escritura en el dispositivo de almacenamiento compartido de
forma previa.

AGREGAR DATASTORES EN VCENTER


Para agregar almacenamiento compartido en vCenter, y dado que queremos agregarlo en todos los
hosts de nuestro cluster del laboratorio, iremos en el inventario a la opción Hosts and Clusters
A continuación, haremos click derecho en el cluster y seleccionaremos New Datastore
Elegiremos la opción NFS

Proporcionamos los datos del dispositivo de almacenamiento y el volumen exportado por NFS.
Seleccionaremos los hosts a los que queremos agregar este almacenamiento compartido y
finalizaremos el asistente.

Podremos ver en el panel de tareas recientes que se ha completado correctamente la operación.

A continuación, repetiremos el procedimiento para agregar un segundo datastore NFS, necesario


para las prácticas de Storage DRS y Storage vMotion.
Una vez dispongamos del segundo datastore, podemos irnos, en el panel de inventario, a la pestaña
de almacenamiento y podremos ver los datastores disponibles

Si queremos confirmar que efectivamente, los 3 hosts de nuestro laboratorio se han conectado al
nuevo almacenamiento compartido, seleccionaremos el datastore e iremos a Related Objects > Hosts

CREAR UN DATASTORE CLUSTER


Al igual que podemos crear clusters con los hosts ESXi, podemos crear Datastore Clusters con el
almacenamiento compartido. Esto nos sirve para repartir su ocupación o para balancear la carga de
trabajo que tienen. A continuación crearemos un Datastore Cluster con los dos volumenes NFS que
hemos agregado anteriormente.

Para crear un Datastore Cluster, dentro de la misma pestaña de Almacenamiento que estábamos
antes, haremos click derecho sobre el Datacenter y elegiremos la opción New Datastore Cluster
Lo nombraremos LAB-CLUSTER y desactivaremos de momento DRS

Proseguimos con las opciones por defecto del asistente hasta llegar a la pantalla de Select Clusters
and Hosts. En esta ventana indicaremos cuales son los hosts y clusters que deberán tener
conectividad con los datastores que formen parte del Datastore Cluster. En cierto modo es una forma
de filtrar los datastores que van a participar en el cluster. Seleccionaremos todo el cluster laboratorio.
A continuación, elegiremos los datastores disponibles en común dentro del objeto que seleccionamos
en el paso anterior. Como todos los hosts pertenecientes al cluster laboratorio tienen conectados los
datastores QNAP01-VM01 y QNAP01-VM02, nos deja elegirlos, y así lo haremos.

Finalizamos el asistente ya veremos el cambio reflejado en el panel de inventario, donde hemos


dejado de ver directamente los dos datastores para pasar a ver el cluster que los contiene.

 
CURSO DE VMWARE 5.5 –
MAQUINAS VIRTUALES
11 febrero, 2015Sin categoría, VMwarecurso vcp, curso vmware, curso vsphere

Hasta ahora en nuestro curso de VMware hemos avanzado en conceptos de virtualización,


organización del inventario de objetos en vCenter, almacenamiento, redes, pero todavía no hemos
tocado propiamente máquinas virtuales. Las máquinas virtuales son el objeto de la virtualización
propiamente y merecen un capítulo propio para aclarar una serie de conceptos importantes de cara a
los siguientes capítulos.

COMPONENTES DE LAS MAQUINAS
VIRTUALES
Una maquina virtual en sí no es más que un conjunto de archivos que almacenan información
relativa a su configuración de hardware, y los datos del disco duro de esta. Entremos un poco más en
profundidad en estos componentes.

¿QUE CONTIENE CADA ARCHIVO DE UNA


MÁQUINA VIRTUAL DE VMWARE?
Cuando trabajamos con VMware ESXi, estamos manejando, entre otras muchas cosas, máquinas
virtuales (VMs). Estas máquinas virtuales están compuestas por varios archivos almacenados en
carpetas dentro de datastores. Tomaremos como ejemplo el vCenter Server Appliance que
instalamos en el capítulo anterior del curso de vmware para la certificacion VCP:

-rw------- 1 root root 16.1M Nov 2 19:03 [Link]

-rw------- 1 root root 315 Nov 2 19:03 [Link]

-rw------- 1 root root 8.0G Nov 2 12:20 [Link]

-rw------- 1 root root 27.6K Nov 2 19:03 [Link]

-rw------- 1 root root 25.0G Nov 2 19:03 [Link]

-rw------- 1 root root 8.5K Nov 2 19:03 [Link]

-rw------- 1 root root 523 Nov 2 12:20 [Link]


-rw-r--r-- 1 root root 441 Nov 2 19:03 [Link]

-rwxr-xr-x 1 root root 2.7K Nov 2 19:03 [Link]

-rw------- 1 root root 0 Nov 2 12:20 [Link]

-rw-r--r-- 1 root root 261 Oct 31 17:15 [Link]

-rw------- 1 root root 16.2M Nov 2 19:03 vcsa55_1-[Link]

-rw------- 1 root root 320 Nov 2 19:03 vcsa55_1-[Link]

-rw------- 1 root root 100.0G Nov 2 19:03 vcsa55_1-[Link]

-rw------- 1 root root 529 Nov 2 12:20 vcsa55_1.vmdk

-rw-r--r-- 1 root root 136.2K Oct 31 17:47 [Link]

-rw-r--r-- 1 root root 160.0K Nov 2 19:03 [Link]

-rw------- 1 root root 110.0M Nov 2 12:20 [Link]

 [Link]
Guarda los datos de configuración de la máquina virtual, desde su dirección MAC, hasta los discos
que tiene conectados, etc.
 [Link]
Se trata del archivo de swap de la máquina virtual. Puede crecer hasta el tamaño que tiene la
memoria RAM de la máquina virtual, por eso tiene asignados los 8192 MB de RAM de la máquina
virtual + el overhead (veremos más adelante eso, en el capítulo dedicado a la gestión de memoria).
 [Link]
Este archivo guarda una copia de la BIOS de la máquina virtual
 [Link]
En este archivo se guarda información relativa a los snapshots de la máquina virtual. Solo
información relativa a ellos, no los snapshots propiamente.
 [Link]
Este archivo es un lockfile. Indica que esta máquina virtual se encuentra encendida en algún host.
 [Link]
Este archivo contiene informacion de configuración extra para las máquinas virtuales.
 [Link]
Este archivo guarda un log de eventos relacionados con la máquina virtual. Puede ser útil a la hora
de hacer resolución de problemas.
 [Link]
Contiene una serie de datos de descripción y configuración del siguiente archivo de la lista y
correspondiente al primer disco duro de la máquina virtual
 [Link]
Se trata del disco duro propiamente de la máquina virtual, un contenedor de datos en el que se
almacenan los bytes correspondientes al primer disco duro de la máquina virtual
 vcsa55_1.vmdk
Contiene una serie de datos de descripción y configuración del siguiente archivo de la lista y
correspondiente al segundo disco duro de la máquina virtual
 vcsa55_1-[Link]
Se trata del disco duro propiamente de la máquina virtual, un contenedor de datos en el que se
almacenan los bytes correspondientes al segundo disco duro de la máquina virtual
 [Link]
Se trata de un archivo que contiene información relativa al estado del snapshot número 1 de la
máquina virtual
 [Link]
Se trata del archivo que guarda la configuración de un disco duro auxiliar creado al hacer un
snapshot del primer disco duro de la máquina virtual.
 [Link]
Se trata del archivo de datos con las diferencias que va habiendo en el primer disco duro de la
máquina virtual desde el momento de creación del snapshot.
 vcsa55_1-[Link]
Se trata del archivo que guarda la configuración del disco duro auxiliar creado al hacer un snapshot
del segundo disco duro de la máquina virtual.
 vcsa55_1-[Link]
Se trata del archivo de datos con las diferencias que va habiendo en el segundo disco duro de la
máquina virtual desde el momento de creación del snapshot.

VCPU
Se trata de la cantidad de CPUs / cores de CPU a los que tienen acceso las maquinas virtuales.
Pueden tratarse de una o más CPUs que se presentan físicamente como sockets o cores (podemos
elegirlo). Aparte de configuraciones avanzadas y optimizadas como afinidad NUMA, etc, podemos
vernos en la necesidad de presentar las CPUs como cores para respetar un escenario como este:

Hemos comprado un software que se licencia por CPU física, es decir, por socket físico.

Nuestro host de virtualización es un servidor con dos procesadores Xeon de 6 cores cada uno, sin
embargo solo podemos utilizar uno de ellos para la maquina virtual si queremos respetar la
modalidad de licenciamiento con el fabricante (una modalidad que por otro lado está totalmente
obsoleta).

Para esto, daremos a nuestra maquina virtual 1 socket de CPU y 6 cores de CPU. Además, para
asegurarnos de que vamos a utilizar solo una cpu física para esta maquina virtual, seleccionaremos
CPU AFFINITY 0-5, lo cual hará que solo se utilicen los primeros 6 cores disponibles en el host
para esta máquina virtual. De esta manera, la maquina virtual nunca llegará a hacer uso del segundo
procesador físico y no estaremos rompiendo estos licenciamientos ridiculos.

Otro escenario es que tengamos un software con la misma licencia limitada a 1 CPU física y
queramos hacerle trampas y proporcionarle más cores de los que tienen nuestros procesadores en el
host. Siguiendo el ejemplo anterior del Dual Xeon Hexa Core, podríamos hacer creer a la máquina
que tiene 1 Socket, pero otorgarle 12 CORES, con lo que aprovecharíamos el doble procesador y el
software no rechistaría, pensando que tenemos 1 único procesador con muchos más cores de los que
realmente tenemos.

CPU AFFINITY
Se trata de una opción de configuración de una maquina virtual en VMware que permite seleccionar
y limitar el uso de cores del host a una maquina virtual. Si queremos que “maquinavirtual01” se
ejecute unica y exclusivamente en los cores 0 y 1 de nuestro host, escribiremos 0,1 en los valores de
CPU affinity. Ten presente que esto limita la ejecución de la maquina virtual a estos cores, pero de
ninguna manera los reserva para esta maquina virtual en exclusiva. Ademas, estaras limitando el
tiempo de cpu que se puede dedicar a los diferentes hilos que componen la maquina virtual en
tiempo de ejecucion (worlds) por lo que es posible que termines viendo una merma del rendimiento
conforme los diferentes worlds compiten entre si por obtener recursos en caso de saturacion de los
cores a los que hemos limitado esa maquina virtual.

CPU affinity además, inhabilita la maquina virtual para ser manejada mediante la funcionalidad DRS
automatizada de un cluster y no puede ser habilitado en una maquina virtual que resida en un cluster
con DRS ya habilitado.

La recomendación general es que no utilices CPU affinity en tus maquinas virtuales pues puede
penalizarte más que los beneficios que te aporte. Además, CPU affinity es una funcionalidad
incompatible con vMotion y por tanto con DRS.
VRAM
La vRAM, o RAM virtual, es la cantidad de memoria del host que se asigna a cada máquina virtual
para trabajar y, en definitiva, la que este guest verá como disponible. Se puede asignar desde unos
pocos MB hasta 2TB de memoria RAM. La recomendación general es que se debe asignar a la
máquina virtual tanta memoria como vaya a utilizar, ni más ni menos. No es interesante asignar a un
equipo mucha más memoria de la que vaya a utilizar, pues estaremos perjudicando a las demás
máquinas virtuales en caso de que ocurra una situación de contención de recursos (falta de recursos).

DISCO DURO VIRTUAL


Otro de los componentes básicos de una máquina virtual es su disco duro. Si bien es perfectamente
posible ejecutar máquinas virtuales que no dispongan de almacenamiento de este tipo, existen pocos
casos prácticos en los que vayamos a querer nuestra máquina virtual arrancando solo desde PXE o
una ISO arrancable como un Live CD. Un ejemplo clásico de máquina virtual sin disco duro es
aquella en la que montamos una ISO de un Live CD de Linux para probarlo durante un periodo
determinado de tiempo y cuya información no nos preocupa perder si la apagamos.

Los discos duros virtuales de una maquina virtual se conectan mediante controladoras, al igual que
en un ordenador normal. Disponemos de diferentes tipos de controladoras de disco:

 Buslogic Parallel IDE


 LSI Logic Parallel
 LSI Logic SAS
 VMware PAravirtual
Podemos conectar hasta 4 controladoras de disco SCSI a una maquina virtual, y 15 discos duros a
cada una de ellas, por lo que podremos disponer de un máximo de 60 discos duros conectados a una
única máquina virtual. En el caso de controladoras IDE, podremos conectar una única a nuestra
maquina virtual, con hasta 4 dispositivos conectados a la misma. Si, por el contrario, elegimos un
adaptador Virtual SATA, podremos conectar 4 de este tipo, con 30 dispositivos por cada
controladora SATA virtual.
CREAR MAQUINAS VIRTUALES
Una tarea habitual en un entorno virtualizado es la creación de máquinas virtuales dentro de nuestro
vCenter. La creación de máquinas se realiza de la siguiente manera:

Seleccionaremos el nivel dentro del inventario en el que queremos crear nuestra máquina virtual. El
nivel más alto al que podemos crear una máquina virtual es el cluster. Si no tenemos un cluster,
crearemos la máquina virtual en un host. Las máquinas virtuales también pueden crearse en resource
pools, vApps y carpetas.

Para crear una máquina virtual, haremos click derecho sobre el objeto padre donde queramos alojarla
y haremos click en New Virtual Machine
Ahora se nos presentara un menú en el que veremos todas las formas que existen para crear una
maquina virtual.

Repasémoslas:

CREATE A NEW VIRTUAL MACHINE

La forma tradicional y más manual de crear una máquina virtual. Se te pedirán los valores de
configuración de la máquina virtual para que luego procedas a instalarla, es como instalar un
servidor físico normal.

DEPLOY FROM TEMPLATE

Se utiliza una máquina virtual que previamente has convertido en una plantilla. Suele estar ya
instalada y lista para configurar valores como el hostname o su IP. Facilita bastante los despliegues
de varias máquinas virtuales.
CLONE AN EXISTING VIRTUAL MACHINE

Puedes usar una máquina virtual ya existente para generar una clonándola. Tiene la ventaja de que
tiene el mismo contenido, pero el inconveniente de que las ips, hostnames, configuraciones, son las
mismas que las de la máquina que ya tienes. Puede haber conflictos de ips duplicadas, aplicaciones
compitiendo por conexiones, etc.

CLONE VIRTUAL MACHINE TO TEMPLATE

Con este método crearemos una plantilla o template a partir de una máquina virtual que ya tenemos
lista y preconfigurada. Es requisito para la opcion 2 de este menú.

CLONE TEMPLATE TO TEMPLATE

Esta funcionalidad nos permite clonar un template o plantilla. Normalmente lo utilizaremos si


queremos realizar modificaciones a la plantilla que solemos utilizar para desplegar máquinas
virtuales.

CONVERT TEMPLATE TO VIRTUAL MACHINE

Esta funcionalidad suele ser complementaria a la anterior. Dado que los templates o plantillas de
maquinas virtuales no se pueden encender, necesitamos convertir la plantilla a máquina virtual
normal cada vez que vayamos a introducir algún cambio en la misma, como por ejemplo, instalar
actualizaciones de sistema o meter nuevas versiones de software para disponer de ellas en futuros
despliegues.
En este curso de VMware 5.5 vamos a aprender a crear máquinas virtuales de forma tradicional, pero
es importante que conozcas TODAS las formas de creación de máquinas virtuales, incluidos los
despliegues con plantillas/templates y la personalización del despliegue usando herramientas como
sysprep. Si estás preparando el examen VCP, son preguntas de examen VCP.
Lo primero que se nos pedirá en el asistente de creación de máquinas virtuales será el nombre y
ubicación de la misma. Debemos dar un nombre por el que la vayamos a poder identificar. Este
nombre será también el nombre de la carpeta que se creará dentro del datastore para almacenar los
diferentes archivos que conforman la máquina virtual.
Como anteriormente hemos elegido el datacenter [Link], se nos presenta una lista de los objetos que
contiene. Yo he elegido el cluster laboratorio, pero puedes elegir el que se adapte a tus necesidades.
La siguiente pantalla nos muestra una selección de los diferentes datastores que tenemos disponibles
par almacenar nuestra máquina virtual. Elegiremos uno con suficiente capacidad disponible y
debemos tener presente si el resto de nuestros hosts tienen visibilidad del mismo, para
funcionalidades posteriores como HA, FT, vMotion…
La siguiente pantalla del asistente nos pregunta la versión del hardware virtual que queremos poner a
la máquina virtual. Esta elección, aparentemente sencilla, la hará compatible o incompatible con
hosts de versiones anteriores a la que seleccionemos. Además, según la versión del cliente vSphere
de Windows que utilices, podrás realizar o no acciones como editar las propiedades de la máquina
virtual. Como regla general, para mantenernos en el lado seguro, diremos que el Cliente vSphere de
Windows solo puede editar máquinas virtuales con hardware versión 8, equivalente a ESXi 5.0. Con
las últimas versiones del cliente vSphere, podremos editar máquinas con versión superior de
hardware, pero únicamente modificar los parámetros que ya existían en la versión 8 de hardware
virtual. Las nuevas capacidades de hardware v9 y hardware v10 no serán editables. El cliente Web
no tendrá problema para editar las máquinas virtuales de como máximo, su versión.
Elegiremos el tipo de sistema operativo que va a ejecutar nuestro guest. Recordemos que el guest es
la máquina virtual que estamos creando. En mi caso, he elegido Linux, y dentro de la familia Linux,
el sistema operativo Debian 7.
En esta pantalla se nos permitirá ajustar los parámetros que por defecto se recomiendan para el tipo
de máquina virtual que hemos seleccionado crear. Pregunta de examen VCP. En mi caso suelo
quitar la unidad de floppy, ya que nunca la utilizo.
En esta última pantalla revisaremos todos los parámetros antes de crear la máquina virtual. Si
estamos de acuerdo con todo, pulsaremos en Finish.
Una vez la máquina virtual está creada, haremos click derecho sobre ella y seleccionaremos Power
On para ponerla en marcha.
Nuestra máquina virtual ya está creada, pero carece de un sistema operativo que arrancar.
Pulsaremos el botón que se indica en la imagen para conectarle un archivo .iso en el que tendremos
nuestro sistema operativo.
Seleccionamos la opción Connect to CD/DVD image on a local disk, si lo tenemos descargado en
nuestro ordenador de escritorio.

La aplicación web solicitará permiso para acceder a nuestro ordenador, para poder montar la iso en
la máquina virtual como si de un CD se tratase.
Seleccionamos la iso que queramos instalar y pulsamos Open. En mi caso he usado una de lubuntu
para el ejemplo, aunque posteriormente he de confesar que me arrepentí y puse kubuntu para probar

KDE Plasma 5 
Volveremos a la pantalla de Summary para esta vez vamos a fijarnos en un texto que pone “Launch
Console”. Haremos click sobre él. Es el equivalente a conectar un monitor y teclado a un servidor
tradicional. Desde aquí controlaremos la instalación del sistema operativo en la máquina virtual.

Vaya, la máquina virtual ya estaba arrancada y efectivamente ha detectado que no tenemos sistema
operativo en el disco duro. Como hemos conectado la imagen ISO a modo de CD con posterioridad,
vamos a mandarle un reinicio mediante el botón de Ctrl-Alt-Supr indicado en la imagen
Una vez pulsamos, podremos ver como esta vez si arranca desde la ISO y comienza la instalación
del sistema operativo.

CREAR UN TEMPLATE DE UNA MAQUINA VIRTUAL


Crear una plantilla puede facilitar enormemente el despliegue de múltiples máquinas virtuales. Una
vez tenemos nuestra máquina virtual instalada, seguiremos el siguiente procedimiento para
convertirla en plantilla.

Apagar la máquina virtual. Es requisito. Para convertir una máquina virtual preexistente en una
template, ha de estar apagada.

Pulsaremos sobre la máquina virtual apagada con el botón derecho del ratón y elegiremos la opción
Convert to Template. Esta opción puede estar dentro de All vCenter Actions en el Web Client.
¡OJO! Para ver las plantillas tenemos que ir al tab de VMs, ya que no aparecen en el de Hosts and
Clusters.

Si nos fijamos en el inventario, el icono representativo de los templates es diferente al de las


máquinas virtuales. Esto permite diferenciarlas mucho más fácilmente.

CREAR UNA PLANTILLA DE PERSONALIZACIÓN


PARA DESPLIEGUES (CUSTOMIZATION
SPECIFICATION)
Cuando desplegamos una máquina virtual desde una plantilla, si el sistema operativo está soportado,
podemos personalizar aspectos como su hostname, direccionamiento de red, DNS… Esto es una
ventaja y hace mucho más ágil el despliegue de máquinas virtuales (te lo dije!)
Debes saber que para personalizar despliegues en Windows, podemos utilizar la herramienta sysprep
de microsoft, que permitirá personalizar más a fondo el despliegue.
En mi caso, como voy a desplegar y personalizar una plantilla de Ubuntu, crearé una customization
specification para este sistema operativo.

Haremos click en el icono de Home de vSphere Web Client, para posteriormente hacer click en
Customization Specification Manager

El asistente de creación de personalización de VMs nos pedirá inicialmente el sistema operativo que
vamos a personalizar. Puede ser Windows o Linux. Ten presente que no todos los Linux están
soportados.
La siguiente pantalla nos permite personalizar opciones de hostname y dominio de la máquina que
vamos a personalizar en tiempo de despliegue. Personalmente, creo que la opción más sensata es
elegir el mismo  hostname que el nombre que vamos a dar en el inventario de vCenter a la máquina
virtual. Nos ahorrará confusiones para identificar nuestros equipos cuando el entorno crezca.
La siguiente pantalla no tiene ningún secreto y nos pide la zona horaria del equipo.
El siguiente paso es el de configuración de red. Podemos elegir que interfaces se configuran con
DHCP y cuales se configuran con una dirección estática o una combinación de ambos si tenemos
más de una tarjeta de red. El paso siguiente es también relacionado con la red y consistirá en
configurar los servidores  DNS.
El paso final es el habitual de revisar los parámetros antes de finalizar la creación del guest
customization specification.
DESPLEGAR UNA PLANTILLA Y PERSONALIZARLA
Utilizando el guest customization specification que acabamos de crear, desplegaremos la plantilla.

Haremos click derecho encima de la plantilla y seleccionaremos Deploy VM from this Template
Se nos pedirá el nombre que queremos poner a la maquina virtual en el inventario.
El siguiente paso nos pide la ubicación de la máquina virtual.
A continuación, se nos pedirá el datastore donde queremos desplegar la máquina virtual.
El siguiente paso entra directamente en la personalización de la máquina virtual que estamos
desplegando.
Se nos permitirá elegir una especificacion de personalización de las que ya existen. En este caso,
elegiremos la que hemos creado en el paso anterior.
Revisamos los parámetros y aceptamos si estamos de acuerdo.
Hemos visto como desplegar maquinas virtuales desde una plantilla nos permite disponer de forma
ágil, de máquinas virtuales que nacen “iguales” ahorrándonos el paso de instalación del sistema
operativo, y que en cuestión de minutos, podemos disponer de varias maquinas virtuales con
diferentes hostnames, configuración de red, etc. Se trata de conceptos básicos, pero para quien no
quiera meterse en formas de despliegue más complicadas (Orchestrator), le servirá de sobra.

El tiempo de despliegue de la máquina virtual que he usado en el ejemplo ha sido de 3 minutos. En


almacenamientos de mayor categoría que el de mi laboratorio, con tecnología flash, se puede
disponer de máquinas virtuales listas para la acción en pocos segundos.

BORRAR MAQUINAS VIRTUALES
Para borrar una máquina virtual en VMware, haremos click derecho sobre ella y seleccionaremos
Delete From Disk. Si elegimos Remove from Inventory, la máquina virtual desaparecerá del
inventario de vCenter, pero permanecerá en el datastore intacta.

POWER STATES
Las maquinas virtuales en VMware pueden tener diferentes estados

 Encendida (Power On) – La máquina virtual se encuentra en funcionamiento. Una


máquina virtual encendida consume recursos de CPU, memoria, disco y red en el hipervisor donde
se esté ejecutando.
 Apagada (Power Off) – La máquina virtual se encuentra apagada y no está consumiendo
recursos en el hipervisor. Sin embargo, la máquina virtual sigue consumiendo recursos de disco
(espacio) en el almacenamiento donde se encuentre.
 Suspendida (Suspended) – La máquina virtual se encuentra en estado suspendido. Su
memoria RAM se ha volcado a disco duro y después la máquina virtual se ha apagado. Al
encenderla, volverá al mismo punto en que estaba antes de suspenderla. Es el equivalente al
suspender de un equipo portátil normal.
Además existen los siguientes comandos que hacen cambiar de estado a la maquina virtual:

 Reset – Es el equivalente a dar un botonazo a la máquina virtual. El reset desconectará las


imágenes de CD que tenga conectadas desde la consola la maquina virtual, igual que un power off –
power on.
 Shut Down Guest OS – Manda una orden a las VMware tools para que envíen una señal de
apagado ACPI. Esta señal equivale a un apagado ordenado del equipo. Es la opción preferida por
delante del apagado de botonazo.
 Restart Guest OS – Manda una orden a las VMware tools para que envíen una señal de
reinicio ACPI. Esta señal equivale a un reinicio desde el sistema operativo y es preferible a  realizar
un reset.
 
CURSO DE VMWARE 5.5 –
SNAPSHOTS
11 febrero, 2015VMwarecurso vcp, curso vmware, curso vsphere, snapshots

Los snapshots son merecedores de un corto capítulo en el curso de VMware. Mal utilizados por
muchos, infravalorados por otros, y grandes ayudantes para la gente que realiza modificaciones
serias en sus máquinas virtuales y quiere disponer de una red para no tirarse al vacío realizándolos.

¿QUÉ ES UN SNAPSHOT?
Un snapshot es una instantánea que se toma de una máquina virtual en un momento en el tiempo. Al
crear un snapshot, creamos un punto de restauración en la máquina virtual, de manera que si, por
poner un ejemplo extremo, la formateamos dos minutos después, podemos recuperar todo con un par
de clicks.

Tenemos dos niveles de snapshots, que proporcionan una vuelta atrás más o menos completa:

Snapshot RAM + Disco Duro – Es el snapshot más completo que podemos hacer. Incluye la
memoria RAM del equipo, por lo que si hacemos uso de él, volveríamos al estado exacto del equipo
en el momento de realizarlo, incluidas las aplicaciones abiertas y su estado. Tarda en realizarse el
tiempo que se necesite para hacer un volcado de la memoria RAM a disco duro.
Snapshot solo Disco Duro – Es un snapshot inmediato, en el que guardamos el estado de los
bloques del disco duro. Volver a este snapshot supone reiniciar el equipo y perder el estado de las
aplicaciones que estuviesen ejecutándose cuando se tomó el snapshot.

¿QUÉ NO ES UN SNAPSHOT?
Un snapshot NO es un backup. No es una forma de hacer copias de seguridad. No es una forma de
Disaster Recovery. No es un business continuity plan. No es algo que haces porque sí.

Los snapshots de máquina virtual penalizan el rendimiento de la máquina virtual e impactan en el


almacenamiento. Los Snapshots crecen y crecen y pueden llegar a ser un auténtico problema a nivel
de espacio en disco. Además, intentar borrar un snapshot que lleva mucho tiempo creado y ha
crecido de forma desproporcionada, puede ser una tarea casi imposible y hacer sudar a
almacenamientos de varios miles de euros en según que entornos.

¿COMO FUNCIONAN LOS SNAPSHOTS EN


VMWARE?
Cuando hacemos un snapshot de disco, VMware “atonta” de forma momentánea a la máquina virtual
y aprovecha para darle un cambiazo en el disco duro. La máquina virtual comienza a partir de ese
momento a escribir todos sus cambios en un nuevo archivo, que es un diferencial o delta con
respecto al disco duro original de la máquina virtual. Es por esto que si queremos volver atrás en el
snapshot, tan solo debemos indicar al hipervisor que le vuelva a dar el cambiazo a la máquina virtual
y la apunte al disco duro que tenía anteriormente. Los snapshots se pueden anidar, de la siguiente
forma

COMO CREAR UN SNAPSHOT EN VMWARE


Para crear un Snapshot en VMware, haremos click derecho sobre la maquina virtual y
seleccionaremos Take Snapshot.

En el menú que nos aparecerá, escribiremos el nombre del snapshot (busca algo identificativo que te
permita saber luego si lo puedes borrar)
También aparecerán dos opciones:

 Snapshot the virtual machine’s memory – Es la opción para hacer snapshot también del
estado de la RAM del disco, permitiendo guardar el estado de las aplicaciones en ejecución. Tarda
más en realizarse, por lo que solo debes hacerlo cuando realmente te valga la pena.
 Quiesce guest file system (Needs VMware Tools Installed) – Es una opción que hace que
las VMware tools ordenen una escritura a disco al sistema operativo de todos los datos que tenga
pendientes de escribir. Esto hace que los snapshots del disco tengan un mayor grado de consistencia,
aunque no proporciona consistencia a nivel de aplicación, como en el caso de algunas bases de datos.
Con estos dos pasos, ya hemos creado un snapshot de la máquina virtual. Si quieres, puedes probar a
borrar algunos archivos ahora que disponemos del snapshot.

COMO VOLVER A UN SNAPSHOT ANTERIOR


EN VMWARE
Ahora que hemos borrado unos archivos (o instalado una actualización de sistema operativo o una
aplicacion) vamos a imaginarnos que algo ha ido desastrosamente mal y queremos volver a como
estábamos antes de comenzar. Haremos click derecho encima de la máquina virtual y
seleccionaremos Manage Snapshots
En el siguiente menú, seleccionaremos al punto de snapshot al que queremos volver y pulsaremos el
botón Revert To. Esta acción nos dejará la máquina como la teníamos en ese momento. Si el
snapshot incluía RAM, la máquina se restaurará encendida. Si el snapshot no incluía memoria RAM,
la máquina se restaurará apagada y tendrás que encenderla a mano.
Te has fijado en que los snapshots se pueden anidar, incluso crear diferentes ramificaciones? He
visto desarrolladores que usan esto para crear desde una misma máquina virtual diferentes entornos y
poder moverse de una configuración a otra de forma bastante rápida.

BORRAR SNAPSHOTS EN VMWARE


El borrado de snapshots en VMware se realiza seleccionando el snapshot que quieres eliminar y
pulsando el botón Delete que ves en la captura anterior. Si quieres eliminarlos todos, deberás pulsar
directamente el botón Delete All.

Estás avisado de que el borrado de snapshots es una tarea MUY intensiva con el disco que implica
lecturas, escrituras y borrados. Procura hacerlos en horas valle de tu almacenamiento. También
debes saber que durante el proceso de borrado de snapshots la máquina quedará “atontada” en
algunos momentos y no puedes hacer nada para evitarlo.
Otra cosa muy importante y que lamentablemente todos aprendemos cuando un borrado de snapshot
está afectando al rendimiento de nuestro almacenamiento. Un borrado de snapshots NO SE PUEDE
CANCELAR.

También podría gustarte