Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
CHAPITRE 2 : Installation et configuration de base
I. Conception du laboratoire de test ucad.local
Pour aborder les questions techniques de la virtualisation il faut avoir un environnement
de teste. La configuration du labo va se faire principalement via VMware Workstation 12 Pro,
avec des ESXi (Nested). Il s’agit surtout de configurer correctement le réseau virtuel et le réseau
du stockage. L’objectif principal du labo est de pouvoir monter dans un premier temps un
Datacenter virtuel pas à pas en prenant en compte les différentes problématiques de réseau et
de stockage.
Note :
Les commutateurs seront représentés par les VMnet de VMware Workstation Pro 12.
Une Virtual Machine (VM) sera dédiée au stockage en faisant office d’un serveur de
stockage SAN et provisionnera des LUN sur un réseau iScsi on reviendra plus en détails
dans la mise en œuvre.
Pour éviter d’avoir un goulot d’étranglement au niveau du réseau entre les hôtes
(hyperviseur de type 1) et le serveur de stockage (SAN), c’est-à-dire pour supprimer les
Single Point Of Failure (SPOF), il est essentiel de mettre en place de la redondance
physique avec plusieurs commutateurs et contrôleurs/interfaces réseaux et de la redondance
logique via l’implémentation du Multi Path Input Output (MPIO, fonctionnalité de Microsoft
sur Windows serveur 2012 R2 car dans les tests on va devoir monté un serveur de stockage
sous Windows serveur 2012 R2) pour avoir plusieurs chemins d’accès par LUN et aussi sur les
hôtes pour qu’ils réalisent le LoadBalancing et le Failover sur les différents chemins qui lui
seront présentés pour accéder au Serveur SAN.
Sur la VM SAN, il y aura 6 cartes réseau : deux pour l’administration sur le commutateur
VMnet1, 4 pour le réseau iScsi (stockage) connectées par 2 sur les différents commutateurs
VMnet2 et VMnet3.
Les Hôtes ESXi auront 6 cartes réseaux virtuelles : 2 pour l’administration et la VMotion
(VMnet1), 2 pour le VM Network (VMnet1) et 2 pour le réseau iScsi (VMnet2 et VMnet3).
Le serveur DCUCAD hébergera également les rôles DNS&DHCP pour le domaine
ucad.local.
II. VMware ESXi : Installation d’un Hôte
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
1. Installation d’un hôte ESXi
La première étape consiste à installer l’hyperviseur ESXi 5.5, aujourd’hui VMware
est à la version 6.5 pour des raisons pédagogique et de ressources on ne pourra pas l’exploiter.
Un hyperviseur c’est donc un noyau système installé sur le hardware qui prend très peu
de ressources et qui partage les ressources avec des machines virtuelles. Il s’agit de la
technique de virtualisation la plus performante, comparée à de la virtualisation complète
(ou la couche de virtualisation s’installe sur un OS, comme VMware Workstation Pro 12).
Configuration des ESXI avec VMware Workstation
Pour notre Labo virtuel il faut deux hyperviseurs (HoteESXI1 et HoteESXI2).
Pour la partie réseau, comme vu précédemment, il y a 2 interfaces en failover
pour l’administration et la VMotion (VMnet1), 2 interfaces pour le réseau iScsi( VMnet 2
et VMnet 3) et 2 interfaces pour le réseau des VMs. Avant de lancer l’installation, s’assurer
que seule la carte réseau d’administration est connectée. On boot sur l’ISO, puis l’installation
démarrer (assumez vos choix).
2. Configuration de base d’un hôte ESXi
Maintenant que l’hyperviseur ESXi 5.5 est installé, il faut configurer le système de base.
Depuis la page d’accueil, appuyer sur F2 puis entré le mot de passe root renseigné auparavant
lors de l’installation. Configurer le réseau d’administration en mettant une adresse IP statique
et désactiver l’IPv6, bien sûr si le réseau d’administration ne parle pas IPv6. Configurer les
adresses des serveurs DNS et le nom d’hôte, puis redémarré pour appliquer les changements.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
On se connecte sur le contrôleur de domaine et on ajoute les enregistrements DNS direct
et inverse, créé également des ALIAS pour simplifier les accès par le réseau, sans perturber la
convention de nommage qu’on a choisi d’appliquer pour les serveurs de l’entreprise.
Vérifier que la résolution de nom fonctionne correctement. Ouvrir une console, se
loguer avec le compte root, puis lancer les tests nslookup avec les noms réels ou avec les alias.
Enfin, pour faciliter l’administration, activer l’ESXi Shell et l’accès en SSH dans
les Troubleshooting Options.
Faites les mêmes configurations sur HoteESXI1 et HoteESXI2
3. Administration depuis le vSphere Client
Pour une administration de base des hôtes ESXi, utiliser le vSphere Client. Pour installer
le vSphere Client sur une machine Windows, il faut au préalable installer le Framework
.NET 3.5, qui inclut le 2.0. On peut télécharger le vSphere Client depuis le site de VMware,
ou l’installer depuis l’ISO de vCenter Server, ou encore se connecter en https sur un hôte ESXi.
Ci-dessous, on installe le vSphere client sur notre machine physique (Windows).
Lorsque l’installation est terminée (rien de particulier à détailler), lancer l’application.
Puis renseigner les informations de connexion à l’hôte ESXi par exemple HoteESXI1. Valider
le certificat et la page d’administration de l’hôte s’ouvre.
La première chose à faire, est d’enlever les pages de démarrage (getting started). Cliquer
sur Modifier, Paramètres Client, et décocher afficher les onglets de démarrage.
Dans l’onglet résumé, il y a deux alertes car l’ESXi Shell et le SSH sont activés. Pour
enlever les alertes en gardant le Shell et le SSH actifs, aller dans l’onglet configuration,
puis dans paramètres avancés. Sélectionner UserVars et mettre la valeur 1 au paramètre
UserVars.SupressShellWarning.
Le vSphere client permet d’administrer un hôte ESXi, sa configuration, superviser
ses performances, … :
Onglet Résumé : L’onglet résumé permet d’avoir toutes les informations sur la
couche hardware de l’hôte, sur les différentes services distribués (HA, Profiles, FT, …),
ainsi que sur les dépendances au Virtual Network et aux Datastores VMFS.
Onglet Machines Virtuelles : Permet de voir les différentes VM exécutées par
l’hôte, les ressources utilisées / allouées par VM, etc.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
Onglet allocation de ressources : Permet de surveiller et gérer les ressources
hardware de l’hôte, et les ressources allouées globalement aux VMs.
Onglet Performance : Permet de superviser les performances de l’hôte, des
différents composants de l’hôte, selon divers paramètres. Par exemple, il est possible de
monitorer les ressources CPU, la mémoire, la latence I/O des Datastores VMFS, etc.
Onglet Configuration : Permet de configuration l’hôte, notamment les HBA, le
vNetwork, les volumes VMFS, la configuration de base, les fonctionnalités sous licences, etc.
les premiers pas de l’administration se feront au niveau de cet onglet.
Onglet Utilisateurs et groupes locaux : Permet de gérer les utilisateurs et groupes
pour ensuite donner des permissions.
Onglet Evènements : Historique de toutes les actions entreprises sur l’hôte, par
utilisateur et horodatées.
Onglet Autorisations : Permet d’attribuer des droits à un utilisateur.
4. Configuration du réseau virtuel
Tout d’abord voici un tableau récapitulatif du plan d’adressage et sur les bons
commutateurs VMnets associés.
DCUCAD SAN VCENTER HoteESXI1 HoteESXI2 Masque
VMnet1 192.168.1.10 192.168.1.11 192.168.1.12 192.168.1.13 192.168.1.14 /24
VMnet2 10.0.0.11 10.0.0.13 10.0.0.14 /24
10.0.0.15 /24
VMnet3 10.0.1.11 10.0.1.13 10.0.1.14 /24
10.0.1.15 /24
Pour configurer le réseau virtuel, et notamment le réseau d’administration et le
réseau iScsi, il faut créer des commutateurs virtuels. Il existe deux types de Switch virtuel
dans un environnement vSphere.
vSphere Standard Switch (VSS) : switch virtuel simple qui permet de gérer le
réseau individuellement au niveau de chaque hôte. Le VSS est simple d’utilisation et de
configuration, et permet de créer rapidement son architecture réseau. Il supporte
l’utilisation de VLAN, l’encapsulation 802.1q pour le VLAN trunking. Le VSS peut être
associé à une ou plusieurs cartes réseaux physiques, et supporte le NIC Teaming. Pour
faire communiquer les VMs avec le réseau physique, il faut créer des Port Groups sur les
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
VSS. Ce type de commutateur virtuel est utilisé pour le réseau d’administration, le réseau des
VMs, le réseau de vMotion/Fault Tolerance et le réseau iSCSI.
vSphere Distributed Switch (VDS) : switch distribué, disponible à partir des licences
Enterprise Plus, qui permet de gérer le réseau de manière mutualisée au niveau du cluster,
via le server vCenter. Ce type de Switch est essentiellement pour les réseaux de VMs
dans des contextes d’architecture réseau élaborés, avec l’utilisation de plusieurs VLANs, de
QoS, etc.
Pour configurer le réseau virtuel d’un hôte, aller dans l’onglet configuration, Mise
en réseau. Un vSwitch (vSwitch0) existe déjà avec la carte réseau qui était connectée
pendant l’installation et deux Port Groups. Il existe deux types de Port Groups :
Virtual Machine Port Group : utilisé pour faire communiquer les VMs avec
l’environnement physique. S’il n y a pas de cartes réseaux physiques connectées, le réseau est
isolé de l’extérieur.
VMKernel Port Group : Utilisé pour le réseau de Management, la VMotion, le Fault
Tolerance. Le VMKernel nécessite une adresse IP et au moins une carte physique connectée.
Modifier les propriétés du vSwitch0, et supprimer le VMnetwork.
Puis ajouter une deuxième carte réseau, connectée au commutateur VMnet1, le réseau
d’administration. Ensuite, il faut modifier les propriétés du Port Group Management Network.
Sélectionner ce Port Group pour le trafic VMotion. Naviguer dans les paramètres de NIC
Teaming, cocher Changer l’ordre de basculement et mettre la deuxième carte en standby.
Faites la même chose sur les deux hôtes HoteESXI1 et HoteESXI2.
Le réseau de management est terminé. Passons à la partie iScsi. Pour cela, ajouter
un vSwitch (vSwitch1) dédié, puis créer un premier Port Group en VMKernel. Sélectionner
les deux interfaces connectées aux VMnet 2 et 3 au niveau de chaque hôte. Pour les 2
hôtes, l’interface VMnic2 est connectée au VMnet2 (réseau 10.0.0.0 /24) et l’interface
VMnic3 est connectée au VMnet3 (réseau 10.0.1.0 /24). Donner un nom iSCSI-1 au Port
Group et mettre la configuration IP.
Editer les propriétés du vSwitch1 et ajouter un Port Group VMKernel. Le nommer iSCSI-
2 puis configurer l’IP. Les Port Groups et les vSwitchs sont prêts, mais pas encore configurés
correctement.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
Faites la même chose sur les deux hôtes HoteESXI1 et HoteESXI2.
Maintenant il faut forcer les Port Group iScsi à utiliser les interfaces connectées
au réseau qui correspond à leur paramètre IP. Ouvrir les propriétés du vSwitch1, puis
modifier le Port Group iSCSI-1. Aller dans les paramètres de Nic Teaming, et modifier
l’ordre de basculement pour que le Port Group utilise uniquement l’interface VMnic2 (mettre
l’autre interface en inutilisée). Faire pareil pour le deuxième Port Group.
Faites la même chose sur les deux hôtes HoteESXI1 et HoteESXI2.
La configuration des vSwitchs et Port Groups pour l’accès au stockage est terminée.
Se connecter au serveur SAN, vérifier depuis le serveur SAN que toutes les interfaces
dédiées au réseau iScsi de chaque hôte sont joignables.
La configuration du réseau est terminée. On n’a pas créé de vSwitch pour configurer
un réseau de VM, car nous verrons plus tard comment créer un VDS (Virtuel Distributed
Switch) pour uniformiser la gestion du réseau des VM au niveau du cluster pour
l’ensemble des hôtes plutôt qu’en passant par des VSS au niveau de chaque hôte.
5. Configuration du stockage
Pour que les hôtes accèdent aux LUN via le réseau iScsi, il faut tout d’abord
ajouter et configurer un adaptateur de stockage software iScsi. Dans l’onglet Configuration,
Adaptateurs de stockage, ajouter un adaptateur de stockage iScsi. L’adaptateur est créé et son
iqn est généré.
Modifier les propriétés de l’adaptateur. Dans l’onglet Général, configurer
l’authentification CHAP le cas échéant. Dans l’onglet configuration du réseau, ajouter les
deux Port Group dédié à l’iScsi. Cliquer sur ajouter, sélectionner le Port Group, Seul les Port
Group VMKernel peuvent être utilisés et valider pour les deux.
Ensuite, renseigner les adresses IP statiques des interfaces iScsi du SAN. Valider.
L’adaptateur sera balayé pour détecter les LUN disponibles sur le SAN.
Normalement à ce stade, aucun LUN ne devrait être détecté. En effet il faut
rajouter les IQN des hôtes ESXi dans les initiateurs des cibles iScsi sur le SAN. Récupérer
l’IQN de chaque hôte. Sur le SAN, ajouter les IQN dans la liste des initiateurs pour chaque
cible iScsi. Sélectionner le disque virtuel qui héberge la cible puis éditer les propriétés de la
cible. Suite au balayage de l’adaptateur, les IQN des hôtes sont déjà dans le cache du serveur.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
Pour finir, ré-balayer l’adaptateur de stockage de chaque hôte en faisant un clic droit,
analyser, Le LUN devrait apparaitre, Maintenant.
6. VMware Pluggable Storage Architecture
Pour accéder aux LUN visibles par un hôte via les différents chemins disponibles,
VMware fournit des mécanismes de Multipathing pour gérer les chemins d’accès multiples.
Ces mécanismes sont englobés dans un système appelé Pluggable Storage Architecture
(PSA). VMware PSA offre des fonctionnalités NMP, Native Multipathing, pour une
grande variété de baies de stockage, et autorise des tierces parties à intégrer leurs propres
plugins de gestion du multipathing.
La communication avec le stockage se fait à travers une couche NMP et 2 APIs :
VMware NMP ou Multipathing Plugin d’une tierce partie : cette première couche décide
quel SATP va être utilisé pour le dialogue entre l’hôte et le stockage
Storage Array Type Plugin (SATP) : API chargée du dialogue entre l’hôte et la baie, en
fonction du mode d’accès au LUN. Les modes cités ci-dessus sont génériques et gérés
nativement par VMware. La couche SATP autorise aussi l’utilisation de plugins d’une tierce
partie.
Path Selection Policy (PSP) : API responsable du choix du chemin utilisé pour les requêtes
I/O. Il existe 3 PSP possibles :
Most Recently Used (MRU) : le premier chemin disponible lorsque l’hôte
démarre est sélectionné. Si le chemin devient inutilisable, un autre chemin est choisi
par l’hôte.
Fixed : L’hôte utilise un chemin spécifié comme chemin préféré. Lorsque ce
chemin n’est plus disponible, il en sélectionne un autre. Quand le chemin
préféré est de nouveau disponible, l’hôte ESXi le réutilise.
Round Robin (RR) : tous les chemins disponibles sont sélectionnés par l’hôte.
Les I/O sont envoyés de manière alternée et équilibrée sur chaque chemin pour
répartir la charge.
Par défaut, une PSP est appliquée à chaque SATP. Cela détermine la configuration
du multipathing en fonction de comment sont présentés les LUN par la baie à l’hôte. VMware
vSphere inclut plusieurs plugins génériques pour les baies de stockage :
VMW_SATP_LOCAL: pour les DAD (Direct Attached Devices)
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
VMW_SATP_DEFAULT_AA: pour l’accès aux LUN en mode Actif-Actif
VMW_SATP_DEFAULT_AP: pour l’accès aux LUN en mode Actif-Passif
VMW_SATP_DEFAULT_ALUA: pour les baies compatibles avec l’Asymmetric
Logical Unit Access.
D’autres plugins sont également disponibles pour certains types de baies :
VMW_SATP_LSI: Pour les baies LSI/Netapp
VMW_SATP_CX ou VMW_SATP_ALUA_CX: Pour les baies EMC/Dell Clarion /
Celerra
VMW_SATP_EQL: pour les baies Dell Equallogic
Les baies Eqallogic de Dell par exemple, sont accessibles via leur propre plugin
SATP, et ont aussi leur propre PSP: DELL_PSP_EQL_ROUTED.
Il est donc également possible de modifier la PSP par défaut de chaque SATP. Dans
l’onglet configuration, adaptateurs de stockage, sélectionner l’adaptateur puis cliquer un
clic droit sur un périphérique et puis cliquer sur gérer les chemins. Dans la zone Règle on
peut voir la PSP appliquée, Fixe, et le plugin SATP utilisé.
Ouvrir une console SSH en mode root. Pour voir la liste des SATP ainsi que leur PSP par
défaut, taper la commande esxcli suivante : esxcli storage nmp satp list
Pour changer la PSP du SATP utilisé, taper la commande suivante : esxcli storage nmp
satp set --default-psp=VMW_PSP_RR --satp=VMW_SATP_DEFAULT_AA
Les différentes PSP sont : VMW_PSP_FIXED ; VMW_PSP_MRU ; VMW_PSP_RR.
On configure le Round Robin pour que la charge d’I/O soit équilibrée sur les différents
chemins :
7. Création de Datastore VMFS
Pour que les hôtes puissent exploiter l’espace de stockage des LUN disponibles sur
le SAN, il faut créer des Datastores, ce qui consiste à formater les volumes au format VMFS.
Le VMFS (Virtual Machine File System) est un système de fichier de VMware
dédié à l’environnement virtuel qui permet de stocker des gros fichiers, notamment tous les
fichiers d’une VM dans un même répertoire pour simplifier l’administration des VMs.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
Les systèmes de fichiers classiques n’autorisent pas l’accès en lecture/écriture à
une ressource de stockage à plusieurs serveurs. Le VMFS est dit clustérisé, ce qui
autorise plusieurs hôtes à accéder simultanément en lecture/écriture à une même ressource
de stockage. Le mécanisme de disk locking permet de garantir qu’une VM travaille avec un
seul hôte à la fois. VSphere 5 introduit le VMFS version 5. Il permet notamment d’avoir
des volumes de 64 To alors qu’on était limité à 2To avec le VMFS version 3.
Nouveautés et avantages du VMFS5 :
VMFS5 apporte une meilleure évolutivité et de meilleures performances :
Limitation des Datastores jusqu’à 64To au lieu de 2 en VMFS3.
Les disques RDMp peuvent aller jusqu’à 64To.
Performances améliorées grâce au mécanisme de verrouillage qui s’applique à plus
de tâches et permet en théorie de supporter 2048 VM allumées par LUN.
Overhead des I/O disques diminuées grâce à la réduction des sous-bloc à 8ko.
Récupération d’espace sur des LUN en Thin Provisioning
Les volume VMFS3 peuvent s’upgrader facilement et à chaud sans perturbation en
VMFS5. Néanmoins l’upgrade ne permet pas d’exploiter toutes les améliorations du
VMFS5. Il est conseillé dans la mesure du possible de recréer des Datastores en VMFS5
plutôt que de les upgrader. Fin de la parenthèse sur VMFS5, un volume VMFS est donc identifié
par :
Un UUID (Universal Unique IDentffer)
Un NAA (Network Address Authority)
Un label
Pour créer un Datastore VMFS5, naviguer dans Stockage de l’onglet configuration,
puis cliquer sur ajouter stockage. Sélectionner disque/LUN comme type de stockage.
Sélectionner un des LUN visibles par l’hôte. Sélectionner la version du système de fichiers,
à moins d’avoir des hôtes de versions antérieures à ESXi 5.0, il n’y a aucune raison de ne
pas choisir le VMFS5 et Confirmer. Donner un nom de label au Datastore. Choisir la capacité
du Datastore. Valider la création du Datastore. Les Datastores créés apparaissent dans les
banques de données. Pour les autres hôtes, il suffit d’actualiser la vue des banques des données.
Cela va provoquer un rescan des adaptateurs de stockage, et les volumes VMFS vont être
détectés et montés automatiquement par les hôtes.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
La configuration globale des hôtes est terminée. Toutes les étapes effectuées jusqu’à
maintenant sont des conditions préalables pour faire fonctionner nos hôtes en cluster, et
pour l’implémentation des fonctionnalités de hautes disponibilités fournies par VMware à
savoir :
La vMotion
Le High Availability (HA)
Le Distributed Resource Scheduler (DRS) /Storage DRS (SDRS)
Le mode Enhanced VMotion Compatibility (EVC)
Le Fault Tolerance (FT)
8. RAW Device Mapping
Le Raw Device Mapping de VMware est un format de disque virtuel qui permet
de présenter à un hôte un volume brut présent sur le stockage.
Le disque RDM permet d’avoir des performances élevées directement au niveau
des VMs, qui utilisent le réseau SAN de l’hôte pour accéder à un volume brut non formaté en
VMFS disponible sur une baie de stockage.
Les disques RDM sont généralement utilisés :
Pour implémenter des clusters MSCS
Pour présenter des volumes directement à des VMs pour des besoins de performances
(bases de données)
Pour contenir des gros volumes de données (800Go et plus)
Le disque RDM est accessible par une VM via un pointeur stocké sur un Datastore VMFS
qui se comporte comme un proxy entre la VM et le LUN.
Il existe 2 modes de compatibilité :
Disque RDM à compatibilité virtuelle
Les disques RDMv peuvent atteindre une taille maximale de 2To. Il est utilisé pour
stocker de volumétries élevées. VMware recommande d’utilisé ce type de disque plutôt que des
vmdk lorsque l’on doit stocker plus de 800 Go de données sur un disque virtuel. Un disque
vmdk est un fichier facile à déplacer mais lorsqu’il est volumineux, son déplacement est plus
complexe. Les disques RDMv sont pris en compte par les snapshots de VMs, mais pas par les
snapshots de volumes au niveau de la baie de stockage.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]
Virtualisation de Datacenter avec VMware (ESXI, vSphere, vCenter et stockage SAN)
Disque RDM à compatibilité physique
Les disques RDMp peuvent faire jusqu’à 64To en fonction de la limite de gestion de l’OS
qui va gérer le volume. Ce type de disque est utilisé pour présenter à d’autres serveurs des
données identiques, et pour des VMs utilisant du clustering MSCS. Les snapshots de VMs ne
prennent pas en compte les disques RDMp, mais ils le sont par les snapshots de volumes au
niveau de la baie de stockage.
Création d’un disque RDM
Les prérequis pour pouvoir ajouter un disque RDM à une VM sont tout
simplement d’avoir un LUN disponible sur le réseau SAN correspondant à un volume
d’une baie de stockage. Ce volume ne doit pas être formaté en VMFS.
Pour commencer, créer un volume sur la baie et une cible iScsi associée. Ensuite,
ré-analyser les HBA de l’hôte préalablement ajouter dans la liste des initiateurs de la cible. Le
nouveau volume apparaît dans la liste des LUN. Ensuite, éditer les paramètres de la VM
qui doit gérer un disque RDM, et ajouter un disque dur virtuel.
Sélectionner le Raw Device Mapping. Cette option est grisée si vous n’avez pas de LUN
disponible sur le SAN. Sélectionner le LUN disponible. Sélectionner l’endroit ou stocker le
pointeur pour faire le mappage entre la VM et le LUN. Sélectionner le mode de compatibilité
du disque RDM en fonction des besoins. Valider les options avancées. Terminer la création du
disque RDM. Le disque RDM est créé et mappé à la VM.
Dans l’OS invité de la VM, ouvrir le gestionnaire de disques. Le disque apparaît dans
la liste des périphériques. Il ne reste plus qu’à le formater pour utiliser l’espace disponible.
Ingénieur Réseaux & Systèmes François Xavier DIOP Email : [email protected]