TP : Virtualisation & cloud computing
Chapitre1: Les protocoles de connexions à distance
I. Connexion par ssh avec clé
II. Connexion par RDP
III. Connexion par vnc
Chapitre 2: Étude de la virtualisation
I. Concepts de Bases de la virtualisation
II . Les conteneurs
III. L’hyperviseur kimchi
Chapitre1: Les protocoles de connexions à distance
I. connexion par ssh avec clé
Pour activer la connexion par ssh sans mot de passer on installe sur le serveur et sur le client le
paquet openssh-server qui installera à la fois le client et le serveur ssh.
Soit machine_A le client ssh et machine_B le serveur ssh, si un utilisateur de la machine_A veut se
connecter sur la machine_B par ssh sans mot de passe, machine_A et machineB doivent faire des
configuration suivantes :
Sur la machine_B :
Sur la machine_B, nous allons créer un utilisateur que la machine_A va utiliser pour se connecter à
la machine_B.
On peut également vérifier l’adresse ip de la machine_B comme suit :
Sur la machine_A :
Sur la machine_A on créer également un utilisateur qui vas se connecter sur la machine_B comme
suit :
Après avoir créé l’utilisateur on se connecte sous son nom en se plaçant dans son repertoire
personnel comme suit :
Une fois dans le répertoire personnel de l’utilisateur créé on génère la clée ssh par la commande
suivante :
on lance la commande « ls -a » pour pouvoir voir les fichiers et les répertoires cachés de l’utilisateur
comme suit :
on s’est déplacé à présent dans le répertoire .ssh créer lors de la génération des paires de cléé et on a
lancé également la commande « ls » :
Maintenant on copie la clé publique sur le répertoire personnel de l’utilisateur créé sur la
machine_B comme suit :
La copie de la clé publique générée par l’utilisateur de la machine_A crée sur la machine_B à la fois
un répertoire « .ssh » et renomme la clé publique par authorize-key.
On pourra le vérifier en lançant sur la machine_B la commande suivante.
À présent l’utilisateur de la machine_A peut se connecter sur la machine_B de la manière suivante/
II. Connexion par RDP
RDP est un des protocoles de connexion à distance sur l’interface graphique d’une machine
distante.
Pour cela nous allons suivre les demarches suivantes:
sur le serveur:
Le serveur represente la machine sur la quelle on desire se connecter à distance.
Sur ce dernier nous allons installer le paquet xrdp de la maniere suivante:
en suite on redemarre le serveur avec la commande
# reboot
On redemarre le service xrdp comme suite
On peut également activer la connexion multiple au serveur
On onatorise l’accès au port 3389 utilisant le protocole TCP comme suit
On également installer des theme pour embélire l’interface de bureau comme suit:
en suite on redemarre le service xrdp
Maintenant on part sur le client et on esssaye de se connecter sur le bureau distant:
sur le client
le client étant la machine desirant se connecter sur le serveur xrdp, donc nous avons different types
de client RDP:
Sur windows on peut utiliser le bureau à distance
sur ubuntu-16 nous pouvons utiliser vinagre
dans notre cas nous allons utiliser le client vinagre installer par defaut sur ubuntu 16.04 comme suit:
sur la machine cliente fadiabs, nous allons tester la connectiviter entre le serveur et le client comme
suit:
Ensuit on lance vinagre comme suit:
une fois lancer on clique sur connexion et on indique l’adresse IP du serveur suivit du numéro de
ports comme suit:
cliquons sur connexion
on cliqque sur OK et la connexion s’etablie comme suite:
III. Connexion par vnc
Le protocole VNC permet de se connecter à une machine à distance.
Pour se faire on installe sur le serveur les paquets suivants:
on fait d’abord la mise à jour du système comme suit:
on install les paquet permetant d’avoir l’interface graphique de la manière suivante
Maintenant on install le serveur vnc representé par tighvncserver comme suit:
en suite on redemarre la machine avec
# shutdown -r now
Puis on lance la commande vncserver pour determiner la methode d’accès à la plateforme vnc
Cette commande nous montre également le numero que le système nous a attribué comme suit:
On renomme le fichier xstartup de la manière suivante et on crée un nouveau fichier xtartup
Dans ce nouveau fichier on met les informations ci-dessous
on attribut les droits à ce fichier comme suit:
et on relance la commande vncserver cette fois ci pour demarrer l’application
Sur le client on lance toujours vinagre t on choisit le protocole vnc comme suit:
On met le mot de passe de l’utilisateur conserné:
maintenant nous sommes connecter à l’interface graphyque du serveur :
On peut également faire des traveaux comme en local:
Ici on fait la mise à jour du serveur à distance
Chapitre 2: Étude de la virtualisation
I. Concepts de Bases de la virtualisation
1.1. Terminologie
$ Machine virtuelle, domaine invité sont des ordinateurs dont le matériel est reproduit de
manière logicielle sur l'hôte de virtualisation.
$ L'hôte de virtualisation, machine physique a priori, embarque le logiciel hyperviseur qui
interprète les pilotes de périphériques virtuels et offrent l'accès au processeur (CPU) et à la
mémoire de travail (vive, RAM).
$ Pour un déploiement en production, il est préférable d'équiper une infrastructure d'au moins
deux hyperviseurs, un réseau de production, un réseau de gestion et un réseau de stockage
avec un SAN défié en iSCSI.
$ Pour une solution de Lab, un PoC, un projet personnel, il est préférable d'exécuter toutes
fonctions sur un seul ordinateur quitte à passer à la Nested Virtualization.
$ Nested Virtualization : La capacité de virtualiser un hypeviseur : KVM dans KVM, Hyper-V
dans Hyper-V, VMWare ESXi dans ESXi, etc. Il est nécessaire d'activer les instructions
"Intel VT-x or AMD-V" (32 bits) et Intel EPT or AMD RVI (64 bits).
1.2. Typologie des architectures de virtualisation¶
$ Isolateur : Docker, LXC, OpenVZ, BSD Jails
$ Noyau en espace utilisateur
$ Hyperviseur de type 2 / type 1
← Virtualisation totale (Full virtualization) : qemu
← Virtualisation Hardware-Assisted : qemu+KVM
← Paravirtualisation : qemu+KVM+virtio, Xen
KVM est un hyperviseur de type 1 qui s'utilise aussi bien dans :
$ des environnements de développement, de test, d'apprentissage
$ la virtualisation de centres de données (data center)
$ la mise en place d'infrastructures en nuage (cloud)
1.3. Machine virtuelle¶
Sur le plan technique, en général et particulièrement avec KVM, une machine virtuelle (VM) est
représentée par :
$ un fichier de définition qui reprend les caractéristiques de la machine, par défaut situé (en
format XML) dans /etc/libvirt/qemu/.
$ un ou des fichier(s) qui représentent les disques par défaut placés dans
/var/lib/libvirt/images/.
Les principales ressources de virtualisation sont :
• La puissance (CPU/RAM)
• Le stockage (disques)
• Le réseau
Mais pour fonctionner, une VM a aussi besoin de bien d'autres interfaces matérielles qui
peuvent être émulées ou para-virtualisées.
1.4. KVM¶
KVM Kernel-based Virtual Machine :
• KVM est le module qui transforme le noyau Linux en Hyperviseur type 1 (HVM et PV avec
virtio). Ce module traduit rapidement les instructions des vCPU via les intructions VT
AMD et Intel. Il prend aussi en charge des aspects de bas niveau de l'architecture x86.
• KVM est aussi un émulateur de matériel qui utilise qemu et les pilotes virtio.
Vue du noyau :
• Chaque VM est un processus
• Chaque vCPU est un thread de processeur.
Features :
• CPU and memory overcommit
• High performance paravirtual I/O
• Hotplug (cpu, block, nic)
• SMP guests
• Live Migration Power management
• PCI Device Assignment and SR-IOV
• KSM (Kernel Samepage Merging)
• SPICE, VNC, text
• NUMA
1.5. Qemu¶
Qemu est un émulateur de diverses architectures dont x86 (Hyperviseur de type 2). Combiné
au pilote KVM, il permet de réaliser de l'accélération Hardware (HVM).
L'outil de base qemu-img permet de créer et de gérer des images disque.
En format local les images disques peuvent se trouver en formats :
• raw
• qcow2
Par ailleurs, on peut utiliser directement des volumes logiques LVM.
1.6. Libvirt¶
libvirt un API de virtualisation Open Source qui s'interface avec un hyperviseur pour
administrer les VMs.
1.7. Outils de base¶
• virsh : cli pour libvirt
• qemu-img : permet de gérer les images des disques
• virt-manager : client graphique
• virt-install : commande pour la création des machines virtuelles
• virt-viewer : client console graphique (spice)
• virt-clone : outil de clonage
• virt-top : top de VM libvirt
• Autres outils
1.8. Outils libguestfs¶
libguestfs est un ensemble d'outils qui permettent d'accéder aux disques des machines
virtuelles et de les modifier.
Ces outils permettent de :
• d'accéder et de modifier un système de fichier invité à partir de l'hôte
• virt-builder permet de créer des VM à partir d'un dépôt d'images
• virt-syspreppermet de "préparer" une VM à cloner
• d'obtenir des informations complètes dur l'usage des disques
• de convertir des machines en P2V ou V2V
1.9. Pilotes et périphériques PV virtio¶
Périphérique réseau virtio.
1.10. Interfaces graphiques¶
• Kimchi est un outil de gestion en HTLM5 pour KVM basé sur libvirt. Il s'agit d'une
solution à hôte unique.
• oVirt est aussi une plateforme Web de gestion de virtualisation multi-hôtes supportant
d'autres hyperviseur, des volumes NFS, iSCSI ou FC (Fiber Channel), surveillance, fine
tuning des ressources.
2. Installer KVM et ses outils de gestion
apt-get -y install qemu-kvm libvirt-bin virtinst virt-viewer libguestfs-tools virt-manager
uuid-runtime
Démarrage du commutateur virtuel par défaut.
virsh net-start default
virsh net-autostart default
Vérification du chargement du module kvm.
Libvirt propose un outil de vérification de l'hôte.
Configuration du réseau par défaut :
Une interface bridge virbr0 [Link] est "natée" à l'interface physique. Le démon dnsmasq
fournit le service DNS/DHCP.
L'emplacement par défaut de l'espace de stockage des disques est / var/lib/libvirt/images/. La
définition des machines virtuelles est située dans /etc/libvirt/qemu/.
Il est peut-être plus aisé de désactiver pour l'instant firewalld (systemctl stop firewalld).
Le fichier de configuration du dnsmasq est /var/lib/libvirt/dnsmasq/[Link]
3. Création de VMs et administration de base
On lance virt-manager
on choisit local install media
On parcourt la machine pour choisir l’iso à installer
On fournit les ressources à la VM
On commence l’installation
L’installation est terminée
4. Les formats de stockage
Local / RAW
Ce format de stockage est probablement le moins sophistiqué. Le disque de la machine
virtuel est représenté par un fichier plat (anglais: flat file). Si votre disque virtuel a la taille de
8GiB, ce fichier sera alors de 8GiB. Il est à noter que ce format de stockage ne permet pas la
création de "snapshot". L'un des avantages du format RAW est qu'il est facile à sauvegarder
et copier, car ce n'est qu'un fichier.
qcow2 : QEMU copy-on-write – nouveau cow compatible au format QEMU, mais
disposants de caractéristiques spéciales, dont la possibilité de prendre plusieurs instantanés
(snapshots), des images plus petites sur les systèmes de fichiers qui ne supporte pas les
fichiers fragmentés, le cryptage AES en option, du provisionnement, et la compression zlib
optionnelle
qed : est un format d’image (comme qcow2, vmdk, etc) qui supporte les images fragmentées.
vmdk : Format d’image disque utilisé par VMware (permet l’échange d’images KVM –
VMware)
vpc : image virtual PC ou Parallèle.
Qu'est-ce qu'iSCSI ?
iSCSI est une norme de réseau de stockage basée sur un protocole Internet permettant de lier
des installations de stockage de données. En transportant les commandes SCSI sur des
réseaux IP, iSCSI peut faciliter les transferts de données sur des réseaux locaux (LAN), des
réseaux étendus (WAN), ou Internet. Avec iSCSI, l’espace du serveur de stockage sera
considéré comme plusieurs disques locaux par le système d’exploitation du client. Mais en
réalité, toutes les données transférées sur ces disques sont transférées par le réseau sur le
serveur de stockage.
Qu'est-ce qu'un iSCSI Target et un LUN ?
Dans la terminologie SCSI, un LUN (numéro d’unité logique) représente un périphérique
SCSI adressable individuellement (logique) et qui fait partie d’un périphérique SCSI
physique (appelé
« Target », la cible). Un environnement iSCSI émule la connexion à un disque dur SCSI. Un
iSCSI Target est comme une interface de connexion, et les LUN sont essentiellement des
disques durs numérotés. Lorsqu'un iSCSI Target est connecté par un initiateur iSCSI (un
client), tous les LUN mappés à l'iSCSI Target sont virtuellement joints au système
d'exploitation du client. Ainsi, les initiateurs peuvent mettre en place et gérer des systèmes
de fichiers sur des iSCSI LUN, comme ils le feraient avec un disque dur SCSI ou IDE
classique.
iSCSI, un acronyme pour Internet Small Computer System Interface, est un protocole de
réseau de stockage utilisé par les organisations pour faciliter la gestion du stockage en ligne.
Il s’appuie sur les réseaux TCP / IP pour envoyer des commandes SCSI entre l’initiateur
(client) et la cible (serveur) fournissant un accès au niveau du bloc aux unités de stockage
pouvant être des volumes logiques LVM, des disques complets, des fichiers ou des partitions.
La cible iSCSI est donc un serveur offrant un accès aux périphériques de stockage partagés,
tandis que l'initiateur iSCSI fonctionne comme un client qui se connecte à la cible et accède
au stockage partagé.
IQN (iSCSI Qualified Name) : Ce sont les noms utilisés pour identifier à la fois la cible et
l'initiateu.
Backend Storage : définit le périphérique de stockage auquel une cible iSCSI peut
donner un accès.
Target : service sur un serveur iSCSI offrant un accès aux périphériques de
stockage principaux.
Initiator : client iscsi
5. ACL :
Liste de contrôle d'accès qui répertorie les clients iSCSI à qui l'accès au périphérique
de stockage est autorisé.
LUN (logical unit number) : Périphériques de stockage principaux (disques,
partitions, volumes logiques, fichiers ou lecteurs de bande) partagés via la cible.
Portal :
une adresse IP et un port utilisés par la cible ou l'initiateur pour établir une connexion.t.
TPG (target portal group) — groupe d'adresses IP et de ports TCP sur lesquels une cible
iSCSI spécifique sera à l'écoute.
Login —
Authentification permettant à un initiateur d’accéder aux LUN de la cible.
INSTALLATION DU SERVEUR ISCSI sous ubuntu 18 apt -y install tgt
on redemarre le serveur et on verifie si le port est ouvert service tgt restart
On configure une ressopurce sur le serveur :
nano /etc/tgt/conf.d/[Link]
Dans ce fichier, on a defini l’identifiant de la ressource, le chemin de la ressource ainisi que
le login et le mot de passe à utiliser pour acceder à la ressouce sans oublier le client autorisé
à utiliser la ressource
on cree la ressouce de taille 10Go
dd if=/dev/zero of=/var/lib/iscsi_disks/[Link] count=0 bs=1 seek=10G
Sur le iscsi
on installe le paquet du client
apt-get install open-iscsi
et on edite le fichier
nano /etc/iscsi/[Link] en vue de declarer nom de l’initiateur
Ensuite, on donne les parametres de connexion au serveur iscsi depuis le
fichier/etc/iscsi/[Link]
Et on redemarre le client iscsi
systemctl enable iscsid open-iscsi
iscsiadm -m discovery -t sendtargets -p [Link]
La derniere commande permet de decouvrir les ressources sur le serveur d’adresse [Link]
iscsiadm -m discovery -t sendtargets -p [Link]
iscsiadm -m node –login
lsblk –scsi
parted -s /dev/sdb "mkpart primary 0% 100%"
mkfs.ext4 /dev/sdb
II. Les conteneurs
2.1. Les conteneurs sous docker
Si vous souhaitez utiliser les images docker comme modèle pour un déploiement de conteneur
efcacec ,atyr ndiaye vous montre comment valider les modifcations apportées à un conteneur en
cours d'exécution pour créer une nouvelle image docker.
Installer docker
$ sudo apt-get update
$ apt-get install \
apt-transport-https \
ca-certifcates \
curl \
software-properties-common
$ curl -fsSL [Link] | sudo apt-key add -
$ add-apt-repository \
"deb [arch=amd64] [Link] \ $(lsb _release -cs) \
stable"
// ou
sudo add-apt-repository "deb [arch=amd64] [Link] /etc/os-release;
echo "$ID") $(lsb_release -cs) stable"
$ sudo apt-get update
$ sudo apt-get install -y docker docker-ce
$ sudo systemctl status docker
Tirer l'image et exécuter le conteneur
La première étape consiste à tirer la dernière image de ubuntu. Ceci est fait avec la commande:$
sudo docker pull consol/ubuntu-xfce-vnc
Une fois l'image téléchargéec nous allons l'exécuter de manière à pouvoir utiliser la fenêtre
du terminal comme ceci:
$ sudo apt-get update
Accéder et modifer le conteneur
Ensuitec nous devons accéder au conteneur. ,orsque vous avez exécuté la commande
d'exécution de dockerc elle vous a présenté un long numéro d'identifcation. Vous aurez besoin
de ce numéro pour accéder à l'image. Exécutez la commande:
$ sudo docker run --name gns3-2.1.1 -it consol/ubuntu-xfce-vnc bash
Après avoir exécuté cette commandec vous vous trouverez dans le terminalc de la forme
root@ CONTAINER_ID , du conteneur en cours d'exécution où CONTAINER_ID est le nom
de la machine. Maintenantc ajoutons le logiciel nécessaire pour le modèle.
Pour ce fairec émettez les commandes suivantes:
$ sudo add-apt-repository ppa:gns3/unstable
$ sudo apt-get update
$ sudo apt-get install gns3-gui
Quittez le conteneur et validez les modifcations
Maintenant que nous avons modifé le conteneurc nous devons valider les modifcations.
uuittez d'abord le conteneur avec la commande exit. Pour valider les modifcations et créer
une nouvelle image en fonction des modifcationsc entrez la commande suivante:
$ sudo docker commit a6aeda2869b0 latyr/gns3-2.1.1 NB: a6aeda2869b0 est
l’ID du contenair.
Pour voir l’image crée faire:
$ sudo docker images
Exemple de fchier Dockerfle
Pour avoir l’image crée à partir de ce Dockerflec il suft d’exécuter la commande suivante:
$ docker build -t latyr_rtnec2lt/gns3 <chemin du fchier dockerfle>
Après ceci il faut faire la commande suivante pour vérifer si l’image est crée:
$docker images
Ensuite si tout se passe bien pour exécuter et avoir le container il suft de copier l’IMAGE ID
de la commande précédente puis de faire:
$ docker run --name latyr.gns3 -d --privileged --user 0 -p 5901:5901 -p 6901:6901 IMAGE_ID
Après cette commande faites:
$ docker ps -a
Vous verrez un container avec le nom latyr.gns3c vous copiez le
CONTAINER_ID ensuite vous faites:
$ docker exec -it CONTAINER_ID bash
Vous verrez votre terminal changer sous la forme root@29dcb1a846dd:~#, avec 29dcb1a846dd l’id
du container crée. Faites une mise à jour en faisant la commande:
$ apt-get update
Ajouter les logiciels dont vous avez besoins.
Vous pouvez des installation d’autres logiciels et envoyer des fchiers où dossiers dans le
container etc.
Ensuite faire un commit pour avoir l’image complet de votre docker comme suit:
$ sudo docker commit CONTAINER_ID latyr/dockerimages
NB: latyr/dockerimages est le nom de votre image docker et peut maintenant être utilisé pour
créer une machine docker.
2.2. Les conteneurs sous lxd
L’hyperviseur LXD est un système de virtualisation il est beaucoup plus léger qu'une machine
virtuelle classique, car il ne virtualise pas un OS complet mais partage de
nombreuses ressources avec l'OS hôte
Dans cette documentation nous allons montrer comment :
➢ mettre en place l’hyperviseur lxd
➢ initialiser l’hyperviseur
➢ mettre en place des containers
➢ manipuler le container
➢ se connecter par ssh sur un container sans avoir utiliser un mot de passe
➢ Mise en place de l’hyperviseur lxd
Avant de mettre en place notre hyperviseur lxd nous allons d’abord lancer la commande de mise à
jour des paquets comme suit :
Maintenant on installe avec la commande suivante
Une fois l’hyperviseur installé nous pouvons créer un groupe nommé lxd et y ajouter un utilisateur
On peut également installer le paquet zfsutils-linux
➢ Initialisation de l’hyperviseur lxd
Pour configurer notre hyperviseur nous allons lancé la commande d’initiation « lxd init » et suivre
les procédures suivantes :
On active l’utilisation de l’IPv4
On choisi une adresse IP pour l’interface réseau
On spécifie également la mask réseau
On peut aussi configurer le dhcp en précisant les plages d’adresse
On donne le d’adresse IP à offrir par le serveur dhcp
On active l’utilisation NAT pour les adresse IPv4
On refuse l’utilisation d’adresse IPv6
Si tous ce passe bien on aura ceci à la fin de l’initialisation de l’hyperviseur
➢ Quelques commandes lxc
La commande lxc list permet d’afficher les containers télécharger, si aucun container n’a été
téléchargé on aura l’image suivante :
« lxc image list » affiche la liste des images et les differents options
« lxc exec nom_du_container - - commande_linux » permet d’installer les paquet sur le container
sans y être
« lxc exec nom_du_container - - /bin/bash » permet de se connecter sur le container
lxc stop nom_du_container » arrête le container en cour d’exécution
« lxc delete nom_du_container » supprime le container existant
« lxc start nom_du_container » démarre le container
« lxc launch image:version nom_du_container » permet de mettre en place un container
➢ Mise en place d’un container
Pour mettre en place le container lxd ,ous allons lancé la commande suivante :
Si tous ce passe bien on aura ceci à la fin du téléchargement du container « fadiabscontainer »
On affiche la liste des container
On lance sur le container la commande « ls -la » depuis la machine « falxd-PC » comme suit :
On se connecte à présent sur le container
Une fois sur le container nous pouvons verifier notre adresse IP comme suit :
On peut également tester la connectivité au réseau internet comme suit :
On fait aussi une mise à jour des paquet sur le container
III. L’hyperviseur kimchi
3.1. Installation de l’hyperviseur KIMCHI
Pour mieux comprendre la virtualisation, nous allons installer une plateforme de gestion des
machines virtuelles Kimchi utilisant l’hyperviseur Qemu/KVM.
Cette plateforme est composé de :
- d’un serveur web : Nginx
-d’un serveur Wok
-Kimchi
Installation
1- mise à jour du systeme
# apt-get update && sudo apt-get upgrade -y
2- installation de l’hyperviseur qemu/kvm
sudo apt install qemu qemu-kvm libvirt-bin python-paramiko python-pil novnc python-libvirt
python-ethtool python-ipaddr python-guestfs libguestfs-tools spice-html5 spice-html5 python-
magic keyutils libnfsidmap2 libtirpc1 nfs-common rpcbind python-configobj python-parted -y
sudo add-apt-repository universe
3- verification de KVM
kvm-ok
on devrait avoir :
4- installation de kimchi
a) installation de nginx et telechargement de wok ginger(plugin permettent la remontee des infos de
la machine hebergeant kimchi) et kimchi
sudo apt-get install nginx
wget [Link]
wget [Link]
wget [Link]
b) installation proprement dite de la plateforme
dpkg -i [Link]
apt-get install -f
service wokd start
dpkg -i [Link]
apt-get install -f
service wokd restart
#rebooter la machine physique
shutdown -r now
dpkg -i [Link]
sudo apt-get install -f
# rebooter la machine physique avant de continuer
shutdown -r now
#si vous avez le firewall UFW installé, il faut autoriser l”acces au port 8001 via le protocole tcp
ufw allow 8001/tcp
Poue acceder à l’interface d’administration, il faut lancer un navigateur et saisir
[Link]
Utiliser un compte systeme de votre machine physique pour vous connecter
Copier les iso windows ou linux dans le dossier
/var/lib/kimchi/isos
affichage de la journalisation
host
3.2. Taches à faire
a- créer un réseau dans lequel vous allez integrer des machines
NB: Observez bien les differents types de reseaux qu’on peut creer
Si vous voulez que les machines soient connectées à votre reseau physique, choisissez macvtap
b- creer un modele(template) de machines puis l”editer pour parametrer les ressouces( cpu,RAM,
DD etc) des machines qui utiliseront ce modele
c- Installation de votre premiere machine virtuelle
3.3. Connexion à une machine virtuelle de kimchi par vnc
La proédure est la même que la connexion par ssh sur une machine linux.
Vous pouvez vous referer au “chapitre 1: methode de connexion à distance”
3.4. Connexion à une machine virtuelle de kimchi par novnc
Pour cela nous allons tout d’abord installer le serveur vnc et l’interface graphique sur la machine
virtuelle de kimchi comme ilustrer dans “chapitre1”
Le serveur novnc est en quelques sort un proxy entre le client vnc et le serveur vnc donc on peut
l’installer sur la machine hebergeant KIMCHI ou sur une autre machine.
Dans notre cas le serveur novnc est installé sur la machine hebergeant le serveur kimchi
Tout d’abord on clone le paquet novnc comme suite:
ceci nous donne un dossier novnc dans le quel on se déplace
Dans novnc on execute le fichier [Link] situé dans utils et on indique le protocole utiliser ainsi
que l’adresse IP du serveur virtuel ou on a installer le vnc suivit du numéro de port comme suit:
A présent n’importe quelles machines situées dans le réseau du seurveur novnc peut accèder à la
machine virtuelle de kimchi en utilisant le lien généré lors de l’execution du fichier [Link]
comme suite:
3.5. À faire
mettez en place un environnement de gestion machine virtualbox avec php