0% ont trouvé ce document utile (0 vote)
24 vues53 pages

Memoire Mondo

Ce document traite de l'implémentation d'un Datacenter virtualisé dans une infrastructure réseau hybride, en soulignant l'importance croissante de la virtualisation pour la gestion des données et des ressources. Il aborde les problématiques liées à la virtualisation des datacenters, les solutions proposées, ainsi que les objectifs de l'étude, qui visent à aider les ingénieurs de réseau. Les méthodes et techniques utilisées pour cette recherche incluent des analyses, des descriptions d'outils et des techniques de collecte de données.

Transféré par

ntuta
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
24 vues53 pages

Memoire Mondo

Ce document traite de l'implémentation d'un Datacenter virtualisé dans une infrastructure réseau hybride, en soulignant l'importance croissante de la virtualisation pour la gestion des données et des ressources. Il aborde les problématiques liées à la virtualisation des datacenters, les solutions proposées, ainsi que les objectifs de l'étude, qui visent à aider les ingénieurs de réseau. Les méthodes et techniques utilisées pour cette recherche incluent des analyses, des descriptions d'outils et des techniques de collecte de données.

Transféré par

ntuta
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Page |1

0. INTRODUCTION GENERALE

0.1. Contexte de l’étude


Ce travail étudie la virtualisation de réseau par le biais d’un
Datacenter, qui se généralise pour réaliser des infrastructures
numériques. Les premières virtualisations ont été utilisées pour le
stockage et le calcul, avant de s’étendre à pratiquement toutes les
fonctions. Le Cloud est également une lame de fond dans le domaine
des services. C’est un environnement éminemment important pour
l’accueil des machines virtuelles. Sa puissance est telle que les
temps de calcul pour obtenir une table de routage ou exécuter un
algorithme de gestion d’un handover ou d’un contrôle de sécurité
sont minimes, permettant des temps de réaction particulièrement
courts (à condition que la distance entre le centre de données qui
possède la fonction et le lieu de son utilisation soit petite). On
considère que pour obtenir un temps de réponse de l’ordre de la
milliseconde, le centre de données doit se situer au maximum à
quelques dizaines de kilomètres.
D'où l'intitulé du présent travail de fin d'étude « Implémentation
d’un Datacenter Virtualisé dans une Infrastructure Réseau
Hybride ».
0.2. Problématique
Vue les besoins grandissant dans la gestion de données, de stockage
et la gestion de ressources matériels ; les entreprises migrent vers
des solutions logicielles pour minimiser le cout, faciliter la gestion du
facteur d’encombrement, la gestion centralisée et l’automatisation
des tâches. Les infrastructures réseaux totalement physique sont
converties dans des solutions logicielles par la virtualisation soit
matérielles ou logiciels. Les réseaux abordent actuellement deux
aspects overlay et underlay avec l’avènement du SDN (software
Definition networking). Le problème majeur est réalisation des
solutions hybride pour la gestion des serveurs dans un centre de
données d’une entreprise vue les évolutions technologiques et vu les
enjeux de leurs, pour bien réaliser notre étude plusieurs questions
sont posées qui en fait constituent le socle de notre étude:

1
Page |2

1. Pourquoi les data centers sont- ils essentiels dans une


entreprise?
2. Pourquoi virtualiser une Data centre dans une infrastructures
réseaux d’entreprise.
3. Quels types de solutions peuvent être proposés pour la
virtualisation des data centers ?

Les réponses à ces questions vont constituer l’ensemble des


réflexions que nous menons dans le fond de ce travail scientifique.

0.3. Hypothèse
D'entrée de jeu, une hypothèse est entendue comme « une
proposition de la réponse à la question posée ».

Au regard des préoccupations exprimées sous forme des questions


au niveau de la problématique, nous avons proposé les réponses
provisoires ci-dessous :

 Dans le contexte d'une infrastructure IT d'entreprise, les data


centers sont conçus pour prendre en charge les applications et
les activités professionnelles suivantes : Les e-mails et le
partage de fichiers, Les applications de productivité, La gestion
de la relation client (CRM), La planification des ressources
d'entreprise (ERP) et des bases de données voir même le Big
Data, l'intelligence artificielle et l'apprentissage automatique,
Les postes de travail virtuels et les services de collaboration et
de communications ;
 Vue les besoins en ressources matérielles et la démocratisation
des activités réseaux d’une entreprise les solutions virtuelles
facilitent l’entreprises pour la gestion matérielle, la gestion des
anomalies et de performance et l’automatisation des taches ;
 La plupart des services de cloud computing les plus utilisés
sont adaptés et hébergés en datacenter. Que ce soit
l’Infrastructure as a service (IaaS), le Platform as a service
(PaaS) ou le Software as a service (SaaS), l’infrastructure cloud
reste la même. L’hébergement web mutualisé est également
une solution proposée en datacenter et offre les tarifs les plus
abordables pour héberger un site web, professionnel ou non.

2
Page |3

De la meme manière une solutions off – premise pour le


déploiement des data center Virtuels sont possibles avec
Microsoft Hyper-V, Vmware Fusion et ESXI, OpenStack ou KVM
sont utilisable.

0.4. Objectifs

0.4.1. Objectif général de l’étude


Ce travail a pour objectif principal d’aider les ingénieurs de réseau à
mieux Déployer des solutions des virtualisations basés sur des data
center pour faciliter la mise en place clustering ou ferme de
serveurs.
0.4.2. Objectifs spécifiques
Pour atteindre notre objectif général, nous devons nous travailler sur
plusieurs points qui constitueront la fondation de ce que nous allons
réaliser en cela, nous devons :
 Maitriser les notions sur la virtualisation ;
 Maitriser l’écosystème du Datacenter ;
 Mettre le déploiement d’un data center virtualisé;

0.5. Choix et intérêt du sujet

0.5.1. Choix du sujet


En choisissant ce sujet sur l’implémentation d’un Datacenter
Virtualisé dans une Infrastructure Hybride, Nous entendons mettre
en application les connaissances acquises au cours de notre
formation.
0.5.2. Intérêt scientifique

Ce sujet a un intérêt non négligeable pour le monde scientifique car


il pourra servir de référence pour des chercheurs qui voudront
l’améliorer ou travailler dans le même domaine.

0.5.3. Intérêt personnel

Il sanctionne la fin de nos études afin d’exprimer notre satisfaction


sur ces quatre années de cursus académiques passé au nouveau
système d’enseignement qui est LMD.
0.5.4. Intérêt pratique

3
Page |4

Une implémentation d’un data center Virtualisé met en exergue toutes les notions sur les
réseaux en générale et sureté de fonctionnement en particulier.
0.6. Méthodes et technique utilisées

0.6.1. Méthodes utilisées

Les méthodes est définit comme étant l’ensemble d’opérations


intellectuelles par lesquelles une discipline cherche à atteindre les
réalités qu’elle poursuit, les démontrent et les vérifient. Tout au long
de notre travail, nous aurons à utiliser les méthodes suivantes :

 Méthode analytique : Elle permettra de faire des analyses


à la manière dont les informations circulent dans un data
center et les outils de virtualisations.
 Méthode descriptive : La description des types d’outils
que nous aurons à déployer pour implémenter notre solution
au des entreprises.

0.6.2.Techniques utilisées

Pour récolter les données nécessaires à la réalisation de ce travail,


nous avons recouru aux techniques ci-après :
 Documentaire : elle renvoie à toute source de renseignement
déjà existante à laquelle le chercheur peut avoir accès à
l’enrichissement du travail (Livres, thèses, mémoires) ;
 L’observation directe : elle nous a facilité de voir et observer
comment se produisent les faits pour nous permettre la récolte
des données ;
 L’interview : conversation entre une ou plusieurs personnes
ou des questions sont posées pour obtenir les informations. Elle
nous a permis de récolter plusieurs données qui devront être
utilisé dans ce travail.

0.7. Délimitation du sujet

Tout travail scientifique doit être délimité sur la plan spatiale et


temporelle sur son exploitation.
0.7.1. Délimitation spatiale

Dans l’espace notre étude se limite à L’Implémentation d’un Data


Center Virtualisé dans Une Infrastructure Hybride.

4
Page |5

0.7.2. Délimitation temporelle

Dans le temps, les recherches menées sur cette étude couvrent la


période allant de Février à octobre 2025.
0.8. Subdivision du travail

Hormis l’introduction et la conclusion générale, notre travail


comporte trois chapitres :
 Le premier chapitre porte sur La revue de la littérature ;
 Le deuxième chapitre porte sur la présentation du projet
 Le Troisième est axé sur Déploiement, Test et Analyse de
résultat ;

CHAPITRE I REVUE DE LA LITTERATURE


I.1. Introduction

5
Page |6

Dans ce premier chapitre sur la revue de littérature, nous présentons


les notions de base sur les réseaux informatiques, sur le Data center,
la virtualisation voir même sur le cloud Computing. Les réseaux de
datacenters modernes sont conçus pour répondre aux problèmes de
flexibilité et de redondance généralement rencontrés avec les
réseaux de datacenter traditionnels lorsqu'il est question de se
développer et d'évoluer. Pour ce faire, ils tirent parti d'une
architecture constituée d'une couche inférieure (appelée
« underlay ») IP qui interconnecte les dispositifs physiques, et d'une
couche supérieure (appelée "overlay") virtuelle composée d'un plan
de contrôle et d'un plan de données pour assurer la connectivité
entre les points de terminaison.

I.3. Introductions aux Réseaux Informatiques


I.3.1. Définitions Réseau informatique
Un réseau est un ensemble de moyens matériels et logiciels
géographiquement dispersés destinés à offrir un service, comme le
réseau téléphonique, ou à assurer le transport de données. Les
techniques à mettre en œuvre diffèrent en fonction des finalités du
réseau et de la qualité de service désirée.

Un réseau informatique est un ensemble d’équipements


informatiques reliés entre eux par des moyens de communication
pour échanger des données. En d’autres termes, c’est une collection
d’objet de communication et d’informations. Ces entités sont reliées
et connectées entre eux par l’intermédiaire des lignes physiques
et /ou non physique (ondes radio) appelées lignes de
télécommunication, qui assurent le transport et l’échange des
données et/ou informations.

6
Page |7

Figure 1.1. Interconnexion des nœuds réseaux

Le réseau est composé de nœuds. Les nœuds d’accès, situés à la


périphérie du réseau, permettent le raccordement des usagers par
une liaison dénommée liaison d’abonné. L’ensemble des moyens mis
en œuvre pour raccorder un usager est souvent désigné par le terme
de boucle locale Les nœuds sont généralement des routeurs au point
d’accès et des commutateurs au cœur du réseau.
I.3.2. Classification des réseaux
Le langage courant distingue les réseaux selon différents critères. La
classification traditionnelle, fondée sur la notion d’étendue
géographique, correspond à un ensemble de contraintes que le
concepteur devra prendre en compte lors de la réalisation de son
réseau. Généralement, on adopte la terminologie suivante :
 PAN : Les réseaux personnels, ou PAN (Personal Area
Networks), permettent aux équipements de communiquer à
l’échelle individuelle. Un exemple courant est celui du réseau
sans fil, qui relie un ordinateur à ses périphériques (Bluetooth).
 LAN (Local Area Network), réseau local d’étendue limitée à une
circonscription géographique réduite (bâtiment...), ces réseaux
destinés au partage local de ressources informatiques
(matérielles ou logicielles) offrent des débits élevés de 10 à
100 Mbit/s.
 MAN (Metropolitan Area Network), d’une étendue de l’ordre
d’une centaine de kilomètres, les MAN sont généralement
utilisés pour fédérer les réseaux locaux ou assurer la desserte
informatique de circonscriptions géographiques importantes
(réseau de campus). – WAN (Wide Area Network), ces réseaux

7
Page |8

assurent généralement le transport d’information sur de


grande distance. Lorsque ces réseaux appartiennent à des
opérateurs, les services sont offerts à des abonnés contre une
redevance. Les débits offerts sont très variables de quelques
kbit/s à quelques Mbit/s.

D’autres classifications, plus proches des préoccupations


quotidiennes, peuvent être adoptées. Le critère organisationnel
prédomine. Le réseau est accessible à tous moyennant une
redevance d’usage, il est alors dit public ; s’il n’est qu’à une
communauté d’utilisateurs appartenant à une même organisation, il
est alors dit privé. Un réseau public peut être géré par une personne
privée (opérateur de télécommunication de droit privé), et un réseau
privé peut être sous la responsabilité d’une personne de droit public
(réseau d’un ministère...). Un réseau privé est dit virtuel lorsqu’à
travers un réseau public on simule (émule) un réseau privé.
Les réseaux se différencient, aussi, selon les modes de diffusion de
l’information. On distingue trois modes :
 La source diffuse ses informations vers des stations
réceptrices. La relation est unidirectionnelle de 1 à N (réseau
de diffusion). Les réseaux de radiodiffusion constituent un
exemple de ce type de réseau. Les réseaux locaux sont aussi
assimilés à cette catégorie.
 À l’inverse, un ensemble de stations peut envoyer les
informations à un seul destinataire. La relation est aussi
unidirectionnelle, mais de N à 1 (réseaux de collecte). Les
réseaux de télémesure constituent un exemple de ce mode de
fonctionnement.
 D’une manière plus générale, un abonné d’un réseau désire
pouvoir atteindre tous les autres abonnés ou une partie de
ceux-ci. Le réseau doit établir une relation de 1 à 1 parmi N.
Ces réseaux, de mise en relation, sont dits réseaux de
commutation, le réseau téléphonique (RTC) en est un exemple.

8
Page |9

Figure 1.2. Classification selon le mode de diffusion des


informations

Enfin, une autre distinction (approche temporelle) applicable à tous


les réseaux décrit comment les différents nœuds (éléments actifs)
d’un réseau sont synchronisés entre eux :
 Si chaque nœud a une horloge indépendante, le réseau est dit
plésiochrone. Les horloges réception et émission sont
différentes mais proches (plésio).
 Si les horloges des différents nœuds sont toutes asservies à
une même horloge, le réseau est dit synchrone. L’horloge
principale peut être une horloge atomique ou une horloge
pilotée par les tops horaires d’un GPS.

La synchronisation des réseaux et les problèmes en relation avec la


distribution des horloges constituent un problème majeur de
conception d’un réseau.
I.3.3. Architectures réseaux
Du point de vue de la manière dont les ordinateurs peuvent offrir de
services à d’autres, il y a lieu de classifier les réseaux en deux
grandes catégories :

- Réseau poste à poste (peer to peer) ;


- Réseau client-serveur (à serveur dédié).
-
Ces deux types de réseau ont des capacités différentes. Le type de
réseau à installer dépend des critères suivants :

- Taille de l’entreprise ;
- Niveau de sécurité nécessaire ;
- Type d’activité ;
- Niveau de compétence d’administration disponible ;
- Volume du trafic sur le réseau ;
- Besoins des utilisateurs du réseau ;
- Budget alloué au fonctionnement du réseau.

I.3.3.1. Réseau poste à poste


C'est un réseau sans serveur dédicacé, moins coûteux car ne
nécessitant pas un serveur puissant et un mécanisme de sécurité
très poussé. Chaque ordinateur connecté au réseau peut faire office
de client ou serveur. En général, c'est un petit réseau de plus ou

9
P a g e | 10

moins 10 postes, sans administrateur de réseau. On peut installer ce


type de réseaux avec les systèmes d'exploitation tels que Windows
95, Windows 98, Windows 3.11, Windows NT Workstation, Windows
XP, Windows 7, Windows 8 et Windows 10. En général, c'est un petit
réseau de plus ou moins 10 postes, sans administrateur de réseau.

1. Avantages

- Implémentation moins coûteuse ;


- Ne requiert pas un système d’exploitation de réseau ;
- Ne requiert pas un administrateur de réseau dédié.

2. Inconvénients

- Moins sécurisé ;
- Chaque utilisateur doit être formé aux tâches
d’administration ;
- Rend donc vite l’administration très complexe.

I.3.3.2. Réseau Client-serveur


En général, lorsqu'on utilise plus de 10 ordinateurs, on a besoin d'un
Serveur dédicacé. Il est utilisé seulement comme SERVEUR et non
CLIENT ou WORKSTATION. Il est optimisé pour répondre aux besoins
du client et d'assurer la sécurité des ressources différentes, telles
que fichiers, répertoires.

Un serveur est un ordinateur central, disponible en permanence pour


répondre aux requêtes émises par les clients et relatives à des
services de fichiers, d'impression, d'applications ou autres. Cette
approche permet de décharger le serveur principal. C'est ainsi qu'on
rencontre des serveurs :

- De fichiers ;
- De fax ;
- Contrôleur de domaine ;
- D’application ;
- D’e-mail ;
- D’impression…

1. Avantages

10
P a g e | 11

- Un réseau client-serveur, présente les avantages suivants :


- Administration et sécurité centralisées ;
- Procédure de backup centralisée ;
- Tolérance à la faute peut être centralisée ;
- Accès d'un nombre élevé d'utilisateurs au serveur.
- Garantit une meilleure sécurité ;
- Plus facile à administrer lorsque le réseau est étendu car
l’administration est centralisée ;
- Possibilité de sauvegarder toutes les données dans un
emplacement central.

I.3.4. Topologies des réseaux


La topologie d’un réseau décrit la manière dont les noeuds sont
connectés. Cependant, on distingue la topologie physique, qui décrit
comment les machines sont raccordées au réseau, de la topologie
logique qui renseigne sur le mode d’échange des messages dans le
réseau (topologie d’échange).
I.3.4.1. Topologie physique

1. La topologie en bus

Elle consiste à relier chaque ordinateur à un bus par l’intermédiaire


d’un câble coaxial du type passif. Sur ce, le signal n’est pas modifié
ni régénéré à chaque station, ce qui limite l’étendu de ce genre de
réseau. On distingue la topologie en bus unidirectionnel et la
topologie en bus bidirectionnel.

Figure I.3. Réseau informatique utilisant la topologie en bus

2. La topologie en étoile

Elle consiste à relier chaque ordinateur du réseau à un


concentrateur, appelé Hub ou à un Switch, qui examine le contenu

11
P a g e | 12

du message, le régénère et le transmet qu’à son destinataire par


l’intermédiaire d’un câble à paire torsadé (UTP, FTP ou STP) en
utilisant des connecteurs RJ45. Pratiquement, dans une topologie en
étoile les ordinateurs sont interconnectés à travers un concentrateur
qui peut être un Hub ou un Switch, représenté comme suit :

Figure I.4. Topologie en étoile

3. La topologie en anneau

Sur cette topologie, l’information circule le long de l’anneau dans un


seul sens sur la boucle fermée. A chaque passage d’un message au
niveau d’une station de travail, celle-ci regarde si le message lui est
destiné, si c’est le cas elle le recopie.

Cette topologie est utilisée par les réseaux Token ring et FDDI. Elle
consiste à relier les ordinateurs du réseau à l’aide d’un Multi station
Acess Unit, MAU en sigle, qui est un élément passif dans le réseau,
de sorte que les informations circulent d’ordinateur en ordinateur
dans un seul sens à travers celui-ci. Le MAU ou le nœud reçoit le
message et le régénère.

Figure 1.5. Logique représentant un réseau informatique utilisant


la topologie en anneau

12
P a g e | 13

4. La topologie maillée

Le réseau maillé est un réseau dans lequel deux postes de travail


peuvent être mises en relation par différents chemins de trafic reliés
entre eux via les routeurs ou les autocommutateurs PABX. Les
routeurs permettent de sélectionner le meilleur chemin pour la
transmission fiable des données sur le réseau et d’un ordinateur à
l’autre. Un réseau maillé est représenté par la figure ci-contre :

Figure 1.6. Exemple de réseau en topologie maillée.

5. La topologie en arbre

C’est une topologie en bus sur laquelle un des nœuds est connecté à
un répéteur, qui donne naissance à un nouveau bus. Elle est
souvent utilisée pour les extensions de réseaux et permet ainsi de
les étendre au-delà des recommandations du constructeur.

6. La topologie hiérarchique

Est une topologie dérivée des topologies en étoile, les réseaux


hiérarchiques sont constitués d’un ensemble de réseaux en étoiles
reliés entre eux par des concentrateurs jusqu’à un nœud unique.
Cette topologie est essentiellement mise en œuvre dans les réseaux
locaux 10 base T, Starlan.

13
P a g e | 14

7. La topologie hybride

Cette topologie est la combinaison de deux ou plusieurs topologies


physiques, comme étoile, bus et anneau. Elle est illustrée par la
figure suivante :

Figure 1.7. Représentation d’une topologie hybride.

I.3.4.2. Topologie logique


Les différentes topologies logiques sont :

– Token Ring : est une méthode d’accès aux réseaux basés sur
les principes de la communication tours à tours c.à.d.
l’ordinateur a la possibilité de parler à son tour en
boucle(anneau) et ainsi de suite.
– FDDI (FiberDistributed Data Interface) : est une
technologie d’accès au réseau sur des lignes de type fibre
optique, il s’agit d’une paire d’anneau, l’un dit primaire pour
l’envoie des données, l’autre secondaire pour détecter les
erreurs au primaire.

I.3.4.3. Ethernet
I.3.4.3.1. Définition
Ethernet est un protocole de réseau local à commutation de
paquets. C'est une norme internationale : ISO/IEC 802-3.

14
P a g e | 15

Initialement conçu au début des années 1970, pour relier entre eux
des ordinateurs rattachés à un même câble coaxial, depuis les
années 1990, on utilise très fréquemment Ethernet sur paires
torsadées pour la connexion des postes clients (le cable coaxial
ayant été remplacé par des concentrateurs - hub - puis des
commutateurs - switch - ), et des versions sur fibre optique pour le
cœur du réseau. Cette configuration a largement supplanté d'autres
standards comme le Token Ring, FDDI et ARCNET. Depuis quelques
années, les variantes sans fil d'Ethernet (normes IEEE 802.11, dites
« Wi-Fi ») ont connu un fort succès, aussi bien pour les installations
personnelles que professionnelles.

I.3.4.3.2. Description générale

1. Standardisation initiale

Ethernet est fondé sur le principe de membres (pairs) sur le réseau,


envoyant des messages dans ce qui était essentiellement un
système radio, captif à l'intérieur d'un fil ou d'un canal commun,
parfois appelé l'éther. Ainsi, Ethernet est conçu à l'origine pour une
topologie physique et logique en bus (tous les signaux émis sont
reçus par l'ensemble des machines connectées). Chaque pair est
identifié par une clé globalement unique, appelée adresse MAC, pour
s'assurer que tous les postes sur un réseau Ethernet aient des
adresses distinctes sans configuration préalable.

I.3.4.3.3. Domaines de diffusion et de collision

Ethernet est un réseau de type diffusion (Broadcast), c'est-à-dire


qu'il est possible d'envoyer (y compris dans ses évolutions
ultérieures, sur demande) une trame donnée à toutes les stations
raccordées au réseau Ethernet, qui constitue ainsi un domaine de
diffusion (Broadcast domain). Il est possible de raccorder deux
segments Ethernet par le biais d'un pont (bridge) qui va répéter et
retransmettre à l'identique (contrairement à un routeur) les trames
d'un segment vers un autre segment. Les deux segments ainsi
raccordés forment un seul domaine de diffusion, en revanche ils
forment chacun leur propre domaine de collision (les collisions ne
traversent pas le pont).

1. Normalisation

Historiquement Ethernet est un standard de fait décrit depuis 1980


par les spécifications Ethernet / DIX. Par ailleurs, l'IEEE a publié son
propre standard IEEE 802.3 en 1983, s'inspirant de ce standard de

15
P a g e | 16

fait. Il existe donc en fait un standard Ethernet II / DIX d'une part (de
1982), et une norme IEEE 802.3 d'autre part (de 1983). Les deux
standards sont interopérables. Par la suite les mises à jour
normatives ont été formalisées par l'IEEE, et 802.3 a du reste pris
officiellement en compte les aspects de DIX en 1998 (révision 802.3-
1998).

2. Variétés d'Ethernet

La section ci-dessous donne un bref résumé de tous les types de


média d'Ethernet. En plus de tous ces standards officiels, plusieurs
fabricants ont implémenté des types de média propriétaires pour
différentes raisons—quelquefois pour supporter de plus longues
distances sur de la fibre optique.

3. Ethernet 10 Mbit/s

 10BASE-T -- Fonctionne avec minimum 4 fils (deux paires


torsadées, conventionnellement les 1, 2 et 3, 6) sur un câble
CAT-3 ou CAT-5 avec connecteur RJ45.
 FOIRL -- Fiber-optic inter-repeater link (lien inter-répéteur sur
fibre optique). Le standard original pour l'Ethernet sur la fibre
optique.
 10BASE-F -- Terme générique pour la nouvelle famille
d'Ethernet 10 Mbit/s : 10BASE-FL, 10BASE-FB et 10BASE-FP. De
ceux-ci, seulement 10BASE-FL est beaucoup utilisé.
 10BASE-FL -- Une mise à jour du standard FOIRL.
 10BASE-FB -- Prévu pour inter-connecter des concentrateurs
ou commutateurs au cœur du réseau, mais maintenant
obsolète.
 10BASE-FP -- Un réseau en étoile qui ne nécessitait aucun
répéteur, mais qui n'a jamais été réalisé.

4. Fast Ethernet (100 Mbit/s)

 100BASE-T -- Un terme pour n'importe lequel des standards


100 Mbit/s sur paire torsadée. Inclut 100BASE-TX, 100BASE-T4
et 100BASE-T2.
 100BASE-TX -- Utilise deux paires et requiert du câble CAT-5.
Topologie logique en bus en utilisant un concentrateur (hub) ou
en étoile avec un commutateur (switch), comme pour le
10BASE-T, avec lequel il est compatible.
 100BASE-T4 -- Permet le 100 Mbit/s (en semi-duplex
seulement) sur du câble CAT-3 (qui était utilisé dans les
installations 10BASE-T). Utilise les quatre paires du câble.
Maintenant désuet, comme le CAT-5 est la norme actuelle.

16
P a g e | 17

 100BASE-T2 -- Aucun produit n'existe. Supporte le mode full-


duplex et utilise seulement deux paires, avec des câbles CAT-3.
Il est équivalent au 100BASE-TX sur le plan des fonctionnalités,
mais supporte les vieux câbles.
 100BASE-FX -- Ethernet 100 Mbit/s sur fibre optique.

5. Gigabit Ethernet (1 000 Mbit/s)

 1000BASE-T -- 1 Gbit/s sur câble de paires torsadées de


catégorie 5 (classe D) ou supérieure (selon NF EN 50173-2002),
sur une longueur maximale de 100 m. Utilise les 4 paires en
full duplex, chaque paire transmettant 2 bits par top d'horloge,
à l'aide d'un code à 5 moments. Soit un total de 1 octet sur
l'ensemble des 4 paires, dans chaque sens. Compatible avec
100BASE-TX et 10BASE-T, avec détection automatique des Tx
et Rx assurée. La topologie est ici toujours en étoile car il
n'existe pas de concentrateurs (hubs) 1 000 Mbit/s. On utilise
donc obligatoirement des commutateurs (switch). Spécifié par
le standard IEEE 802.3ab.
 1000BASE-X -- 1 Gbit/s qui utilise des interfaces modulaires
(des transceivers en anglais, appelés GBIC ou SFP selon leur
technologie) adaptées au média (Fibre Optique Multi, Mono-
mode, cuivre). Spécifié par le standard IEEE 802.3z.
 1000BASE-SX -- 1 Gbit/s sur fibre optique multimodes à
850 nm.
 1000BASE-LX -- 1 Gbit/s sur fibre optique monomodes et
multimodes à 1 300 nm.
 1000BASE-LH -- 1 Gbit/s sur fibre optique, sur longues
distances.
 1000BASE-ZX -- 1 Gbit/s sur fibre optique monomodes
longues distances.
 1000BASE-CX -- Une solution pour de courtes distances
(jusqu'à 25 m) pour le 1 Gbit/s sur du câble de cuivre spécial.

6. Ethernet 10 gigabits par seconde

Le standard Ethernet 10 gigabits par seconde recouvre sept types de


média différents pour les réseaux locaux, réseaux métropolitains et
réseaux étendus. Il a été spécifié par le standard IEEE 802.3ae dont
la première publication date de 2002, puis a été incorporé dans une
révision de l'IEEE 802.3. La version Ethernet 10 Gbit/s est 10 fois
plus rapide que Gigabit Ethernet ; ceci est vrai jusqu'au niveau de la
couche MAC seulement.

17
P a g e | 18

 10GBASE-CX4 (cuivre, câble infiniband, 802.3ak) -- utilise un


câble en cuivre de type infiniBand 4× sur une longueur
maximale de 15 mètres.
 10GBASE-T -- transmission sur câble catégorie 6, 6 A ou 7
(802.3an), en full duplex sur 4 paires avec un nombre de
moments de codage qui sera fonction de la catégorie retenue
pour le câble (et de l'immunité au bruit souhaitée), sur une
longueur maximale de 100 mètres. Devrait être compatible
avec 1000BASE-T, 100BASE-TX et 10BASE-T
 10GBASE-SR (850 nm MM, 300 mètres, dark fiber) -- créé pour
supporter de courtes distances sur de la fibre optique
multimode, il a une portée de 26 à 82 mètres, en fonction du
type de câble. Il supporte aussi les distances jusqu'à 300 m sur
la nouvelle fibre multimode 2 000 MHz.
 10GBASE-LX4 -- utilise le multiplexage par division de
longueur d'onde pour supporter des distances entre 240 et
300 mètres sur fibre multimode.
 10GBASE-LR (1 310 nm SM, 10 km, dark fiber) et 10GBASE-ER
(1 550 nm SM, 40 km, dark fiber) -- Ces standards supportent
jusqu'à 10 et 40 km respectivement, sur fibre monomode.
 10GBASE-SW (850 nm MM, 300 mètres, SONET), 10GBASE-LW
(1 310 nm SM, 10 km, SONET) et 10GBASE-EW (1 550 nm SM,
40 km, SONET). Ces variétés utilisent le WAN PHY, étant conçu
pour inter-opérer avec les équipements OC-192 / STM-64
SONET/SDH. Elles correspondent aux niveaux physiques
10GBASE-SR, 10GBASE-LR et 10GBASE-ER respectivement, et
utilisent le même type de fibre, en plus de supporter les
mêmes distances (il n'y a aucun standard WAN PHY
correspondant au 10GBASE-LX4.)

7. Ethernet 40 gigabits par seconde et 100 gigabits par seconde

Ces deux familles de standards (40GBASE et 100GBASE) ont été


initialement définies en 2010 sous la norme IEEE 802.3ba.

8. Ethernet 200 gigabits par seconde et 400 gigabits par


seconde

Ces deux familles de standards (200GBASE et 400GBASE) ont été


définies en décembre 2017 sous la norme IEEE 802.3bs.

18
P a g e | 19

I.3.5. Médium de Transport


I.3.5.1. Définition
Le médium de transport correspond aux éléments matériels et
immatériels capables de transporter des éléments binaires, comme
les câbles et les ondes radio. Dans le premier cas, ce sont des fils
métalliques ou des fibres optiques qui transportent l’information et
dans le second les ondes hertziennes. Les deux types de support
sont plus complémentaires que concurrents. L’hertzien permet la
mobilité, mais au prix de débits plus faibles. De son côté, le câble
propose des débits de plus en plus importants. Même si les débits
des équipements mobiles augmentent, l’écart reste stable avec ceux
des câbles.
I.3.5.2. Le Médium physique
Le médium de transport correspond aux éléments matériels et
immatériels capables de transporter des éléments binaires, comme
les câbles et les ondes radio. Dans le premier cas, ce sont des fils
métalliques ou des fibres optiques qui transportent l’information et
dans le second les ondes hertziennes. Les deux types de support
sont plus complémentaires que concurrents.
1. La paire de fils torsadée

La paire de fils torsadée est le support de transmission le plus


simple. Elle est constituée d’une ou de plusieurs paires de fils
électriques agencés en spirale. Ce type de support convient à la
transmission aussi bien analogique que numérique. Les paires
torsadées peuvent être blindées, une gaine métallique enveloppant
complètement les paires métalliques, ou non blindées. Elles peuvent
être également « écrantées ». Dans ce cas, un ruban métallique
entoure les fils.

Figure 1.8. La paire torsadée

Une distance de l’ordre de 100 m permet de faire passer le débit à


plusieurs gigabits par seconde. La normalisation dans le domaine
des câbles est effectuée par le groupe ISO/IEC JTC1/SC25/WG3 au

19
P a g e | 20

niveau international et par des organismes nationaux comme


l’EIA/TIA (Electronic Industries Association/Telecommunications
Industries Association), aux Etats-Unis. Les principales catégories de
câbles définies sont les suivantes :
• Catégorie 3 (10BaseT) ;
• Catégorie 4 (10BaseT et Token-Ring 16 Mbit/s) ;
• Catégorie 5 (10BaseT, Token-Ring 16 Mbit/s et 100 Mbit/s
TPDDI) ;
• Catégorie 5e (Type R évolué, pour une largeur de bande
de 100 MHz) ;
• Catégorie 6 (pour une largeur de bande de 200 MHz) ;
• Catégorie 7 (pour une largeur de bande de 600 MHz).

2. Le câble coaxial

Un câble coaxial est constitué de deux conducteurs cylindriques de


même axe, l’âme et la tresse, séparés par un isolant. Ce dernier
permet de limiter les perturbations dues au bruit externe. Si le bruit
est important, un blindage peut être ajouté. Quoique ce support
perde du terrain, notamment par rapport à la fibre optique, il reste
encore très utilisé.

Figure 1.10. Câble coaxiale

Les électroniciens ont démontré que le rapport des diamètres des


deux conducteurs devait être de 3,6 mm Les différents câbles
utilisés sont désignés par le rapport en millimètre des diamètres de
l’âme et de la tresse du câble, les deux plus courants étant les
2,6/9,5 et 1,2/4,4. Comme pour les fils métalliques, le débit binaire
obtenu sur un câble coaxial est inversement proportionnel à la
distance à parcourir.
• Câble 50 Ω, de type Ethernet ;
• Câble 75 Ω, de type CATV (câble de télévision).
3. La fibre optique

20
P a g e | 21

La fibre optique est utilisée dans les environnements où un très fort


débit est demandé mais également dans les environnements de
mauvaise qualité. Elle comporte des composants extrémité qui
émettent et reçoivent les signaux lumineux. Les principaux
composants émetteurs sont les suivants :
• Diode électroluminescente (DEL) dépourvue de cavité laser, qui
émet des radiations lumineuses lorsqu’elle est parcourue par
un courant électrique.
• Diode laser (DL), qui émet un faisceau de rayonnement
cohérent dans l’espace et dans le temps.
• Laser modulé.

Figure 1.10. Liaison par Fibre optique

Le faisceau lumineux est véhiculé à l’intérieur de la fibre optique, qui


est un guide cylindrique d’un diamètre allant de quelques microns à
quelques centaines de microns, recouvert d’isolant. La vitesse de
propagation de la lumière dans la fibre optique est de l’ordre de 100
000 km/s en multimode et de 250 000 km/s en monomode.
Il existe plusieurs types de fibres, notamment les suivantes :
• Les fibres multimodes à saut d’indice, dont la bande passante
peut atteindre 50 MHz sur 1 km.
• Les fibres multimodes à gradient d’indice, dont la bande
passante peut atteindre 500 MHz sur 1 km.
• Les fibres monomodes, de très petit diamètre, qui offrent la
plus grande capacité d’information potentielle, de l’ordre de
100 GHz/km, et les meilleurs débits. Ce sont aussi les plus
complexes à réaliser.

I.3.5.3. Les Médias Hertziens


La réussite du GSM et l’arrivée des terminaux mobiles pouvant se
connecter à des réseaux locaux sans fil ont rendu très populaires les

21
P a g e | 22

supports hertziens. Ce succès devrait être encore amplifié par


l’interconnexion des équipements personnels (terminal
téléphonique, PC portable, agenda électronique, etc.). L’ensemble
des équipements terminaux mobiles qui utilisent la voie hertzienne
pour communiquer constitue ce que l’on appelle les réseaux
cellulaires, une cellule étant une zone géographique dont tous les
points peuvent être atteints à partir d’une même antenne. Parmi les
réseaux cellulaires, on distingue les réseaux de mobiles, les réseaux
satellite et les réseaux sans fil. Les réseaux de mobiles permettent
aux terminaux de se déplacer d’une cellule à une autre sans coupure
de la communication, ce qui n’est pas le cas des réseaux sans fil.
I.3.6. Equipements réseaux
Selon le niveau où se réalise l’interconnexion, l’ISO distingue quatre
types de relais :
– Les répéteurs, organes d’interconnexion locaux, ils agissent au
niveau 1 du modèle de référence ;
– Les ponts (bridges) interviennent au niveau 2 ;
– Les routeurs1 sont des éléments d’interconnexion de niveau 3 ;
– Au-dessus, on parle de passerelles. Cependant, l’usage désigne
une interconnexion de niveau 4 comme un adossement de
transport. L’adossement de transport n’est pas conforme au
modèle de référence la couche 4 n’étant plus de bout en bout.

I.3.6.1. Les répéteurs


Les répéteurs réalisent une connexion physique entre deux
segments d’un même réseau logique. Agissant au niveau physique,
les réseaux interconnectés doivent être homogènes. Un répéteur ne
fait que retransmettre d’un côté les bits reçus sur l’autre, il agit par
diffusion. De ce fait, il ne peut que réaliser la prolongation ou
l’adaptation d’un support et non pas une interconnexion, au sens
fonctionnel, de deux réseaux.

I.3.6.2. Les Ponts


Les ponts ou bridges sont des éléments d’interconnexion de niveau
2. Ils permettent d’interconnecter deux ou plusieurs réseaux (ponts
multiports) dont les couches physiques sont dissemblables. Les
ponts sont transparents aux protocoles de niveau supérieur. Les

22
P a g e | 23

ponts assurent des fonctions d’adaptation de débit ou de support


entre réseaux semblables (Ethernet/Ethernet ou Token Ring/Token
Ring) ou dissemblables (Ethernet/Token Ring). Agissant au niveau 2
du modèle de référence, les ponts ont accès à l’adresse MAC. De ce
fait, ils peuvent acheminer les trames, en fonction de l’adresse MAC,
réalisant ainsi un « routage de niveau 2 ». Les ponts ne peuvent
interconnecter que des réseaux dont l’espace d’adressage est
homogène. Les réseaux interconnectés constituent un seul et unique
réseau logique.
I.3.6.3. Les Routeurs
Un routeur est un élément d’interconnexion de niveau 3 qui
achemine (route) les données vers un destinataire connu par son
adresse de niveau 3 (X.121, IP du DoD ou autre). Agissant au niveau
3, les routeurs offrent plus de possibilités que les ponts puisqu’ils
peuvent mettre en oeuvre les mécanismes du niveau 3
(segmentation, réassemblage, contrôle de congestion...). Un routeur
permet le relayage de paquets entre deux réseaux d’espace
d’adressage homogène (IP/IP, ISO/ISO...).

Figure 1.11. Routeur


I.3.6.4. Concentrateur
Le but du concentrateur ou Hub en anglais est de régénérer et de
resynchroniser les signaux réseau. Il fait cela au niveau du bit pour
un grand nombre d'hôtes (par exemple 4, 8 ou même 24) en utilisant
un processus appelé concentration. Vous remarquerez que cette
définition est très semblable à celle du répéteur. C'est pourquoi le
concentrateur est aussi connu sous le nom de répéteur multiport. La
différence entre les deux est le nombre de câbles connectés à l'unité

23
P a g e | 24

Figure 1.12. Hub

I.3.6.5. Commutateurs
L’essor des commutateurs a commencé à l’avènement des VLAN (Un
réseau virtuel regroupe une communauté d’usagers répartis dans
toute l’entreprise, comme s’ils appartenaient au même réseau
physique.). Le commutateur d’un réseau local peut être assimilé à un
pont évolué à très hautes performances, qui transmet et filtre les
trames grâce à ses tables de réacheminement.

Figure 1.16. Commutateur

I.3.7. Modèle OSI et TCP/IP


Un protocole de communication de données. Un protocole est un
ensemble de règles, ou convention, qui détermine le format et la
transmission des données. La couche n d'un ordinateur communique
avec la couche n d'un autre ordinateur. Les règles et conventions
utilisées lors de cette communication sont collectivement appelées
protocole de couche n.
Les fonctions des protocoles sont les suivantes :

- Identifier les erreurs


- Appliquer les techniques de compression
- Décider comment les données doivent être envoyées
- Décider comment annoncer les données envoyées et reçues
I.3.7.1. MODELE DE REFERENCE OSI (Open System
Interconnection)

Les constructeurs informatiques ont proposé des architectures


réseaux propres à leurs équipements. Par exemple, IBM a proposé
SNA, DEC a proposé DNA …Ces architectures ont toutes le même
défaut : du fait de leur caractère propriétaire, il n’est caractère

24
P a g e | 25

propriétaire, il n’est pas facile dès les interconnecter, à moins d’un


accord entre constructeurs. Aussi, pour éviter la multiplication des
solutions d’interconnexion d’architecture hétérogènes, l’ISO
(international standards organisation) organismes dépendant de
l’ONU et composé de 140 organismes nationaux de normalisation, a
développé un modèle de référence appelé modèle OSI (open
systems interconnexion). Ce modèle décrit les concepts utilisés et la
démarche suivie pour la normaliser l’interconnexion de systèmes
ouverts (un réseau est composé de systèmes ne modifie pas le
comportement global du réseau). Les premiers travaux portant sur le
modèle OSI datent de 1997. Ils ont été basés sur l’expérience
acquise en matière de grands et de réseaux privés plus petits ; le
modèle devait en effet être valable pour les types de réseaux.

1. Description de modèle de référence

Il s’appuie sur une proposition qui a été développée par l’ISO


(Organisation internationale de normalisation) comme une première
étape vers la normalisation internationale des protocoles utilisés
dans les diverses couches. Il a été révisé en 1995. On l’appelle
modèle de référence OSI (Open System Interconnexion) car il traite
des systèmes ouverts, c’est-à-dire des systèmes ouverts à la
communication avec d’autres systèmes. Nous l’appellerons
simplement le modèle OSI. Ce modèle se compose de sept couches.
Tableau 1.1. Fonction des couches de modèle OSI
Couches Fonctions
NIVEAU 1 : Couche Physique La couche physique assure un transfert de bits sur
le canal physique (support). À cet effet, elle définit
les supports et les moyens d’y accéder :
spécifications mécaniques (connecteur),
spécifications électriques (niveau de tension),
spécifications fonctionnelles des éléments de
raccordement nécessaires à l’établissement, à la
maintien et à la libération de la ligne.
NIVEAU 2 : Couche Liaison La couche liaison assure, sur la ligne, un service
de transfert de blocs de données (trames) entre
De données
deux systèmes adjacents en assurant le contrôle,
l’établissement, le maintien et la libération du lien

25
P a g e | 26

logique entre les entités. Les protocoles de niveau


2 permettent, en outre, de détecter et de corriger
les erreurs inhérentes aux supports physiques.
NIVEAU 3 : Couche Réseau La couche réseau assure, lors d’un transfert à
travers de donnée un Système relais,
l’acheminement des données (paquets) à travers
les différents nœuds d’un sous- réseau (routage).
Les protocoles de niveau 3 fournissent les moyens
d’assurer l’acheminement de l’appel, le routage,
le contrôle décongestion, l’adaptation de la taille
des blocs de données aux capacités du sous-
réseau physique utilisé. Elle peut offrir un service
de facturation de la prestation fournie par le sous-
réseau de transport.
NIVEAU 4 : Couche Transport La couche transport est la couche pivot du modèle
OSI. Elle assure le contrôle du transfert de bout en
bout des informations (messages) entre les deux
systèmes d’extrémité. La couche transport est la
dernière couche de contrôle des informations, elle
doit assurer aux couches supérieures un transfert
fiable quel que soit la qualité du sous- réseau de
transport utilisé.
NIVEAU 5 : Couche Session La couche session gère l’échange de données
(transaction) entre les applications distantes. La
fonction essentielle de la couche session est la
synchronisation des échanges et la définition de
points de reprise.
NIVEAU 6 : Couche Interface entre les couches qui assurent l’échange
Présentation de données et celle qui les manipule, cette
couche assure la mise en forme des données, les
conversions de code nécessaires pour délivrer à la
couche supérieure un message dans une syntaxe
compréhensible par celle-ci. En outre, elle peut,
éventuellement, réaliser des fonctions spéciales,
comme la compression de données

NIVEAU 7 : Couche Application La couche application, dernière du modèle de


référence, fournit au programme utilisateur,

26
P a g e | 27

l’application proprement dite, un ensemble de


fonctions (entités d’application) permettant le
déroulement correct des programmes
communicants (transferts de fichiers, courrier
électronique...).

I.3.7.2. Modèle TCP/IP

L’architecture TCP/IP a été développée dans le milieu des années


1970 par la DARPA (Defense Advanced Research Pro jets Agency –
États- Unis) pour les besoins de communication et
d’interfonctionnement des applications entre les systèmes
informatiques militaires (DoD, Department of Defense). Pour cela, il
fallait définir un format d’échange des données commun à tous les
systèmes tout en pré servant l’existant, c’est-à-dire sans modifier les
réseaux existants. En fait, TCP/IP masque aux applications les sous-
réseaux réels de transport utilisés.

1. Principe Architectural

Précédant le modèle OSI, TCP en diffère fortement, non seulement


par le nombre de couches, mais aussi par l’approche. Le modèle OSI
spécifie des services (approche formaliste), TCP/IP des protocoles
(approche pragmatique). Développé au-dessus d’un environnement
existant, TCP/IP ne décrit, à l’origine, ni de couche physique ni de
couche liai son de données. Les applications s’appuient directement
sur le service de transport. Aussi l’architecture TCP/IP de base ne
comprenait que deux couches : la couche transport (TCP) et la
couche inter-réseau (IP).

I.3.8. L'ADRESSAGE IPV4


I.3.8.1. Les classes d’adresses A, B, C, D… ?

Comme nous l'avons vu dans le paragraphe 2, le masque de sous


réseau permet de segmenter l'ensemble des adresses de l'Internet
en différents réseaux. Mais cette segmentation ne s'est pas faite
n'importe comment. On a découpé la plage d'adresses disponible en

27
P a g e | 28

cinq parties distinctes. Les classes A, B, C, D et E, que l'on appelle


aussi adresses globales.

Classe A : premier bit de l'adresse à 1, et masque de sous réseau en


255.0.0.0. Ce qui donne la plage d'adresse 0.0.0.0 à
126.255.255.255 soit 16 777 214 adresses par réseau de classe A.

 Classe B : Deux premiers bits de l'adresse à 10 (1 et 0), et


masque de sous réseau en 255.255.0.0. Ce qui donne la plage
d'adresse 128.0.0.0 à 191.255.255.255 soit 65 534 adresses
par réseau de classe B.
 Classe C : Trois premiers bits de l'adresse à 110, et masque de
sous réseau en 255.255.255.0. Ce qui donne la plage d'adresse
192.0.0.0 à 223.255.255.255 soit 255 adresses par réseau de
classe C.
 Classe D : Quatre premiers bits de l'adresse à 1110, et masque
de sous réseau en 255.255.255.240. Ce qui donne la plage
d'adresse 224.0.0.0 à 239.255.255.255 soit 255 adresses par
réseau de classe C.
Classe E : Quatre premiers bits de l'adresse à 1111, et masque de
sous réseau en 255.255.255.240. Ce qui donne la plage d'adresse
240.0.0.0 à 255.255.255.255.

I.4. Data center


I.4.1. Dénition

L'infrastructure qui rend le cloud computing possible est le


Datacenter. En résumé, un Datacenter est une installation spéciale
conçue pour héberger, gérer et prendre en charge les ressources
informatiques critiques d'une ou plusieurs organisations. Entité
particulièrement complexe, un Datacenter typique comprend des
structures de bâtiment spéciales, des structures de secours, des
systèmes de refroidissement, des salles spéciales (entrée et
télécommunications, par exemple), des armoires d'équipement, un
câblage structuré, des périphériques réseau, des systèmes de
stockage, des serveurs, des systèmes de sécurité des données, les
ordinateurs centraux, les logiciels d'application, les dispositifs de
sécurité physique, les centres de surveillance et de nombreux autres

28
P a g e | 29

systèmes de support. Toutes ces ressources et leurs interactions


sont (localement ou à distance) gérées par du personnel spécialisé.
Tableau 1.2. Composants d’un data center
Composants Description
Systèmes de secours Fournit l’alimentation électrique du Datacenter
en cas de panne majeure de la source
d’alimentation principale. Ces systèmes sont
généralement alimentés par batteries spéciales
Salle d'entrée Permet un accès physique aux équipes
opérationnelles du Datacenter et inclut des
mesures de sécurité pour exclure tout le monde.
Salle de télécommunications Enferme tous les appareils responsables de la
communication externe du Datacenter. Pour des
raisons de haute disponibilité, cette salle donne
accès à au moins deux fournisseurs de services
de télécommunication.
Systèmes de refroidissement Réduit la température des équipements du
Datacenter tels que les serveurs, les systèmes
de stockage et les commutateurs réseau pour
améliorer les performances et éviter la
surchauffe. Les systèmes de refroidissement
typiques fonctionnent en faisant circuler l’air
dans tout le Datacenter.
Racks Prend physiquement en charge les périphériques
tels que les serveurs, les systèmes de stockage
et les commutateurs réseau.
Plancher surélever Crée un sol structuré surélevé pour fournir un
espace caché pour le logement des matériels
mécaniques, électriques et réseaux.

29
P a g e | 30

Figure I.17. Datacenter

I.5. Virtualisation
I.5.1. Définition

La virtualisation est ce qui rend le cloud computing possible. En


termes simples, la virtualisation est la capacité de prendre les
ressources physiques d’un centre de données telles que les
serveurs, le stockage et la mise en réseau, de les extraire en tant
que services pouvant être fournis sous forme d'offres cloud. L’un des
principaux avantages de la virtualisation est qu’elle permet à
différents clients de partager la même infrastructure informatique
physique. Sans cette capacité, le cloud computing ne serait pas
possible.

30
P a g e | 31

Figure I.18. Virtualisation

Le sujet de la virtualisation peut prêter à confusion car les gens


utilisent le terme de manières très différentes. Dans son
interprétation la plus élémentaire, « virtuel » peut signifier tout ce
qui n’est pas purement physique. Il est donc utile de diviser la
virtualisation en deux catégories différentes :
 Virtualisation des machines (serveur)
 Virtualisation du réseau

I.5.1.1 Virtualisation des machines


I.5.1.1.1 Présentation de la virtualisation des serveurs

La virtualisation des machines, également appelée virtualisation des


serveurs, consiste à extraire les ressources d'un seul serveur
physique en plusieurs machines virtuelles (VM). Essentiellement, une
VM est un ordinateur émulé par logiciel composé de processeurs
virtuels (vCPU), de mémoire, de stockage et de réseau. Comme un
véritable ordinateur, une VM exécute un système d’exploitation (OS)
appelé OS invité. Le logiciel qui crée des machines virtuelles et
effectue cette abstraction est appelé hyperviseur. L'hyperviseur
définit également les propriétés d'une VM, notamment les
suivantes :

31
P a g e | 32

 Le nombre de processeurs virtuels


 La quantité de mémoire vive (RAM)
 Le type et la quantité de stockage
 Interfaces de réseau virtuelles et leurs connexions

Figure I.19 Virtualisation des serveurs


I.5.1.1.2 Hyperviseur
Un hyperviseur peut être défini comme un composant logiciel
capable de créer du matériel émulé (y compris le processeur, la
mémoire, le stockage, la mise en réseau et les périphériques, entre
autres composants) pour l'installation d'un système d'exploitation
invité. Dans le contexte des technologies serveur, un hyperviseur est
essentiellement un programme qui permet la création de serveurs
virtuels.
I.5.1.1.3 Types d’hyperviseurs

Figure I.20 Type d’Hyperviseur

32
P a g e | 33

I.5.1.2. Virtualisation des réseaux

La virtualisation n’est pas une technique nouvelle, puisqu’elle avait


été introduite sur les premiers gros ordinateurs dans les années
1960, qui utilisaient une mémoire virtuelle, c’est-à-dire une mémoire
qui, au lieu d’être en RAM, se trouvait sur un disque dur. Toute
l’astuce était de ramener les pages de mémoire du disque dur sur la
mémoire RAM juste avant que l’unité centrale en ait besoin. Par la
suite, un certain nombre de mécanismes ont été implémentés avec
cette solution afin que l’utilisateur ait l’impression que les services
dont il a besoin se trouvent sur une machine située à proximité,
alors qu’ils se trouvent en réalité sur une machine lointaine.
La virtualisation du stockage a connu un formidable succès en
permettant de regrouper plusieurs serveurs de stockage sur une
machine unique, chaque utilisateur ayant pourtant l’impression de
disposer d’un serveur distinct. La virtualisation de réseau tient du
même principe : plusieurs réseaux virtuels se partagent une même
infrastructure physique.
La virtualisation de réseau a été lancée par un projet américain
appelé GENI (Global Environment for Network Innovations), dans
lequel Intel proposait de construire un routeur uniquement constitué
de sa partie matérielle, sans aucun système d’exploitation réseau.
Les éditeurs de logiciels n’avaient plus qu’à implémenter leur
système sur la machine. L’avantage de la virtualisation réside
précisément dans la possibilité d’implémenter plusieurs systèmes
d’exploitation réseau sur une même machine à l’aide d’un «
hyperviseur ».
Les technologies de virtualisation de réseau s’appuient soit sur des
hyperviseurs, soit sur des conteneurs (containers).
On compte trois grands types de solutions pour réaliser des
systèmes virtuels : la paravirtualisation, la virtualisation de système
d’exploitation et l’isolation par conteneur.

33
P a g e | 34

Figure I.21 Para virtualisation à l’aide d’un hyperviseur de


type 1
Dans la deuxième solution, appelée hyperviseur de type 2, le
système d’exploitation qui est supporté par l’hyperviseur n’est pas
modifié. De ce fait, certaines instructions ne peuvent plus s’exécuter
sur l’hyperviseur, qui est en réalité le système d’exploitation hôte de
l’infrastructure physique. Il faut ajouter entre les deux, un émulateur
qui permet d’exécuter les instructions du système d’exploitation
invité sur le système d’exploitation hôte. Dans cette catégorie, on
peut placer Microsoft VirtualPC, Microsoft Virtual Server, Parallels
Desktop, Parallels Server, Oracle VM VirtualBox (open source),
VMware Fusion, VMware Player, VMware Server, VMware Workstation
et QEMU (open source).

Figure I.22 de fonctionnement d’un hyperviseur de type 2

34
P a g e | 35

La troisième catégorie supporte les machines virtuelles en les


mettant dans des conteneurs, ou isolateurs. Le conteneur contient
en lui-même un environnement d’exécution complet, avec ses
pilotes, ses fichiers binaires, ou bibliothèques, ainsi que l’application
elle-même. Le conteneur permet d’isoler l’exécution des applications
dans ce que l’on appelle encore des contextes ou des zones
d’exécution. Dans cette catégorie on peut placer Docker,
LinuxVserver, chroot, BSD Jail et OpenVZ.

Figure I.23 de conteneur supportant des machines virtuelles

I.5.1.3. L’isolation
L’isolation est un principe fondamental de la virtualisation de réseau
puisqu’il faut absolument éviter qu’un réseau impacte les autres
réseaux.
Une première solution simple, mais peu efficace, serait de
partitionner les ressources entre les différents réseaux. Dans ce cas,
il n’y aurait pas grand-chose à gagner, car les ressources d’un
réseau non utilisées à un instant t ne peuvent être utilisées par
d’autres réseaux virtuels. Il faut donc trouver une solution pour à la
fois partitionner les ressources et faire en sorte que les ressources
non utilisées puissent profiter aux autres.
On peut obtenir cette propriété par des ordonnanceurs. Le plus
simple est d’avoir dans un nœud autant de files d’attente que de
réseaux virtuels. À chaque file, on octroie des crédits en fonction des
ressources qui ont été allouées au nœud. Chaque réseau utilise un
crédit pour envoyer un paquet. Lorsqu’une station n’a plus de crédit,
elle ne peut émettre. Tant qu’il y a d’autres files actives, elle est
arrêtée. Si, à un moment donné, toutes les files sont vides, une
réallocation de crédits est attribuée à toutes les files. Cela peut

35
P a g e | 36

toutefois conduire à un blocage à la fois des files d’attente n’ayant


plus de crédit et de celles ayant des crédits mais pas de paquets à
servir. Pour éviter ce problème, les files d’attente bloquées peuvent
créer des crédits négatifs et continuer à transmettre. Lorsque la
somme des crédits positifs et négatifs devient égale à zéro, on
réinitialise le système en accordant des crédits positifs à l’ensemble
des nœuds.
La virtualisation des réseaux amène deux concepts :
- Les réseaux underlay : est défini par les commutateurs et
routeurs physiques qui font partie de l’infrastructure réseau de
campus. Tous les éléments du réseau établissent une
connectivité IP via l'utilisation des protocoles de routage.
Théoriquement, n'importe quelle topologie et protocole de
routage peuvent être utilisés. Dans l'architecture d’un réseau
campus, les sous-réseaux des utilisateurs finaux ne font pas
partie du réseau underlay.
- Les réseaux overlay : ils s'exécutent au-dessus du réseaux
underlay pour créer un réseau virtualisé. Les réseaux virtuels
isolent à la fois le trafic du plan de données et le
comportement du plan de contrôle parmi les réseaux
virtualisés du système underlay. La virtualisation est réalisée à
l'intérieur du réseau de campus en encapsulant le trafic
utilisateur sur des lignés virtualisé.

La virtualisation de réseau s'étends à l'extérieur du réseau auquel il


est déployé en utilisant de technologies spécifiques telles que :
1. VLAN (Virtual local Area Network)

Est une technique de segmentation d’un domaine de diffusion


physique en plusieurs domaine de diffusion logique. Cette
technologie permet de partitionner et d'isoler logiquement un ou
plusieurs réseaux locaux physiques en plusieurs domaines de
diffusion logique. Chaque domaine de diffusion est considéré comme
un VLAN.
2. VPN (Virtual Private Network)

Permettent une connexion cryptée et sécurisée sur un réseau non


sécurisé tel qu'Internet. Les VPN sont couramment utilisés pour un
accès crypté aux services cloud à partir d'un emplacement distant.
C'est ce qu'on appelle un VPN point à point ou d'accès à distance.

36
P a g e | 37

Les VPN peuvent également être des connexions de site à site


(également appelées point à point) qui utilisent un réseau public et
permettent d'économiser les frais d'un circuit privé dédié entre les
sites. Les VPN point à point ont tendance à être fixes, tandis que les
VPN point à site sont généralement établis à la demande et selon les
besoins.
3. VXLAN (Virtual EXtensible LAN)

En 2010, Cisco, VMware et d'autres fournisseurs informatiques ont


soumis un projet de proposition à l'Internet Engineering Task Force
(IETF) définissant une technologie de pointe appelée Virtual
eXtensible LAN (VXLAN). Principalement, la technologie VXLAN a été
créée pour répondre aux limitations importantes que les VLAN
apportent aux environnements de virtualisation de serveurs
dynamiques et aux projets de cloud computing.
Dans un réseau traditionnel, ont pouvez trouver dans un centre de
données ou un bureau de plusieurs réseaux locaux virtuels (VLAN)
dont Chaque VLAN correspondait généralement à un sous-réseau IP.
Les trames Ethernet prennent en charge un maximum 4 094 VLAN
au total, ce qui vous donnerait de la place pour littéralement
connectés des centaines de millions d'appareils.
Cela fonctionne convenablement pour une seule entreprise. Mais si
l’on considère que les fournisseurs de cloud doivent s’adapter à ces
centaines de milliers de clients et que les réseaux de ces clients
doivent rester isolés par défaut, il devient évident qu’un réseau
Ethernet traditionnel avec ces 4 094 VLAN ne fonctionnera pas.
VXLAN a été conçu comme une solution à ce problème. Il s'agit
d'une méthode d'encapsulation qui prend une trame
Ethernet et l'encapsule dans un paquet IP/UDP destiné au
port 4789. (Un autre nom pour cela est l'encapsulation MAC-
in-IP.)
Un en-tête VXLAN se trouve entre la trame Ethernet encapsulée et
l'en-tête du paquet IP. L'en-tête VXLAN a une longueur de 8 octets
(64 bits) et contient un identifiant de réseau VXLAN (VNI) qui
différencie les trames Ethernet appartenant à des réseaux virtuels
différents. Pour comprendre comment cela fonctionne, considérons
deux clients cloud différents, utilisant tous deux un sous-réseau IP de
10.1.0.0/16. Comment le fournisseur de cloud peut-il garantir que
son trafic ne soit pas mélangé ? Il y parvient en attribuant à chaque

37
P a g e | 38

client son propre VNI. Un VNI est un champ de 24 bits qui permet
plus de 16 millions de réseaux virtuels.

4. GENEVE

Un aspect du VXLAN qui déroute les gens est lié à deux choses que
les professionnels des réseaux appellent le plan de données et le
plan de contrôle. En bref, le plan de données concerne la manière
dont les données sont encapsulées et formatées lors de leur
déplacement sur le réseau. Le VXLAN définit un format de paquet
particulier pour encapsuler les trames Ethernet. Le plan de
contrôle, quant à lui, s'intéresse à la manière dont les données
parviennent à leur destination, en d'autres termes, au routage et
au transfert des paquets. VXLAN prescrit également la manière
dont les paquets VXLAN doivent traverser un réseau, en utilisant une
approche d'inondation et d'apprentissage. Si une VM envoie un
paquet à l’autre, ce paquet sera initialement diffusé vers tous les
hôtes de virtualisation, car c’est ainsi que VXLAN fonctionne par
défaut. Comme on peut s’y attendre, cette approche d’inondation et
d’apprentissage n’est pas évolutive. Le comportement d'inondation
et d'apprentissage est le comportement par défaut avec VXLAN,
mais il n'est pas obligatoire. Il peut être utilisé avec d'autres
protocoles de plan de contrôle tels qu'Ethernet VPN (EVPN) avec le
Border Gateway Protocol (BGP), qui est hautement évolutif.
Generic Network Virtualization Encapsulation (GENEVE) est une
alternative au VXLAN qui permet également de transporter des
trames Ethernet sur un réseau IP. Une différence majeure avec le
VXLAN est qu'il définit uniquement un format de paquet, mais il ne
prescrit pas comment ces paquets doivent être transportés. Cela
signifie que c'est à vous de décider du plan de contrôle. GENEVE
utilise le port UDP 6081.
5. VRF (Virtual Routing And Forwading)

VRF est une technologie Cisco qui permet de segmenter un routeur


physique en plusieurs routeurs virtuels. Le mode VRF permet à un
routeur de gérer simultanément plusieurs tables de routage. Ces
tables de routage sont indépendantes, il est donc possible d’utiliser
des adresses IP identiques ou qui se chevauchent dans les réseaux
des clients. Le VRF permet une segmentation des routeurs au niveau
3, un peu comme les VLAN permettent une segmentation des
commutateurs au niveau 2

38
P a g e | 39

I.5.1.4. Utilisation de la virtualisation de réseau


Deux types d’utilisation peuvent être faits de la virtualisation de
réseau :
 La création de plusieurs réseaux virtuels à l’intérieur d’une
même entreprise afin de gérer séparément les servies réseaux
(la téléphonie, la télésurveillance, les vidéoconférences dans
l’entreprise, etc.)
 Le partage de mêmes réseaux virtuels par des opérateurs
différents afin de réduire les coûts. Quand un de ces derniers
veut augmenter sa capacité, il demande à l’opérateur
d’infrastructure d’augmenter ses ressources.

Une autre utilisation de la virtualisation qui ne cesse de croître


concerne les applications de type Cloud. En termes simples, le
principe du Cloud consiste à placer les ressources d’une entreprise
quelque part dans le réseau afin de les partager avec d’autres
utilisateurs. Le Cloud propose des ressources de types serveur,
calcul, stockage, logiciel, etc. L’utilisateur peut partager ces
ressources avec d’autres utilisateurs, tout en prenant en compte la
sécurité des informations.
Les ressources virtuelles peuvent migrer pour optimiser des
ressources physiques. De même, le client peut se déplacer sur
Internet et avoir accès à ses ressources de n’importe où. Pour relier
les ressources à l’utilisateur, il faut créer des réseaux. Et ceux-ci ne
peuvent être que virtuels puisqu’il serait impossible de créer un
nouveau réseau physique à chaque déplacement ou demande de
ressources supplémentaires d’un utilisateur.
La virtualisation est enfin une technologie idéale pour tester de
nouveaux protocoles et de nouvelles architectures sans arrêter le
réseau opérationnel puisqu’il suffit de construire un nouveau réseau
virtuel avec les nouvelles générations de protocoles ou
d’architectures. L’isolation est dans ce cas une propriété essentielle
pour que les tests ne viennent pas gêner les réseaux opérationnels.
On peut en conclure que la virtualisation présente de nombreux
avantages. Elle est aujourd’hui considérée comme une opportunité
pour apporter de la souplesse aux réseaux. De plus, elle permet de
passer d’une technologie à une autre sans trop de complications.
Les désavantages de la virtualisation sont liés à la surcharge
apportée par l’hyperviseur et aux besoins de mémoire et de

39
P a g e | 40

puissance de calcul, surtout si l’on veut séparer totalement les


différents domaines.
I.5.1.5. Virtualisation d’équipements de réseau
Il est possible de virtualiser de nombreux équipements de réseau. La
virtualisation d’un contrôleur Wi-Fi, par exemple, permet de gérer
des points d’accès associés à chaque contrôleur virtuel. Les points
d’accès associés peuvent avoir leur propre pile protocolaire.
On peut aussi virtualiser des pare-feu. À l’accès dans l’entreprise, les
flots sont renvoyés vers le pare-feu virtuel général, qui, à son tour,
peut renvoyer le flot vers un pare-feu spécifique, toujours virtuel. Les
pare-feu peuvent ainsi bénéficier de toute la puissance nécessaire
pour réaliser les inspections permettant de détecter des attaques.
Les points d’accès eux-mêmes peuvent être virtualisés. Il suffit pour
cela d’introduire dans le boîtier un hyperviseur soutenant plusieurs
systèmes d’exploitation. Chaque point d’accès virtuel possède ainsi
ses propres logiciels de gestion et de contrôle et est indépendant
des autres points d’accès : il peut donc représenter un opérateur
particulier. De même, il est possible de virtualiser les antennes 2G,
3G et 4G (BTS, NodeB et E-NodeB) et de partager ces antennes
virtuelles entre différents opérateurs.
Globalement, toute ressource peut être virtualisée, sauf les
capteurs, qui ont besoin d’un élément matériel pour mesurer une
valeur. Un capteur virtuel est donc un logiciel associé à un capteur
physique pour effectuer des calculs à partir de la valeur mesurée.
Bien évidemment, ce logiciel peut être modifié, d’où son nom de
capteur virtuel. L’avenir est ainsi clairement à la virtualisation de
l’ensemble des matériels.
I.5.1.6. NFV (Network Functions Virtualization) et
normalisation de la virtualisation
La normalisation des machines virtuelles s’effectue à l’ETSI
(European Telecommunications Standards Institute). On pourrait
penser qu’elle ne concerne que les Européens, mais pas du tout :
l’ETSI s’est ouvert au niveau mondial, et tous les opérateurs et
équipementiers participent à cette standardisation.
Le terme utilisé, NFV (Network Functions Virtualization), indique la
volonté de définir une fois pour toutes les différentes fonctions
utilisées dans le domaine des réseaux. Cependant, normaliser des
fonctions n’était pas suffisant. L’ETSI est allé plus loin en proposant

40
P a g e | 41

de développer en open source les différentes fonctions réseau,


comme le routage d’un routeur, la commutation d’un commutateur,
la protection d’un pare-feu, etc. À partir de ces machines virtuelles,
on peut construire un réseau complet en open source avec plusieurs
réseaux virtuels simultanés.
Le plus important de cette normalisation est cependant ailleurs : il
s’agit de permettre le découplage de la fonction réseau et de
l’équipement physique, une nouveauté radicale. Dans un routeur de
l’ancienne génération, la fonction de routage et le transfert des
paquets s’effectuent dans le même équipement physique. Dans la
nouvelle génération, la fonction de routage peut être effectuée dans
un serveur éloigné de la machine physique qui réalise le transfert du
paquet. Cette dissociation permet de regrouper les fonctions de
routage dans des serveurs de datacenters en en optimisant
globalement le fonctionnement. Les ressources attribuées aux
machines virtuelles qui exécutent ces fonctions sont parfaitement
ajustées. De plus, ces ressources peuvent varier entre les heures de
pointe et la nuit, où celles affectées à l’équipement virtuel diminuent
fortement.

Figure I.24 machines physiques à des machines logiques grâce à la


virtualisation
I.5.1.7. Les réseaux virtualisés

41
P a g e | 42

L’infrastructure réseau est réalisée à partir de datacenters, dans


lesquels sont positionnées des machines virtuelles, ici des routeurs
ou des commutateurs, et des boîtiers divers, tels que box, serveurs
d’authentification et d’applications, pare-feu et DPI (Deep Packet
Inspection), ce dernier inspectant les flots qui transitent dans le
réseau. Ces boîtiers sont également virtualisés (voir plus loin).

Figure I.25. Un réseau de nouvelle génération supportant deux


réseaux virtuels
En allant toujours un peu plus loin dans le processus, on peut
virtualiser les différents boîtiers dans les datacenters, où les boîtiers
physiques sont devenus des machines virtuelles intégrées aux
datacenters. Il faut évidemment garder sous forme physique les
éléments qui ne peuvent être virtualisés, comme les antennes ou les
capteurs.
L’optimisation de l’emplacement des VM n’est pas simple.
On appelle ce processus l’urbanisation des machines
virtuelles. Il faut noter que l’urbanisation peut changer du tout au
tout en fonction de l’objectif poursuivi. Par exemple, l’urbanisation
pour optimiser les performances est totalement différente de
l’urbanisation pour optimiser la consommation énergétique. Dans le
premier cas, il faut distribuer les VM un peu partout dans le réseau
afin qu’elles disposent chacune du plus de ressources physiques
possibles. Dans le deuxième cas, il faut regrouper par migration
toutes les machines virtuelles sur des serveurs physiques communs,
de sorte à pouvoir mettre en veille de très nombreux serveurs
physiques, la consommation électrique étant fortement

42
P a g e | 43

proportionnelle à la vitesse du processeur. L’urbanisation est encore


tout à fait différente si l’on essaie d’optimiser la sécurité ou la
disponibilité du réseau ou encore sa fiabilité.
Grâce au NFV, on peut rassembler toutes les fonctions dans un
même datacenter. On peut parler dans ce cas précis de NFVaaS,
c’est-à-dire que l’on a les fonctions réseau disponibles dans un Cloud
représenté ici par un datacenter unique. On voit que les fonctions
réseau ont migré des datacenters qui formaient l’infrastructure
physique du réseau vers un datacenter qui peut se trouver très loin
des nœuds de ce même réseau.
L’architecture des réseaux NFV peut se résumer. Les machines
virtuelles portant les fonctions de réseau s’appellent des VNF (Virtual
Network Functions). Ces fonctions s’installent sur une infrastructure
appelée NFVI (NFV Infrastructure). Elles sont portées par des
machines physiques avec hyperviseur ou conteneur permettant la
virtualisation. Pour qu’elles puissent fonctionner sans problème, elles
doivent être orchestrées et gérées par un environnement appelé
MANO (Management And Network Orchestration). Ces
orchestrateurs, examinés en détail au chapitre 4, sont des organes
permettant de créer les machines virtuelles, puis de les chaîner,
c’est-à-dire de déterminer l’ordre dans lequel il faut les traverser, et
enfin de les « urbaniser », soit les placer sur des machines physiques
afin que l’ensemble fonctionne du mieux possible.

Figure I.26. Architecture des réseaux NFV

I.6. Conclusion

43
P a g e | 44

Dans ce premier sur la revue de la littérature, il a été question de


passer en revue les notions sur les réseaux informatiques où nous
avions présenté les aspects techniques régissant le réseau de façon
générale ; nous avons aussi brossé la fonction et la composition d’un
Data Center et nous avions fini sur les notions de base sur la
virtualisation ; là-dessus nous avons présenté la virtualisation
matériels et logiciels, les hyperviseurs et aussi les technologies de
virtualisation réseaux. Au chapitre suivant, nous allons la
présentation de notre projet.
CHAPITRE II PRESENTATION DU PROJET
II.1 Introduction
Il est difficile de parler d'un projet avant d'avoir fait une analyse
détaillée du travail à faire. Il est cependant nécessaire d'effectuer
une première estimation générale pour pouvoir « cadrer le projet ».
Dans ce chapitre nous allons mettre l'accent sur l'aspect du cahier
de charge, présenter le cadrage de projet et faire une étude
détaillée de ce dernier.
II.1 Cadrage Général
II.1.1 Contexte et justification du projet
Un projet est un processus unique, qui consiste en un ensemble
d'activités coordonnées et maîtrisées comportant des dates de
début et de fin, entreprises dans le but d'attendre un objectif
conforme à des exigences spécifiques telles que des contraintes des
délais, de coûts et de ressources.

II.1.2 Objectifs du projet


II.1.2.1 L’objectif principal

Déployer un réseau Datacenter Virtualisé dans un réseau physique


pour faciliter le déploiement d’application. Les serveurs sont
Virtualisés sur un Hyperviseur de type 1 ou 2 et les postes clients
sont des machines physique formant un réseau Hybride.

III.1.2.2 Objectifs spécifiques

44
P a g e | 45

 Déploiement d’un serveur physique puissant qui héberge notre


infrastructure Virtuelle;
 Former le personnel sur l’utilisation de la gestion du nouveau
système ;
 Assurer une gestion centralisée et sécurisée du système de
communication ;

III.1.3 Périmètre de projet


 Zone d’intervention : Tous l’infrastructure réseau de
l’entreprise.

 Nombre de postes : Approximation de 10 à 20 postes


téléphoniques.
III.1.3.1 Portée technique
 Déploiement du réseau local informatique Hybride ;
 Utilisation de la technologie de la virtualisation des serveurs ;
 Implémentation de la solution de déploiement ;
III.1.4 Livrables
 Serveur physique, logiciel de virtualisation et les système
d’exploitation réseau à déployer;
 Documentation du système et guides d’utilisation pour les
utilisateurs finaux ;
 Programme de formation pour le personnel technique et
administratif ;
 Procédures de maintenance et de mise à jour du système.
III.2. Etat de besoins
III.2.1 Équipements à Acquérir
 Serveur Physique Cisco UCS S3260 Storage server: pour
la mise en place d’un Datacenter Virtualisé;
 Hyperviseur : pour la création des serveurs virtuels

III.1.6 Phases de Réalisation


1. Phase de Planification (2 à 3 semaines)

45
P a g e | 46

 Analyse des besoins techniques.


 Identification des ressources humaines et matérielles
nécessaires.
 Planification des étapes du projet.

2. Phase d’Installation (4 à 6 semaines)


 Mise en place de l’infrastructure réseau Hybride (Câblé et
virtuelle)
 Configuration des équipements.

3. Phase de Test et Validation (2 semaines)


Tests de fonctionnement du réseau local d’entreprise basé sur la
solution hybride.
III.1.7 Planification
Le projet sera exécuté en plusieurs phases :
 Étude de faisabilité : analyse de l’infrastructure des besoins
spécifiques de la mise en place ;
 Planification détaillée : définition des besoins en matériel et
des étapes d’installation ;
 Installation et configuration de la solution ;
 Tests et validation: vérification du bon fonctionnement du
système dans les conditions réelles ;
 Budget : le budget devra couvrir :
II.3 Cahier des Charges
II.3.1 introduction
Un cahier des charges est un outil essentiel dans la gestion de projet
car il permet de cadrer les attentes et de limiter les malentendus
entre les différentes parties prenantes.
Le présent cahier des charges a pour objet l’étude la mise en place
d’un Datacenter Virtualisé dans une infrastructure réseau.
II.3.2 Exigences techniques

46
P a g e | 47

Le déploiement d’une infrastructure réseau Hybride qui sera


déployer nécessité un certain nombre des prérogatives :
• Un très haut débit de bande passante surtout pour
connexion des utilisateurs finaux et la desserte de la
connexion internet aux agents.

II.4. Matériels à utiliser

N Quantit
Matériels Marque Performance
° é
HDD : 720 To (NAS
0 Cisco UCS S3260 & SAN), CPU : 8
Serveur dédié 1
1 Storage server GHz et
RAM : 12 Gio
0 TL-SG221B
Switch TP-Link 1
2 Omada
0 VMware VMware VMware ESXI 8
Hyperviseur -
3 VSphere ESXI OUIE

0 Windows serveur
NOS Edition Standard -
4 2022
0
Ordinateurs Laptop Dell et HP – -
4
0 Câble à paire
Hikvision U/UTP Cat 7a rouleau
5 torsadé
0
Connecteur RJ45 - Carton
6
0 5 KVA (environ
Onduleur APC Smart-UPS 3
7 4500 Watts)

Tableau 2.3 Matériels à utiliser.

II.4. Les ressources nécessaires

N Quantit Prix unitaire Prix total


Equipements Caractéristique
° é ($) ($)
Cisco UCS S3260
1 Serveur dédié 1 5 000 5 000
Storage server
2 Switch TP-Link 1 100 100
VMware VSphere
3 Hyperviseur Licence 1500 1500
ESXI 8 OUIE
Windows serveur
4 NOS Licence 300$ 300$
2022

47
P a g e | 48

Câble à paire
5 UTP Cat 7a rouleau 60 100
torsadé
6 Connecteur RJ45 1 paquet 15 15
APC Smart-UPS 5
7 Onduleur 1 pièces 1 100 1100
KVA
Total 7800
Imprévu (10%) 780
Main d’œuvre (30%) 2340
COUT GLOBAL 10 920
Tableau 2.4 : Cout de la solution
II.5. Conclusion

Dans ce chapitre sur le cahier de charge, nous avons passé en


revue l’aspect technique de notre travail en énumérant les
différentes étapes de réalisation de ce projet et leur chronogramme
de déroulement, les matériels que nous aurons besoins pour notre
simulation et les prix pour la réalisation de notre étude. Au chapitre
suivant, nous allons passer au déploiement et test de solution.

48
P a g e | 49

CHAPITRE III TEST ET RESULTATS

Da L’évolution des infrastructures informatiques nécessite une


compréhension fine des rôles essentiels au sein d’un datacenter. Ce
chapitre explore les fonctions clés de ces rôles, les scénarios dans lesquels
ils sont utilisés, les étapes de leur configuration, ainsi que les méthodes
efficaces pour les déployer dans un environnement professionnel.

1. AD DS, ou Active Directory Domain Services, est l’un des


rôles les plus fondamentaux dans un datacenter basé sur
Windows Server. Voici une vue d’ensemble claire et structurée
pour t’aider à mieux comprendre son importance :

 AD DS est un service d’annuaire qui permet de :


 Stocker des informations sur les objets du réseau
(utilisateurs, ordinateurs, groupes, imprimantes, etc.)
 Gérer l’authentification et le contrôle d’accès aux
ressources
 Organiser les données de manière hiérarchique et
logique dans un domaine

49
P a g e | 50

Figure 3.1 : choix du rôle Serveur

1.1. Création du domaine

Un domaine Active Directory (AD) est une unité logique et


administrative dans un réseau informatique gère par Active
Directory Domain Service(ADDS) il regroupe et organise les
utilisateurs, ordinateur, regroupes et autres objet dans une
structure centralisée, sécurisée et hiérarchique

Figure 3.2 : Création du Domain

 Fonctions principales

 Authentification centralisée : Un seul identifiant pour accéder à


toutes les ressources du réseau
 Gestion des identités : Création, modification et suppression des
comptes utilisateurs et machines
 Application des stratégies de groupe (GPO) : Configuration
automatique des postes clients
 Répartition des rôles : Plusieurs contrôleurs de domaine peuvent
partager la charge et assurer la redondance

50
P a g e | 51

2. Le DHCP est un protocole réseau qui permet d’attribuer


automatiquement des adresses IP et d’autres paramètres
réseau aux machines connectées. Il évite la configuration
manuelle de chaque appareil, ce qui est essentiel dans les
environnements complexes comme les datacenters.

Figure 3.3 : configuration du rôle DHCP

 Fonctionnement du DHCP

Le processus DHCP suit généralement ces étapes (appelées DORA) :

1. Discover : Le client envoie une requête pour trouver un serveur


DHCP.
2. Offer : Le serveur propose une adresse IP et des paramètres réseau.
3. Request : Le client accepte l’offre et demande l’attribution.
4. Acknowledge : Le serveur confirme et attribue l’adresse IP au client.

 Paramètres fournis par le serveur DHCP

51
P a g e | 52

 Adresse IP
 Masque de sous-réseau
 Passerelle par défaut
 Serveurs DNS
 Durée du bail (temps pendant lequel l’adresse est réservée)
 Options supplémentaires (nom de domaine, serveur WINS, etc.)

 Composants du DHCP

Serveur DHCP Détient les plages d’adresses IP et


attribue les configurations
Client DHCP Appareil qui demande une adresse
IP
Relais DHCP Transmet les requetés entre clients
et serveurs sur différents sous-
réseaux

 Cas d’utilisation dans un datacenter

 Attribution dynamique des IP aux serveurs virtuels


 Gestion centralisée des configurations réseau
 Réduction des erreurs humaines liées à l’adressage manuel
 Intégration avec des outils de supervision et de sécurité

52
P a g e | 53

Figure 3.4 : création de pool ou plage DHCP

53

Vous aimerez peut-être aussi