0% ont trouvé ce document utile (0 vote)
32 vues6 pages

5.5-Réseau de Campus Et D'entreprise: 6 - Impacts Des Réseaux SDN

Le document traite de l'évolution des réseaux de campus et d'entreprise, mettant en avant l'importance du SDN pour gérer la complexité croissante due à la tendance BYOD et à la virtualisation des fonctions réseau. Il aborde également les impacts du SDN, notamment en termes de coûts et de sécurité, ainsi que les avantages du cloud computing et de la qualité de service dans la gestion des réseaux. Enfin, il souligne les défis posés par l'augmentation des appareils connectés et la nécessité d'une infrastructure réseau adaptable et programmable.

Transféré par

mekurgu nsomoto yvan
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
32 vues6 pages

5.5-Réseau de Campus Et D'entreprise: 6 - Impacts Des Réseaux SDN

Le document traite de l'évolution des réseaux de campus et d'entreprise, mettant en avant l'importance du SDN pour gérer la complexité croissante due à la tendance BYOD et à la virtualisation des fonctions réseau. Il aborde également les impacts du SDN, notamment en termes de coûts et de sécurité, ainsi que les avantages du cloud computing et de la qualité de service dans la gestion des réseaux. Enfin, il souligne les défis posés par l'augmentation des appareils connectés et la nécessité d'une infrastructure réseau adaptable et programmable.

Transféré par

mekurgu nsomoto yvan
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

5.

5- Réseau de campus et d’entreprise


Les dernières années ont été marquées par un changement radical de la perception
des équipements de travaille en entreprise et dans les campus universitaires. En effet, avec
la mode BYOD (Bring Your Own Device), chaque employé et étudiant utilise son propre
matériel sur le campus, ce qui nous pousse à repenser le réseau pour y infuser un souffle
de flexibilité sans lequel l’administrateur du réseau est très vite pris de court par la
quantité de trafic à gérer manuellement et par les opérations manuelles qui pourrait
permettre de connecter tous les utilisateurs à internet par exemple. Le SDN dont l’un des
avantages est l’automatisation et la programmation des réseaux nous apparemment
comme une évidence pour combler les lacunes des réseaux de campus qui deviennent de
plus en plus complexe.
Une des applications les plus intéressantes pour les campus au-delà de la
virtualisation, est la programmation d’un réseau conscient d’applications (Application
aware routing). Le nombre d’applications tournant sur les équipements des utilisateurs est
considérable (Réseaux sociaux, streaming audio et vidéo …), ce qui conduit dans la
plupart des cas à une surcharge sur le réseau et peut induire une latence sur les
applications déployées dans un but business ou académique. SDN permet de gérer ces
applications en introduisant des priorités pour les différentes applications et en installant
un équilibreur de charge (Load Balancer), éliminant ainsi toute forme de congestion, ce
qui offre aux professionnels et étudiants un environnement de travail fluide.

6- Impacts des réseaux SDN

Malgré tous ses avantages, l’approche SDN a des impacts importants dans
l’utilisation des réseaux. On ne peut dire des inconvénients mais des changements qui
nécessitent un coût. Nous allons en citer quelques-uns :
Un problème de dotation qui veut dire une reformation du personnel ou recrutement de
nouvel agent pour bien se familiariser à son utilisation. Il faut une très grande réorganisation,
des

partages, d’informations entre entreprise, d’applications, serveurs et réseautages.


Comme nous l’avons évoqué ci-dessus, intervient le problème de coût pour le
recyclage, une réorganisation, de nouvelle licence, perte de continuité des activités lors du
déploiement initiale.
Et pour la sécurité, on peut noter que c’est une nouvelle technologie, avec de
nouveaux protocoles qui peut aboutir à des faiblesses et à des vulnérabilités.
Et pour finir Le SDN ne permet pas de : réduire la dépendance vis-à-vis de la
topologie spécifique du matériel physique sous-jacent, virtualiser toutes les fonctions et
tous les composants réseau, déployer des réseaux en parallèle avec des ressources de
calcul et de stockages virtualisés.

7- Le Cloud Computing

Le cloud computing, est l'exploitation de la puissance de calcul ou de stockage de


serveurs informatiques distants par l'intermédiaire d'un réseau, généralement l'internet. Ces
serveurs sont loués à la demande, le plus souvent par tranche d'utilisation selon des critères
techniques (puissance, bande passante, etc.) mais également au forfait. Le cloud computing se
caractérise par sa grande souplesse. Selon le niveau de compétence de l'utilisateur client, il est
possible de gérer soi-même son serveur ou de se contenter d'utiliser des applicatifs distants en
mode SaaS.

En d’autres termes, le cloud est un ensemble de matériel, de raccordements réseau


et de logiciels qui fournissent des services sophistiqués que les individus et les
collectivités peuvent exploiter à volonté depuis n'importe où dans le monde. Le cloud
computing est un basculement de tendance : au lieu d'obtenir de la puissance de calcul par
acquisition de matériel et de logiciel, le consommateur se sert de puissance mise à sa
disposition par un fournisseur via Internet.
Figure 8 : Présentation du Cloud Computing

8- La Qualité de Service
La qualité de service (QDS) ou Quality of Service (QoS) est la capacité à
véhiculer dans de bonnes conditions un type de trafic donné, en termes de disponibilité,
débit, délais de transmission, gigue, taux de perte de paquets. Elle permet d'offrir aux
utilisateurs des débits et des temps de réponse différenciés par applications (ou activités)
suivant les protocoles mis en œuvre au niveau de la structure.

8.1- Enjeux
La qualité d'un service est une notion subjective. Selon le type de service envisagé, la
qualité pourra résider dans le débit (téléchargement ou diffusion vidéo), le délai (pour les
applications interactives ou la téléphonie), la disponibilité (accès à un service partagé) ou
encore le taux de pertes de paquets (pertes sans influence pour de la voix ou de la vidéo, mais
critiques pour le téléchargement). La qualité de service propre au domaine de la gestion de la
qualité est un concept utile en urbanisation du système d'information gérant les flux
immatériels et à la logistique qui gère les flux matériels. L'objet est de créer les synergies (ou
flexibilités) nécessaires à l'organisation. Ceci passe par une amélioration de la standardisation
des formats, et la mutualisation et réutilisation des ressources dans le cadre de l'intégration
des flux.
8.2- Caractéristiques

Dans un réseau, les informations sont transmises sous la forme de paquets, petits
éléments de transmission transmis de routeur en routeur jusqu'à la destination. Tous les
traitements vont donc s'opérer sur ces paquets. La mise en place de la qualité de service
nécessite en premier lieu la reconnaissance des différents services. Celle-ci peut-se faire
sur la base de nombreux critères :

 La source et la destination du paquet ;

 Le protocole utilisé (UDP/TCP/ICMP/etc.) ;

 Les ports source et de destination dans le cas des protocoles TCP et UDP ;

 La date et l'heure,

 La congestion des réseaux ;

 La validité du routage (gestion des pannes dans un routage en cas de routes


multiples par exemple) ;

 La bande passante consommée ;

 Les temps de latence.

9- La Virtualisation

9.1- Principe

La virtualisation correspond à l’ensemble des techniques matérielles et/ou logiciels


qui permettent de faire fonctionner sur une seule machine plusieurs systèmes d’exploitation
et/ou plusieurs applications, séparément les uns des autres, comme s’ils fonctionnaient sur
des machines distinctes.

La virtualisation consiste à séparer le matériel du logiciel et en émulant le matériel


par l’aide de logiciel. Pour qu’un système d’exploitation fonctionne au-dessus du système
d’exploitation primaire on fait appel à la virtualisation et aux machines virtuelles. Une
machine virtuelle peut être définie comme étant un fichier de données déplaçable et
pouvant être copié sur une autre machine physique comme un fichier de données normal.
Les machines virtuelles fonctionnent comme des machines physiques. Elles sont isolées
les unes des autres malgré l’utilisation du même substrat physique.
La séparation des couches matérielles et logicielles est obtenue à l’aide d’une
couche supplémentaire appelée hyperviseur. Un hyperviseur ou autrement moniteur de
machine virtuelle (Virtual machine monitor : VMM) est un logiciel qui permet de créer et
exécuter des machines virtuelles. Il permet d’instancier plusieurs machines virtuelles qui
fonctionnent chacune avec son propre système d’exploitation mais qui partagent les
mêmes ressources physiques qui sont présentes sur la couche matérielle (CPU, carte
réseau, RAM, …).

Figure 9 : Architecture de la virtualisation

La virtualisation est représentée par une architecture composée de trois parties.


L’hyperviseur joue le rôle d’intermédiaire entre la couche physique et les machines virtuelles.
Alors, chaque machine virtuelle a son propre système d’exploitation et une couche applicative
qui lui est propre en fonction du besoin.

9.2- NFV (Network Function Virtualization) ou virtualisation des


fonctions réseau
NFV est une architecture réseau qui fait appel aux technologies de virtualisation
pour pouvoir virtualiser des classes entières de fonction de nœuds de réseau dans des
blocs qui peuvent se connecter pour créer des services de communication. Une fonction
de réseau virtualisés ou NFV est constitué d’une ou plusieurs machines virtuelles en cours
d’exécution avec des logiciels et processus différents, au-dessus des serveurs, switchs et
unité de stockage de grande taille.

Son principal but est de découpler les fonctions réseau du matériel physique. Il
permet aux services de réseau qui sont dans les routeurs, les pares-feux et autres
périphériques dédiés à être hébergés sur des machines virtuelles. Après que toutes les
fonctions réseau soient sous contrôle de l’hyperviseur alors les services qui nécessitaient
auparavant un matériel dédié peuvent être lancés sur des serveurs x86 standards. Ceci
étant, les administrateurs réseau n'ont plus besoin d’acheter du matériel dédié pour
construire une topologie réseau complète. Ainsi la capacité d’un serveur peut être
agrandie de façon logicielle tout en évitant le surdimensionnement matériel.

10- Problématique 10.1- Problèmes

D’après Cisco Visual Networking (Cisco VNI, 2020), à l’horizon 2023 le nombre
d’appareils mobiles connectés dépassera le nombre de personnes sur terre à hauteur de
deux mobiles par personne. Ce chiffre est représentatif de l’ampleur exponentielle que
prennent les technologies de télécommunication dans la société moderne, et avec
l’avènement d’internet des objets (Internet of Things IoT) tout sera connecté, ce qui
implique une infrastructure réseau d’une complexité ingérable et la nécessité d’un réseau
programmable, réduisant ainsi l’intervention humaine qui est la source principale des
failles dans les réseaux.
L’architecture fondamentale des réseaux traditionnels n’a connue aucun changement majeur
depuis plus de 20 ans. Ce statut quo est en partie dû à l’architecture des appareils en eux
même, le fait est que la coexistence du plan de contrôle et du plan de données dans chaque
équipement physique ce qui rend très difficile tout déploiement de nouvelle fonctionnalité ou
protocole car ceux-ci doivent être incorporées dans l’équipement physique, 5 à 10 ans pour
concevoir et déployer un protocole de routage (Benamrane, 2017). Cet environnement
n’encourage pas le développement, car seuls les fabricants ont accès au hardware. Mais ce
système a aussi créé une dépendance des particuliers envers leurs fabricants, faute de
problèmes d’interopérabilité entre

Vous aimerez peut-être aussi