0% ont trouvé ce document utile (0 vote)
85 vues147 pages

Architecture Reseau

Un cours total sur l'architecture réseau en licence

Transféré par

irbosso455
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
85 vues147 pages

Architecture Reseau

Un cours total sur l'architecture réseau en licence

Transféré par

irbosso455
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

CHAPITRE 1 : INTRODUCTION AUX RESEAUX INFORMATIQUES

L'Internet d'aujourd'hui est sans doute le plus grand système d'ingénierie jamais créé par
l'humanité, avec des centaines de millions d'ordinateurs connectés, de liaisons de
communication et de commutateurs ; avec des milliards d'utilisateurs qui se connectent
via des ordinateurs portables, des tablettes et des smartphones ; et avec un éventail de
nouvelles « objets » connectés à Internet, notamment des consoles de jeux, des systèmes
de surveillance, des montres, des lunettes, des thermostats et des voitures, …, etc.
Un réseau informatique, également appelé réseau de données, est une série de nœuds
interconnectés qui peuvent transmettre, recevoir et échanger des données, de la voix et
du trafic vidéo. Les serveurs ou les modems sont des exemples de nœuds dans un réseau.
Les réseaux informatiques aident généralement les utilisateurs finaux à partager des
ressources et à communiquer. Ils apparaissent généralement un peu partout, par exemple
dans les foyers, les bureaux et les administrations publiques. L'utilisation de réseaux
informatiques permet de surmonter les barrières géographiques et de partager des
informations. Les réseaux informatiques permettent d'utiliser et de partager un grand
nombre d'applications et de services, y compris des courriers électroniques, des vidéos,
des fichiers audio et de nombreux autres types de données, sur l'internet.

1.1. Définition et objectifs des réseaux


- Définition : Un réseau informatique est un ensemble d'équipements interconnectés qui
échangent des données et partagent des ressources.

Un réseau informatique est un ensemble d'ordinateurs et d'autres appareils (serveurs,


routeurs, imprimantes, etc.) interconnectés afin de partager des informations et des

Note de cours d’Architecture Réseaux Ir Marc BOPEY


ressources. Ces réseaux peuvent être utilisés pour la communication entre personnes
(email, messagerie instantanée, appels vidéo), mais aussi pour accéder à Internet,
partager des fichiers et des bases de données, ou encore gérer des systèmes
d'information.
- Objectifs :
- Partage des ressources : imprimantes, fichiers, applications.
- Communication : messagerie, visioconférence.
- Centralisation des données : bases de données partagées.
- Sécurité : gestion centralisée des accès.
- Économie : réduction des coûts matériels et logiciels.

Exemples concrets :
- Un réseau domestique (partage d'une imprimante entre plusieurs ordinateurs).
- Un réseau d'entreprise (accès à une base de données centralisée).

Activité TD :
- Discussion en groupe : "Pourquoi les réseaux sont-ils essentiels dans notre vie
quotidienne ?"

1.2. Historique et évolution des réseaux


L'évolution des réseaux informatiques a été marquée par des avancées technologiques
majeures qui ont permis de passer de simples connexions de quelques ordinateurs à des
réseaux mondiaux complexes, comme l'Internet. Voici un aperçu chronologique de
l'histoire des réseaux informatiques et de leur évolution.
1. Les débuts (Années 1950-1960)
Les premiers réseaux
Les premiers travaux sur les réseaux informatiques ont commencé dans les années 1950.
À cette époque, les ordinateurs étaient principalement utilisés pour des calculs
scientifiques et militaires. Il n'existait pas de moyens de communication directe entre les
ordinateurs.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 1950-1960 : L'idée de relier des ordinateurs à distance a commencé à germer, mais
les premières connexions informatiques étaient limitées à des systèmes centraux
avec peu ou pas de communication entre eux.
 Le concept de "réseaux de communication" : Des chercheurs ont commencé à
imaginer des moyens d'interconnecter des ordinateurs pour partager des
ressources, mais les infrastructures et la technologie nécessaires n'étaient pas
encore disponibles.
2. L'ARPANET (1969)
La naissance du réseau moderne
Le véritable tournant dans l'histoire des réseaux informatiques a eu lieu en 1969 avec la
création d'ARPANET (Advanced Research Projects Agency Network), un projet soutenu
par le ministère américain de la Défense. Ce réseau était destiné à relier des ordinateurs
répartis dans des universités et des centres de recherche pour favoriser le partage de
ressources et d'informations.
 1969 : ARPANET connecte pour la première fois quatre universités américaines
(UCLA, Stanford, UC Santa Barbara, et l'Université de l'Utah). Il utilisait la
technologie de commutation de paquets (packet switching), qui allait devenir la
base des réseaux modernes.
 ARPANET a permis de transmettre des données sous forme de petits paquets,
permettant une communication plus fiable et flexible que les réseaux précédents
basés sur la commutation de circuits.
Le développement du protocole TCP/IP
En 1973, Vinton Cerf et Bob Kahn ont développé TCP/IP (Transmission Control
Protocol/Internet Protocol), un protocole de communication permettant de relier différents
réseaux entre eux. Ce protocole est devenu la norme mondiale pour la communication sur
les réseaux informatiques.
 1974 : Publication de la première spécification de TCP/IP.
 1983 : Le protocole TCP/IP devient la norme officielle pour ARPANET, marquant
ainsi le début de l'Internet tel que nous le connaissons aujourd'hui.
3. L'Internet et les premiers réseaux commerciaux (1980-1990)
La croissance de l'Internet
Au début des années 1980, le nombre d'ordinateurs connectés à ARPANET augmente
rapidement. Parallèlement, de nouveaux réseaux apparaissent dans d'autres parties du
monde, et l'Internet commence à se structurer.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 1983 : L'Internet se développe avec l'introduction des Domain Name Systems
(DNS), un système permettant de traduire les adresses IP en noms de domaine
compréhensibles par les humains (ex. : [Link]).
 1989 : Tim Berners-Lee invente le World Wide Web (WWW), un système de
navigation sur Internet permettant d'accéder à des informations sous forme de
pages hypertextes. Le Web facilite l'accès à l'Internet et devient l'une des raisons
principales de son succès.
Les réseaux commerciaux
L'Internet n'était initialement accessible qu'aux institutions académiques et
gouvernementales. Cependant, au début des années 1990, des entreprises privées
commencent à proposer des services de connexion à Internet pour le grand public.
 1991 : L'Internet devient accessible au grand public avec la création de fournisseurs
d'accès à Internet (FAI) tels que AOL, CompuServe, et Prodigy.
 Le Web se développe rapidement grâce à l'apparition des navigateurs Web comme
Mosaic et Netscape Navigator.
4. L'explosion d'Internet et la mondialisation (1990-2000)
L'Internet à grande échelle
Les années 1990 marquent la véritable explosion d'Internet. Les entreprises, les
gouvernements, les universités et les particuliers commencent tous à adopter Internet pour
la communication, la recherche d'information, et les transactions commerciales.
 1995 : Microsoft lance Windows 95, un système d'exploitation avec un navigateur
Web intégré, favorisant l'usage d'Internet.
 L'émergence des sites Web commerciaux, comme Amazon, eBay, et Google,
révolutionne le commerce en ligne.
Les technologies de réseau
Les années 1990 ont aussi vu l'émergence de nouvelles technologies de réseau, telles
que le Wi-Fi (permettant la connexion sans fil) et le broadband (accès à Internet haut
débit).
 1997 : Développement de la norme Wi-Fi, permettant aux utilisateurs de se
connecter sans fil aux réseaux locaux (LAN).
 L'Internet haut débit remplace progressivement les connexions à bas débit, comme
les lignes téléphoniques avec des modems.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


5. L'Internet moderne et l'ère du mobile (2000-présent)
Le développement du Web 2.0
Les années 2000 ont vu l'émergence du Web 2.0, un concept qui désigne un Internet plus
interactif, collaboratif et social. Les utilisateurs peuvent désormais non seulement
consommer du contenu, mais aussi le créer et le partager.
 L'essor des réseaux sociaux (Facebook, Twitter, Instagram, etc.) transforme la
manière dont les gens communiquent et interagissent.
 YouTube, Wikipedia, et Flickr permettent aux utilisateurs de partager vidéos,
photos et informations à grande échelle.
Le Cloud Computing
Les années 2010 ont vu l'explosion des services de cloud computing, qui permettent de
stocker des données et d'utiliser des logiciels via Internet, au lieu de les avoir sur un
ordinateur local.
 Amazon Web Services (AWS), Google Cloud et Microsoft Azure offrent des
infrastructures puissantes pour les entreprises, permettant un accès flexible et à la
demande à des ressources informatiques.
Les réseaux mobiles (4G et 5G)
Avec l'avènement des réseaux 4G puis 5G, l'Internet mobile devient encore plus rapide et
plus omniprésent. Les smartphones, tablettes et autres appareils connectés peuvent
désormais accéder à Internet à des vitesses ultra-rapides, facilitant ainsi la croissance des
applications mobiles et des services en ligne.
 2010s : Les réseaux 4G (et plus récemment 5G) permettent des connexions plus
rapides et une meilleure gestion du trafic sur Internet.
 Les objets connectés (IoT), qui permettent aux appareils du quotidien (appareils
électroménagers, voitures, etc.) de se connecter à Internet, connaissent également
une explosion pendant cette période.
Conclusion
Les réseaux informatiques ont évolué de simples connexions entre quelques ordinateurs
dans les années 1960 à des systèmes mondiaux interconnectés comme l'Internet, qui relie
des milliards d'appareils et de personnes. L'Internet et les technologies associées ont
transformé la manière dont nous communiquons, travaillons, consommons des
informations et interagissons avec le monde. Aujourd'hui, les réseaux sont au cœur de la
transformation numérique, et leur évolution continue avec l'émergence de nouvelles
technologies comme la 5G, le Cloud et l'Internet des objets.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


IMPACT DES RESEAUX SUR LA SOCIETE
- Communication : Messagerie instantanée, réseaux sociaux, visioconférence.
- Économie : Commerce électronique, banque en ligne, travail à distance.
- Éducation : Cours en ligne, ressources éducatives accessibles partout.
- Santé : Télémédecine, surveillance à distance des patients.
- Divertissement : Streaming vidéo, jeux en ligne, réalité virtuelle.

Activités pédagogiques
1. Discussion en groupe : "Quel a été l'événement le plus important dans l'histoire des
réseaux selon vous ? Pourquoi ?"
2. Recherche et présentation : "Choisissez une technologie réseau (ex. Wi-Fi, 5G) et
retracez son évolution."
3. Analyse de cas : "Comparez les réseaux des années 1990 à ceux d'aujourd'hui. Quels
sont les progrès les plus marquants ?"

A RETENIR :
- Les réseaux ont évolué d'ARPANET à Internet, en passant par les LAN et les réseaux
sans fil.
- Les protocoles comme TCP/IP et les technologies comme Ethernet ont joué un rôle clé.
- Les réseaux modernes (5G, IoT, SDN) transforment la société et l'économie.
- L'évolution des réseaux continue, avec des défis en matière de sécurité, de performance
et d'accessibilité.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


1.3. Types de réseaux (LAN, MAN, WAN, PAN, WLAN)
- Comprendre les différents types de réseaux et leurs caractéristiques.
- Identifier les utilisations typiques de chaque type de réseau.
- Distinguer les avantages et les limites de chaque type de réseau.
1. LAN (Local Area Network)
Le LAN (Local Area Network)
Un Réseau Local (LAN - Local Area Network) est un réseau informatique qui permet de
connecter plusieurs dispositifs (ordinateurs, imprimantes, serveurs, etc.) dans une zone
géographique limitée, comme une maison, un bureau, ou un campus. Le LAN est utilisé
pour faciliter la communication, le partage de ressources (fichiers, imprimantes) et l'accès
à Internet entre différents appareils au sein de cette zone restreinte.
1. Caractéristiques d'un LAN
Voici les principales caractéristiques d'un réseau local (LAN) :
 Portée géographique limitée : Un LAN couvre généralement une petite zone
géographique, comme un bâtiment ou un groupe de bâtiments. Par exemple, un
LAN peut être un réseau au sein d'une entreprise ou d'une maison.
 Vitesse de transmission élevée : Les LANs offrent des vitesses de transmission
de données relativement rapides, souvent beaucoup plus rapides que les réseaux
étendus comme l'Internet.
 Technologies de connexion : Un LAN peut utiliser des câbles (Ethernet, fibre
optique) ou des connexions sans fil (Wi-Fi) pour connecter les appareils entre eux.
 Partage de ressources : Les appareils d'un LAN peuvent partager des ressources
telles que des fichiers, des imprimantes, des bases de données et des applications,
facilitant ainsi la collaboration entre utilisateurs.
2. Composants d'un LAN
Un LAN est composé de plusieurs éléments clés qui permettent la communication et le
partage des ressources entre les appareils.
 Ordinateurs et dispositifs finaux : Ce sont les appareils connectés au réseau,
tels que les ordinateurs, les tablettes, les téléphones, les imprimantes, etc.
 Switch (commutateur) : Un switch est un appareil qui permet de relier plusieurs
appareils entre eux dans un LAN. Il dirige le trafic de données entre les différents
appareils et optimise les performances du réseau.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Routeur : Un routeur peut être utilisé pour connecter le LAN à un réseau externe,
comme Internet. Il permet de gérer la communication entre le réseau local et des
réseaux plus larges.
 Point d'accès sans fil (Wi-Fi) : Si le LAN utilise une connexion sans fil, un point
d'accès Wi-Fi permet aux appareils mobiles et autres dispositifs sans fil de se
connecter au réseau local.
 Câblage : Les LANs peuvent utiliser des câbles Ethernet (souvent Cat5e ou Cat6)
pour connecter les appareils entre eux. Dans les réseaux modernes, la fibre optique
peut également être utilisée pour des performances accrues.
3. Topologies de réseau dans un LAN
Les réseaux LAN peuvent adopter différentes topologies, qui déterminent la façon dont les
appareils sont interconnectés.
 Topologie en bus : Dans cette topologie, tous les appareils sont connectés à un
seul câble central (le bus). Bien que simple, cette topologie peut devenir un goulot
d'étranglement si beaucoup d'appareils sont connectés.
 Topologie en étoile : C'est la topologie la plus courante dans les LANs modernes.
Tous les appareils sont connectés à un switch central, ce qui simplifie la gestion
et améliore la performance. Si un appareil tombe en panne, cela n'affecte pas les
autres appareils du réseau.
 Topologie en anneau : Dans cette topologie, chaque appareil est connecté à deux
autres appareils, formant un cercle. Les données circulent dans une direction
autour de l'anneau. Elle est moins courante aujourd'hui, mais certains réseaux
utilisent encore des technologies comme Token Ring.
 Topologie maillée : Chaque appareil du réseau est connecté à tous les autres.
Cette topologie est très robuste et permet des chemins multiples pour les données,
mais elle est coûteuse en termes de câblage.
4. Types de LAN
Les réseaux locaux peuvent être classés en fonction des technologies et des objectifs.
Voici les types les plus courants :
 Réseau câblé (Ethernet) : Traditionnellement, les LANs utilisaient des câbles
Ethernet (souvent Cat5e ou Cat6). Ce type de réseau est fiable et offre des vitesses
de transfert élevées (jusqu'à 10 Gbps dans certains cas).
 Réseau sans fil (Wi-Fi) : De plus en plus populaires, les réseaux Wi-Fi permettent
aux appareils de se connecter sans câbles physiques. Cela offre une plus grande

Note de cours d’Architecture Réseaux Ir Marc BOPEY


flexibilité et permet de relier facilement des appareils mobiles, mais les
performances peuvent être influencées par la distance et les obstacles.
 LAN hybride : Un réseau hybride combine des éléments câblés et sans fil,
permettant à certains appareils de se connecter via Ethernet et d'autres via Wi-Fi.
C'est une solution flexible pour les environnements modernes.
5. Avantages du LAN
Un réseau local présente plusieurs avantages :
 Partage de ressources : Les utilisateurs peuvent partager facilement des fichiers,
des imprimantes, et d'autres ressources, ce qui facilite la collaboration.
 Coût faible : La mise en place d'un LAN est généralement moins coûteuse que
celle d'un réseau étendu (WAN), surtout lorsqu'il s'agit d'un réseau local câblé ou
sans fil.
 Performances élevées : Les LANs sont généralement rapides et permettent des
échanges de données à des vitesses beaucoup plus élevées que les réseaux
distants.
 Sécurité : Comme les LANs sont souvent limités à un espace physique spécifique
(comme un bâtiment ou un campus), ils sont plus faciles à sécuriser que les
réseaux plus larges.
6. Inconvénients du LAN
Bien que les LANs aient de nombreux avantages, il existe également certains
inconvénients :
 Portée limitée : Un LAN est limité à une zone géographique restreinte. Pour
étendre un réseau au-delà d'un bâtiment ou d'une zone géographique, il faut utiliser
des technologies comme les WANs.
 Gestion et maintenance : Bien que relativement simples, les LANs nécessitent
tout de même une gestion pour garantir leur bon fonctionnement, notamment pour
la configuration des appareils, la surveillance du réseau et la gestion de la sécurité.
7. Évolution du LAN
Au fil des années, les LANs ont évolué grâce à l'amélioration des technologies de
communication et des protocoles. Les principales évolutions comprennent :
 Ethernet Gigabit et 10 Gigabit : Avec l'amélioration des câbles et des
commutateurs, les LANs modernes offrent des vitesses de connexion de 1 Gbps,
10 Gbps, voire plus.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Wi-Fi 6 (802.11ax) : La dernière norme Wi-Fi permet des vitesses de connexion
plus rapides, une plus grande efficacité dans les environnements denses et une
meilleure gestion de l'énergie pour les appareils mobiles.
 Virtualisation des réseaux : Avec la virtualisation des réseaux, il est désormais
possible de diviser un réseau local physique en plusieurs réseaux virtuels (VLAN),
ce qui améliore la gestion et la sécurité.
Conclusion
Le LAN est la base de nombreux réseaux informatiques locaux. Il permet de connecter
rapidement et efficacement plusieurs appareils dans une zone restreinte, offrant des

avantages en termes de performance, de coût et de facilité de gestion. Avec l'évolution


des technologies, les LANs continuent d'évoluer pour répondre aux besoins des
environnements modernes, notamment en termes de connectivité sans fil et de vitesses
de transfert ultra-rapides.

2. MAN (Metropolitan Area Network)


Un Réseau Métropolitain (MAN - Metropolitan Area Network) est un réseau
informatique qui couvre une zone géographique plus large qu'un réseau local (LAN), mais
plus restreinte qu'un réseau étendu (WAN). Un MAN est généralement conçu pour relier
plusieurs bâtiments ou sites au sein d'une ville ou d'une agglomération urbaine, permettant
ainsi de connecter des réseaux locaux (LAN) répartis sur une zone métropolitaine.
1. Caractéristiques d'un MAN
Voici les principales caractéristiques d'un MAN :
 Portée géographique : Un MAN couvre généralement une zone de taille moyenne,
telle qu'une ville ou une grande agglomération. Sa portée est plus large qu'un LAN,
mais plus restreinte qu'un WAN.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Vitesse de transmission élevée : Les MANs offrent des vitesses de transmission
plus élevées que les connexions Internet grand public classiques, permettant un
échange de données rapide entre les différents sites.
 Technologies de connexion : Un MAN utilise souvent des câbles à haute capacité
(comme la fibre optique) ou des connexions sans fil (microwave, radio) pour
interconnecter les différents sites.
 Interconnexion des LANs : Un MAN permet de relier plusieurs réseaux locaux
(LAN) au sein d'une même ville, facilitant ainsi le partage de ressources et
d'informations entre différents bureaux ou campus.
2. Composants d'un MAN
Un MAN est constitué de plusieurs éléments pour assurer la connectivité entre les
différents sites :
 Routeurs et commutateurs : Comme dans un LAN, les routeurs et les
commutateurs jouent un rôle crucial dans la gestion du trafic et l'acheminement des
données entre les différents réseaux.
 Fibres optiques : Les MANs modernes utilisent souvent des câbles en fibre
optique pour garantir des vitesses de transmission élevées et une grande capacité
de bande passante.
 Points d'accès sans fil : Dans certains cas, des technologies sans fil comme la
micro-ondes ou la radio peuvent être utilisées pour relier différents sites dans un
MAN.
 Serveurs et dispositifs terminaux : Les dispositifs finaux, comme les ordinateurs
et les serveurs, sont connectés à ce réseau pour permettre l'échange de données
entre les différents sites d'une ville.
3. Fonctionnalités d'un MAN
Un MAN présente plusieurs fonctionnalités et avantages qui le rendent utile pour les
entreprises et les organisations :
 Interconnexion de sites multiples : Un MAN permet de connecter plusieurs
bâtiments ou sites d'une même organisation répartis sur une grande ville ou une
zone urbaine, offrant ainsi une communication fluide entre les différents
départements ou succursales.
 Partage de ressources : Tout comme un LAN, un MAN permet le partage de
ressources telles que des fichiers, des imprimantes, des bases de données, et des
applications entre différents sites d'une même organisation.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Accès à Internet : Un MAN peut fournir un accès à Internet à des groupes
d'entreprises ou à des bâtiments dans une zone urbaine, réduisant ainsi les coûts
et améliorant l'efficacité.
 Applications critiques : Un MAN est souvent utilisé par des entreprises ayant des
sites répartis dans une ville, permettant d’assurer des connexions rapides pour des
applications critiques comme les bases de données en temps réel, la
vidéoconférence, et d'autres services sensibles à la latence.
4. Technologies utilisées dans un MAN
Un MAN peut utiliser plusieurs technologies pour établir des connexions entre les
différents sites. Voici quelques-unes des technologies les plus courantes :
 Fibres optiques : Les MANs modernes utilisent généralement des connexions en
fibre optique, qui permettent des transmissions de données à haut débit et sur de
longues distances sans perte significative de signal. Les fibres optiques sont
idéales pour des réseaux à haute capacité dans des zones urbaines.
 Ethernet MAN : Cette technologie, basée sur Ethernet, est couramment utilisée
pour les MANs. Elle permet d'interconnecter plusieurs sites au sein d'une ville à
des vitesses élevées. Des technologies comme Ethernet sur fibre sont
couramment utilisées pour la transmission.
 MPLS (Multiprotocol Label Switching) : Un protocole utilisé pour acheminer
efficacement les données à travers un MAN en attribuant des étiquettes aux
paquets de données, ce qui permet une gestion du trafic optimisée et une meilleure
qualité de service (QoS).
 WiMAX : Une technologie sans fil permettant de créer des réseaux MAN à haut
débit sur de grandes distances. WiMAX est particulièrement utile pour les zones où
il est difficile d'étendre la fibre optique.
 Technologies sans fil : Dans certaines situations, des connexions sans fil comme
microwave links ou des réseaux de radiofréquence peuvent être utilisées pour
connecter les sites d'un MAN. Ces technologies peuvent être plus économiques
dans certaines zones géographiques.
5. Applications du MAN
Les MANs sont utilisés dans diverses situations pour répondre à des besoins spécifiques,
notamment :
 Réseaux d'entreprises : De nombreuses entreprises ayant plusieurs sites dans
une même ville utilisent des MANs pour relier leurs bureaux, facilitant ainsi la
communication interne et le partage de ressources.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Fournisseurs d'accès à Internet : Les fournisseurs de services Internet (FAI)
peuvent utiliser un MAN pour offrir des services à haut débit à une communauté
d'utilisateurs dans une zone urbaine, comme un quartier ou une ville entière.
 Services publics : Les MANs peuvent être utilisés pour connecter des
infrastructures critiques, comme des centrales électriques ou des stations de
traitement d'eau, dans une grande ville, permettant un suivi centralisé et une
gestion efficace.
 Éducation et recherche : Les MANs sont également utilisés dans le secteur
éducatif pour interconnecter les universités et les centres de recherche dans une
ville, facilitant la collaboration et l'accès à des ressources partagées.
6. Avantages du MAN
Voici les principaux avantages d'un MAN :
 Vitesse et fiabilité : Un MAN offre une vitesse de transmission de données plus
rapide et plus fiable qu'une connexion Internet traditionnelle, ce qui est essentiel
pour des applications critiques telles que la vidéoconférence ou le transfert de
fichiers volumineux.
 Couverture étendue : Un MAN peut relier plusieurs sites dans une zone urbaine,
ce qui le rend adapté aux grandes entreprises ou aux organisations réparties sur
plusieurs bâtiments d'une ville.
 Basse latence : Le MAN réduit la latence par rapport à un WAN, ce qui permet une
communication quasi en temps réel, essentielle pour certaines applications
(comme les transactions financières, la gestion des données en temps réel, etc.).
 Économies d'échelle : Un MAN permet de mutualiser les ressources et de réduire
les coûts par rapport à l'utilisation d'un WAN pour chaque site individuel.
7. Inconvénients du MAN
Bien que le MAN offre de nombreux avantages, il présente également quelques
inconvénients :
 Coût élevé d'installation : La mise en place d'un MAN nécessite souvent un
investissement initial important, notamment pour l'infrastructure en fibre optique ou
pour les équipements de réseau.
 Maintenance complexe : Comme tout réseau étendu, un MAN peut nécessiter des
compétences techniques spécialisées pour sa gestion et sa maintenance.
 Dépendance à la technologie : Un MAN peut dépendre fortement des
technologies comme la fibre optique ou le WiMAX, ce qui peut poser problème en
cas de panne ou de défaillance.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
8. Évolution du MAN
Avec l'évolution des technologies, les MANs continuent de se développer. L'émergence
de technologies comme la 5G permet d'améliorer encore les performances des MANs
sans fil. De plus, l'intégration de réseaux virtuels (SDN - Software Defined Networks)
permet une gestion plus flexible et évolutive des MANs, tout en réduisant les coûts et en
améliorant l'efficacité du réseau.

Un MAN est une solution intermédiaire entre le réseau local (LAN) et le réseau étendu
(WAN). Il est adapté aux organisations ou aux villes qui ont besoin de connecter plusieurs
sites ou bâtiments sur une zone géographique plus large, tout en bénéficiant d'une vitesse
de transmission élevée et d'une gestion centralisée. Grâce à son évolutivité, un MAN peut
répondre à des besoins croissants en matière de communication et de partage de
ressources au sein d'une grande zone urbaine.
Si tu as des questions ou si tu souhaites plus de détails sur un aspect particulier du MAN,
n'hésite pas à me le faire savoir !

3. WAN (Wide Area Network)

Le WAN (Wide Area Network)

Un Réseau Étendu (WAN - Wide Area Network) est un réseau informatique qui couvre
une vaste zone géographique, généralement supérieure à celle d’un LAN (Réseau Local)
ou d’un MAN (Réseau Métropolitain). Contrairement aux LANs et MANs qui sont limités
à une zone géographique spécifique (un bâtiment ou une ville), un WAN peut relier des
ordinateurs et des sites distants dans des régions, des pays ou même sur des continents
différents. L'Internet lui-même est un exemple de WAN mondial.

1. Caractéristiques d'un WAN

Voici les principales caractéristiques d'un WAN :

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Portée géographique étendue : Un WAN couvre généralement une très large
zone géographique, allant de plusieurs kilomètres à des milliers de kilomètres. Il
peut connecter des bureaux, des centres de données ou des utilisateurs situés
dans différentes villes, pays, voire continents.
 Connexion via des infrastructures publiques ou privées : Contrairement aux
LANs qui utilisent généralement des infrastructures locales (comme les câbles
Ethernet ou le Wi-Fi), un WAN peut reposer sur des infrastructures publiques
comme l’Internet, ou des connexions privées (lignes louées, fibre optique dédiée,
etc.).
 Transmission de données longue distance : Un WAN permet le transfert de
données sur de longues distances, offrant des vitesses variées en fonction des
technologies et des protocoles utilisés.
 Technologies de communication multiples : Un WAN peut utiliser des
technologies de communication variées comme la fibre optique, les satellites, les
liaisons radio, les lignes téléphoniques (avec modems ou ISDN), et plus
récemment, les réseaux sans fil comme la 4G et la 5G.

2. Composants d'un WAN

Un WAN est constitué de plusieurs éléments essentiels pour assurer sa connectivité et


son bon fonctionnement :

 Routeurs : Ils jouent un rôle crucial dans l'acheminement des données à travers le
WAN. Les routeurs déterminent la meilleure route pour chaque paquet de données
entre les différents sites du WAN.
 Switches : Les switches de niveau supérieur peuvent être utilisés pour gérer le
trafic au sein du WAN, permettant la communication entre différents réseaux et
dispositifs.
 Modems et terminaux de communication : Les modems et autres dispositifs de
communication sont utilisés pour connecter les sites distants, surtout dans les
configurations de WAN plus anciens qui utilisaient des lignes téléphoniques.
 Lignes de communication : Un WAN utilise diverses infrastructures pour
connecter les sites distants, telles que les lignes louées, les câbles en fibre
optique, ou des technologies sans fil comme les satellites.
 Points d'accès sans fil (Wi-Fi, 4G/5G) : Les connexions sans fil peuvent aussi
être utilisées pour relier des sites distants dans certaines situations, notamment
avec la 5G ou les technologies satellitaires.

3. Fonctionnalités d'un WAN

Un WAN permet plusieurs fonctions importantes qui vont au-delà de la simple connexion
de sites géographiquement éloignés. Parmi ces fonctionnalités :

 Connectivité inter-sites : Un WAN relie des réseaux locaux (LAN) entre eux,
permettant ainsi la communication et le partage de données entre des sites
Note de cours d’Architecture Réseaux Ir Marc BOPEY
distants. Par exemple, une entreprise ayant des bureaux dans différentes régions
peut utiliser un WAN pour connecter ces bureaux entre eux.
 Accès à Internet : Un WAN fournit souvent l'accès à Internet à tous les sites d'une
organisation, offrant une connectivité globale et l'accès aux ressources en ligne.
 Communication et collaboration : Le WAN facilite des applications de
collaboration à distance comme la messagerie électronique, la vidéoconférence et
le partage de fichiers entre sites.
 Gestion centralisée des données et des applications : Les entreprises peuvent
centraliser leurs ressources (serveurs, bases de données, applications) dans un
data center, et y accéder via le WAN depuis tous leurs bureaux à distance.
 Sécurité : Un WAN peut être configuré avec des mécanismes de sécurité
sophistiqués pour protéger les échanges de données entre sites, notamment avec
des VPN (Réseaux Privés Virtuels) et des firewalls.

4. Technologies utilisées dans un WAN

Un WAN utilise plusieurs technologies pour acheminer les données sur de grandes
distances. Ces technologies peuvent varier en fonction des besoins en termes de vitesse,
de coût et de sécurité. Voici quelques-unes des technologies couramment utilisées dans
un WAN :

 Lignes louées (Leased Lines) : Ce sont des connexions privées et dédiées,


souvent utilisées pour relier des bureaux ou des centres de données à travers de
grandes distances. Les lignes louées sont généralement très fiables, mais elles
sont également coûteuses.
 MPLS (Multiprotocol Label Switching) : Le MPLS est une technologie qui permet
de diriger de manière plus efficace les paquets de données à travers un réseau.
Elle est utilisée dans les WANs pour améliorer la gestion du trafic et optimiser la
qualité de service (QoS), en garantissant une priorité pour certains types de
données.
 VPN (Virtual Private Network) : Les VPN sont souvent utilisés pour créer des
réseaux privés sécurisés à travers un WAN. Ils permettent aux utilisateurs distants
de se connecter de manière sécurisée au réseau de l'entreprise via Internet,
comme s'ils étaient sur un réseau local.
 Fibre optique : La fibre optique est couramment utilisée dans les WANs modernes
car elle permet des vitesses de transmission très élevées et une faible latence sur
de longues distances.
 Satellite et technologies sans fil : Dans certaines régions géographiques où les
infrastructures filaires sont difficiles à installer, des solutions sans fil comme les
réseaux satellites ou la 4G/5G peuvent être utilisées pour relier les sites du WAN.
 Technologie 4G/5G : Les connexions mobiles peuvent être utilisées pour établir
des WANs dans certaines situations, permettant aux utilisateurs ou aux sites
éloignés de se connecter rapidement au réseau global.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


5. Avantages du WAN

Les WANs offrent plusieurs avantages qui sont essentiels pour les grandes organisations
et les entreprises ayant des sites répartis sur de vastes distances :

 Connectivité globale : Un WAN permet de connecter des sites distants et de


fournir un accès à Internet à tous les utilisateurs du réseau, permettant ainsi une
communication instantanée à l'échelle mondiale.
 Partage de ressources : Les sites d'une organisation répartis géographiquement
peuvent partager des ressources (comme des serveurs, des bases de données,
des imprimantes) via un WAN, facilitant ainsi la collaboration entre équipes.
 Centralisation des données : Les WANs permettent de centraliser les données et
les applications, ce qui réduit les coûts liés à la gestion de plusieurs serveurs et
simplifie l'accès aux informations.
 Sécurité : Avec des technologies comme les VPN et les firewalls, un WAN peut
être sécurisé pour garantir la confidentialité et l'intégrité des données échangées
entre les sites.

6. Inconvénients du WAN

Malgré ses avantages, un WAN présente aussi quelques inconvénients :

 Coût élevé : L'installation et la gestion d'un WAN peuvent être coûteuses, surtout
si des lignes privées ou des services spécialisés sont nécessaires pour relier les
sites distants.
 Complexité de gestion : La gestion d'un WAN peut être complexe, car elle
nécessite une infrastructure plus grande et plus sophistiquée que celle d'un LAN
ou d'un MAN. De plus, la gestion des connexions intersites, des performances et
de la sécurité peut être un défi.
 Latence : Les WANs peuvent souffrir de latence (retard de transmission), en
particulier si les sites sont géographiquement éloignés les uns des autres. Cette
latence peut affecter la performance de certaines applications, en particulier celles
qui nécessitent une faible latence, comme la vidéoconférence en temps réel ou les
transactions financières.

7. Applications du WAN

Un WAN est utilisé dans une variété de situations pour répondre à des besoins spécifiques
:

 Entreprises multinationales : Les grandes entreprises qui ont des bureaux dans
plusieurs pays ou continents utilisent des WANs pour relier leurs sites et permettre
la communication entre les équipes dispersées.
 Fournisseurs d'Internet : Les fournisseurs de services Internet (FAI) utilisent des
WANs pour connecter des milliers, voire des millions de clients à l'Internet mondial.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Organisations gouvernementales : Les gouvernements et les administrations
publiques utilisent souvent des WANs pour relier différentes branches et ministères
dans un pays ou entre plusieurs pays.
 Institutions éducatives et de recherche : Les universités, les laboratoires de
recherche et les centres de données utilisent des WANs pour relier des sites
distants et partager des ressources entre chercheurs et étudiants.

8. Évolution du WAN

Avec l'évolution des technologies, le WAN continue d'évoluer. L'introduction de


technologies comme SD-WAN (Software-Defined WAN) permet de gérer les WANs de
manière plus flexible et efficace, tout en réduisant les coûts et en améliorant la
performance. SD-WAN permet de virtualiser et de contrôler de manière centralisée les
connexions WAN en utilisant des technologies basées sur le cloud, ce qui offre plus
d’agilité et de sécurité.

Conclusion

Le WAN est essentiel pour connecter des sites distants et assurer une communication
fluide à travers de grandes distances. Il permet aux entreprises, organisations et
institutions d'avoir une connectivité fiable et à grande échelle, en utilisant des technologies
variées pour optimiser les coûts, la performance et la sécurité. Bien qu'il présente certains
défis, le WAN reste une composante fondamentale de l'infrastructure de communication
moderne.

4. PAN (Personal Area Network)

Un réseau personnel (PAN) relie les appareils électroniques situés dans l'environnement
immédiat d'un utilisateur. La taille d'un PAN varie de quelques centimètres à quelques
mètres. L'un des exemples concrets les plus courants d'un PAN est la connexion entre

Note de cours d’Architecture Réseaux Ir Marc BOPEY


une oreillette Bluetooth et un smartphone. Les PAN peuvent également connecter des
ordinateurs portables, des tablettes, des imprimantes, des claviers et d'autres appareils
informatisés.

Les connexions au réseau PAN peuvent être filaires ou sans fil. Les méthodes de
connexion filaire comprennent l'USB et le FireWire ; les méthodes de connexion sans fil
comprennent le Bluetooth (la plus courante), le WiFi, l'IrDA et le Zigbee.

Bien que les dispositifs d'un PAN puissent échanger des données entre eux, les PAN ne
comportent généralement pas de routeur et ne se connectent donc pas directement à
l'Internet . Un dispositif au sein d'un PAN peut toutefois être connecté à un réseau local
(LAN) qui se connecte ensuite à l'Internet. Par exemple, un ordinateur de bureau, une
souris sans fil et des écouteurs sans fil peuvent tous être connectés les uns aux autres,
mais seul l'ordinateur peut se connecter directement à Internet.

Un réseau personnel (PAN) est utilisé pour connecter des appareils électroniques dans un
espace restreint, généralement autour d'une personne.

5. WLAN (Wireless Local Area Network)


Le WLAN (Wireless Local Area Network)
Un WLAN (Wireless Local Area Network), ou réseau local sans fil, est une extension
d’un LAN (Réseau Local) qui permet de connecter des appareils sans fil à un réseau local.
Il utilise des ondes radio pour transmettre les données entre les appareils et les points
d'accès au réseau, contrairement à un LAN traditionnel qui repose sur des câbles
physiques (comme le câble Ethernet).
1. Caractéristiques d'un WLAN
Voici les principales caractéristiques d’un WLAN :

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Sans fil : Contrairement aux réseaux câblés (LANs), un WLAN utilise des signaux
radio pour transmettre les données entre les appareils (ordinateurs, smartphones,
imprimantes, etc.) et le point d’accès (routeur sans fil).
 Portée limitée : La portée d’un WLAN est généralement plus petite qu’un WAN,
mais plus grande qu’un réseau personnel (WPAN). Un WLAN couvre généralement
une zone de quelques centaines de mètres (dans un bâtiment ou un espace
extérieur).
 Facilité de déploiement : Un WLAN est plus facile à déployer que les réseaux
câblés, car il n’est pas nécessaire d'installer des câbles physiques entre chaque
appareil et le réseau.
 Mobilité : L'un des principaux avantages du WLAN est qu'il permet aux utilisateurs
de se déplacer librement dans la zone de couverture tout en restant connectés au
réseau.
2. Composants d'un WLAN
Un WLAN est composé de plusieurs éléments pour permettre une communication sans fil
:
 Point d'accès sans fil (Wi-Fi Access Point - AP) : Le point d'accès est un
dispositif central qui permet aux appareils sans fil (ordinateurs, smartphones, etc.)
de se connecter au réseau. Il est généralement relié à un routeur ou à un switch
pour assurer la connexion Internet ou l’accès aux ressources réseau.
 Routeur sans fil : Le routeur sans fil, souvent intégré au point d'accès, assure la
gestion du trafic entre le WLAN et d'autres réseaux, comme l'Internet. Il attribue
des adresses IP aux appareils et gère la distribution du signal réseau.
 Clients sans fil (ordinateurs, smartphones, tablettes, imprimantes, etc.) : Les
appareils sans fil se connectent au WLAN via un adaptateur sans fil (Wi-Fi). Ils
peuvent accéder aux ressources du réseau, telles que les fichiers partagés ou
l'accès à Internet.
 Contrôleur de WLAN : Dans de grandes infrastructures, un contrôleur de WLAN
peut être utilisé pour gérer plusieurs points d'accès, optimisant ainsi la couverture
du réseau sans fil, la gestion des canaux et la sécurité du réseau.
 Cartes réseau sans fil (Wi-Fi adapter) : Les appareils qui se connectent à un
WLAN doivent être équipés de cartes réseau sans fil. Ces cartes permettent à
l'appareil de recevoir et de transmettre des signaux radio vers et depuis le point
d'accès.
3. Technologies utilisées dans un WLAN

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Le WLAN repose sur diverses technologies sans fil pour assurer la transmission des
données. Voici quelques technologies clés utilisées dans les WLAN :
 Wi-Fi (Wireless Fidelity) : Le terme Wi-Fi désigne la norme de communication
sans fil utilisée dans les WLANs modernes. La norme la plus courante est IEEE
802.11. Il existe différentes versions de cette norme, chacune offrant des vitesses
et des fonctionnalités améliorées :
o IEEE 802.11a/b/g/n/ac/ax : Chaque génération de cette norme Wi-Fi offre
des vitesses plus élevées et de meilleures performances, avec des
améliorations comme l'augmentation de la bande passante, une meilleure
gestion de la congestion du réseau et une couverture étendue.
o Wi-Fi 6 (802.11ax) : C'est la dernière norme, offrant des débits plus élevés,
une meilleure gestion des connexions simultanées (notamment dans les
environnements denses), et une plus grande efficacité énergétique.
 Fréquences radio : Les WLANs utilisent principalement deux bandes de
fréquences pour la transmission sans fil :
o 2,4 GHz : Utilisé par les anciennes normes Wi-Fi (802.11b/g/n) et offrant
une plus grande portée, mais aussi plus de risques de congestion avec
d'autres appareils (comme les micro-ondes et les téléphones sans fil).
o 5 GHz : Utilisé par les normes Wi-Fi plus récentes (802.11ac/ax), offrant des
vitesses plus rapides et moins de congestion, mais avec une portée plus
réduite que les bandes 2,4 GHz.
 MIMO (Multiple Input, Multiple Output) : C'est une technologie qui permet à un
point d'accès d'envoyer et de recevoir plusieurs signaux simultanément,
augmentant ainsi la vitesse de transmission et la capacité du réseau.
4. Avantages d'un WLAN
Voici quelques avantages clés d’un WLAN :
 Mobilité : Les utilisateurs peuvent se déplacer librement dans la zone de
couverture sans perdre leur connexion réseau. Cela est particulièrement utile dans
les environnements tels que les bureaux, les universités, les aéroports, ou dans les
maisons.
 Installation simplifiée : Contrairement aux réseaux câblés, qui nécessitent le
tirage de câbles et des travaux d'infrastructure, un WLAN peut être installé plus
rapidement et facilement, réduisant les coûts et les perturbations.
 Flexibilité : Un WLAN permet une grande flexibilité, car il est facile d'ajouter de
nouveaux appareils au réseau sans avoir besoin de câbles supplémentaires.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Accessibilité : Les WLANs sont largement disponibles dans les lieux publics
(cafés, hôtels, espaces de coworking, etc.), permettant aux utilisateurs de se
connecter facilement à Internet.
5. Inconvénients d'un WLAN
Cependant, les WLANs présentent également certains inconvénients :
 Sécurité : Comme les données sont transmises par ondes radio, un WLAN est
susceptible d'être intercepté si les mesures de sécurité appropriées ne sont pas
mises en place. Les réseaux Wi-Fi doivent être protégés avec des protocoles de
sécurité robustes, comme WPA3, pour éviter les attaques.
 Interférences : Les signaux sans fil sont sensibles aux interférences provenant
d'autres appareils utilisant les mêmes fréquences radio, comme les téléphones
sans fil, les micro-ondes, et même les murs et obstacles physiques dans
l'environnement.
 Portée limitée : La portée d’un WLAN est limitée par la puissance du signal sans
fil et les obstacles physiques (murs, meubles, etc.). Dans de grandes structures ou
à l’extérieur, un WLAN peut avoir du mal à couvrir toute la zone.
 Bande passante partagée : Dans un WLAN, tous les appareils connectés
partagent la même bande passante. Ainsi, si plusieurs appareils utilisent
intensivement le réseau en même temps, cela peut ralentir les performances du
réseau.
6. Applications du WLAN
Les WLANs sont utilisés dans de nombreux contextes, notamment :
 Bureaux et entreprises : De nombreuses entreprises utilisent des WLANs pour
offrir un accès sans fil à leurs employés, leur permettant de se déplacer librement
dans le bâtiment tout en restant connectés à l'Internet et aux ressources internes.
 Maisons et espaces personnels : Un WLAN domestique permet aux utilisateurs
de connecter leurs appareils (ordinateurs, smartphones, tablettes, consoles de
jeux) à Internet sans avoir besoin de câbles.
 Éducation : Les écoles et universités utilisent des WLANs pour permettre aux
étudiants et enseignants de se connecter au réseau éducatif sans être liés à des
ordinateurs de bureau fixes.
 Lieux publics : De nombreux cafés, hôtels, bibliothèques, aéroports, et autres lieux
publics offrent un accès Wi-Fi gratuit ou payant aux utilisateurs, leur permettant de
se connecter à Internet en toute liberté.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Villes intelligentes : De plus en plus, les WLANs sont utilisés dans les
infrastructures des villes intelligentes pour connecter des objets, capteurs et
dispositifs au sein d'un réseau sans fil, afin de gérer des services publics, la
mobilité, et bien d'autres applications.
7. Évolution du WLAN
Le WLAN continue de se développer avec l’émergence de nouvelles technologies, telles
que Wi-Fi 6 (802.11ax), qui offre une bande passante plus large, une meilleure gestion
des utilisateurs multiples et une efficacité énergétique accrue. À l'avenir, les WLANs
pourraient intégrer des technologies comme la 5G et Wi-Fi 6E (qui opère dans la bande 6
GHz), permettant des vitesses de connexion encore plus rapides et une latence réduite.
Conclusion
Un WLAN est une solution idéale pour fournir une connectivité sans fil à une grande variété
d’appareils et d’utilisateurs, tout en offrant une flexibilité et une mobilité accrues par rapport
aux réseaux câblés. Bien qu'il présente certains défis, notamment en matière de sécurité
et d’interférences, ses avantages en termes de facilité d'installation, d'accessibilité et de
mobilité en font un choix populaire dans de nombreux environnements, tant à domicile
qu’en entreprise.
Si tu as des questions supplémentaires ou si tu souhaites plus d'informations sur un aspect
particulier du WLAN, n'hésite pas à me le faire savoir !

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Activités pédagogiques
1. Étude de cas : "Identifiez le type de réseau utilisé dans votre université ou votre lieu de
travail. Justifiez votre réponse."
2. Débat : "Quel type de réseau est le plus adapté pour une petite entreprise ? Pourquoi
?"
3. Exercice pratique : "Dessinez un schéma de réseau pour une maison intelligente en
utilisant les types de réseaux appropriés."

A RETENIR :
- LAN : Réseau local pour une zone limitée (bureaux, maisons).
- MAN : Réseau métropolitain pour une ville ou un campus.
- WAN : Réseau étendu pour une couverture nationale ou mondiale.
- PAN : Réseau personnel pour connecter des appareils à proximité.
- WLAN : Réseau local sans fil pour une connectivité flexible.

1.4. Composants d'un réseau Informatique


Un réseau informatique est constitué de plusieurs éléments interconnectés qui permettent
aux dispositifs (ordinateurs, serveurs, imprimantes, etc.) de communiquer entre eux. Ces
composants travaillent ensemble pour assurer une transmission efficace des données et
la gestion de la communication au sein du réseau. Voici les principaux composants d'un
réseau informatique :
1. Dispositifs de réseau (Appareils terminaux)
Ces appareils sont ceux qui utilisent le réseau pour envoyer ou recevoir des données :
 Ordinateurs : Les ordinateurs de bureau, ordinateurs portables, serveurs, et
stations de travail qui se connectent au réseau pour accéder à des ressources,
telles que des fichiers ou des applications.
 Périphériques (imprimantes, scanners, etc.) : Les appareils tels que les
imprimantes réseau, les scanners et autres dispositifs qui peuvent être partagés à
travers le réseau.
 Smartphones et tablettes : Les appareils mobiles qui se connectent au réseau
pour accéder à des services comme Internet, les e-mails, et d'autres applications.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


2. Dispositifs de commutation (Commutateurs, Routeurs, Points d'accès)
Ces dispositifs sont responsables de la gestion, de la transmission et de l'acheminement
des données au sein du réseau :
 Routeurs : Les routeurs dirigent les paquets de données entre différents réseaux
(par exemple, entre un réseau local et l’Internet). Ils peuvent également attribuer
des adresses IP aux appareils connectés via DHCP (Dynamic Host Configuration
Protocol) et assurer la sécurité du réseau en utilisant des pare-feu.
 Commutateurs (Switches) : Un commutateur est un appareil réseau qui connecte
plusieurs appareils au sein d’un même réseau local (LAN). Il reçoit des données
d’un appareil et les envoie uniquement à l’appareil de destination, optimisant ainsi
le trafic réseau.
 Points d'accès (Access Points) : Un point d'accès sans fil (WAP) est un appareil
qui permet aux dispositifs sans fil (comme des ordinateurs portables, smartphones,
etc.) de se connecter au réseau local via des ondes radio. Il permet de créer des
WLAN (Wireless Local Area Network).
 Hubs : Un hub est un appareil plus ancien, similaire à un commutateur, mais qui
ne filtre pas le trafic. Il envoie les données à tous les appareils connectés à lui, ce
qui peut entraîner des collisions de données et un réseau plus lent.
3. Médias de transmission (Câblage et Ondes)
Les médias de transmission sont les supports physiques ou sans fil utilisés pour acheminer
les données entre les appareils du réseau :
 Câbles Ethernet (câblage cuivre) : Ce sont les câbles les plus couramment
utilisés dans un LAN filaire. Les câbles Cat5e, Cat6, et Cat7 sont des exemples
courants qui transmettent des données via des signaux électriques.
 Fibre optique : La fibre optique permet de transmettre des données à grande
vitesse et sur de longues distances en utilisant la lumière. Elle est couramment
utilisée dans les WANs et pour relier des réseaux entre différents bâtiments ou sites
distants.
 Wi-Fi (sans fil) : Le Wi-Fi permet la communication sans fil entre les appareils en
utilisant des ondes radio. Les points d'accès sans fil (AP) permettent de relier les
appareils mobiles et autres dispositifs au réseau.
 Connexions cellulaires (4G/5G) : Les réseaux sans fil mobiles (comme la 4G ou
la 5G) permettent une connectivité à Internet à travers des technologies cellulaires.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


4. Protocoles et standards
Les protocoles définissent les règles et les formats pour la communication entre les
dispositifs d’un réseau. Les protocoles sont nécessaires pour assurer que les données
soient envoyées et reçues correctement. Voici quelques protocoles courants :
 TCP/IP (Transmission Control Protocol/Internet Protocol) : C’est le cœur des
réseaux modernes, y compris de l’Internet. Le protocole IP gère l’adressage et le
routage des paquets, tandis que le TCP garantit que les données sont envoyées et
reçues correctement.
 HTTP/HTTPS (HyperText Transfer Protocol/Secure) : Ce sont des protocoles
utilisés pour la communication web. HTTPS est une version sécurisée de HTTP,
utilisée pour la navigation sur le web.
 FTP (File Transfer Protocol) : Utilisé pour transférer des fichiers entre des
ordinateurs via un réseau. Le SFTP (FTP sécurisé) est la version sécurisée de ce
protocole.
 DNS (Domain Name System) : Ce protocole traduit les noms de domaine (comme
[Link]) en adresses IP, permettant aux appareils de localiser et de
communiquer avec les serveurs sur le réseau.
 DHCP (Dynamic Host Configuration Protocol) : Ce protocole permet d’attribuer
automatiquement des adresses IP aux dispositifs d'un réseau.
 ARP (Address Resolution Protocol) : Permet de résoudre une adresse IP en
adresse MAC (physique) sur un réseau local.
5. Serveurs et services réseau
Les serveurs fournissent des services et des ressources à d'autres appareils ou utilisateurs
sur le réseau :
 Serveur de fichiers : Permet de stocker, organiser et partager des fichiers à
travers le réseau. Il peut être centralisé dans un centre de données ou localisé dans
un bureau.
 Serveur Web : Héberge des sites web et gère les requêtes HTTP des utilisateurs.
Les serveurs Web les plus populaires sont Apache, Nginx et IIS (Internet
Information Services).
 Serveur de messagerie (Mail Server) : Permet d'envoyer, de recevoir et de
stocker des e-mails via des protocoles comme SMTP (Simple Mail Transfer
Protocol) et IMAP/POP3 (pour la gestion des e-mails).

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Serveur DNS : Fournit la résolution des noms de domaine en adresses IP,
permettant ainsi aux utilisateurs de se connecter à des sites web via des noms de
domaine.
 Serveur d'annuaire (Active Directory) : Utilisé dans les entreprises pour gérer les
utilisateurs, les groupes et les permissions d'accès sur un réseau. Il facilite
l'authentification et la gestion des ressources réseau.
 Serveur proxy : Sert d'intermédiaire entre les utilisateurs et Internet. Il peut être
utilisé pour améliorer la sécurité, la confidentialité et la gestion du trafic réseau.
6. Dispositifs de sécurité
Les dispositifs de sécurité sont utilisés pour protéger le réseau contre les accès non
autorisés, les cyberattaques et autres risques :
 Pare-feu (Firewall) : Le pare-feu contrôle le trafic entrant et sortant du réseau, en
fonction de règles de sécurité définies. Il peut être matériel ou logiciel et peut aider
à protéger le réseau contre les attaques externes.
 Systèmes de détection d'intrusion (IDS) / Systèmes de prévention d'intrusion
(IPS) : Ces systèmes surveillent le réseau pour détecter et prévenir les
comportements malveillants.
 VPN (Réseau Privé Virtuel) : Un VPN permet de créer une connexion sécurisée
et chiffrée entre deux réseaux ou entre un utilisateur et un réseau, généralement à
travers Internet.
 Contrôleurs d'accès : Ils gèrent l'accès au réseau et assurent que seuls les
utilisateurs autorisés puissent accéder à certaines ressources, en utilisant des
méthodes comme l’authentification par mot de passe ou des cartes à puce.
7. Gestion du réseau
La gestion du réseau implique la supervision, la configuration et la maintenance des
équipements et des services réseau :
 Logiciels de gestion de réseau : Ils permettent de surveiller et de contrôler le
trafic du réseau, d’identifier des problèmes de performance et de gérer
l'infrastructure. Des outils comme Wireshark, SolarWinds, ou PRTG Network
Monitor sont utilisés pour ce type de gestion.
 SNMP (Simple Network Management Protocol) : Permet de surveiller et de gérer
les équipements réseau (routeurs, commutateurs, etc.) à distance.
 Gestion de la bande passante et QoS (Quality of Service) : Les outils QoS
assurent que certaines applications ou services reçoivent un traitement prioritaire

Note de cours d’Architecture Réseaux Ir Marc BOPEY


dans le réseau, garantissant une performance optimale pour des applications
critiques comme la VoIP (Voice over IP) ou les vidéos en streaming.
Conclusion
Les composants d'un réseau informatique sont nombreux et variés, chacun jouant un
rôle crucial dans le fonctionnement global du réseau. Que ce soit pour connecter des
utilisateurs, assurer la sécurité, gérer le trafic ou fournir des services, chaque composant
contribue à un aspect essentiel de la communication et de la gestion du réseau.
Si tu veux plus de détails sur un composant spécifique ou si tu as des questions
supplémentaires, n’hésite pas à me le faire savoir !

Activités pédagogiques
1. Exercice pratique : "Identifiez les composants d'un réseau domestique et dessinez un
schéma."
2. Étude de cas : "Quels composants seraient nécessaires pour créer un réseau dans une
petite entreprise ?"
3. Débat : "Quel est le composant le plus important dans un réseau ? Justifiez votre
réponse."

1.5. TOPOLOGIES DE RESEAUX


La topologie de réseau fait référence à la disposition physique ou logique des éléments
d'un réseau (câblage, appareils, serveurs, etc.) et à la manière dont ces éléments sont
interconnectés. Le choix de la topologie a une influence sur la performance, la fiabilité et
la facilité de maintenance du réseau. Il existe plusieurs types de topologies, chacune ayant
ses avantages et inconvénients en fonction des besoins spécifiques du réseau.
1.5.1. TOPOLOGIE EN BUS
La topologie en bus est une structure de réseau où tous les appareils (ordinateurs,
imprimantes, etc.) sont connectés à un câble principal, appelé "bus". Ce câble central sert
de moyen de transmission pour les données entre les différents appareils.
Principales caractéristiques de la topologie en bus :
1. Câble central (bus) : Tous les dispositifs du réseau sont reliés à ce câble,
généralement un câble coaxial ou à fibres optiques.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


2. Transmission des données : Les données envoyées par un appareil passent par
le bus et peuvent être reçues par tous les autres appareils, mais seul celui auquel
les données sont destinées les accepte.
3. Accessibilité et coût : La topologie en bus est généralement plus simple et moins
coûteuse à mettre en place, car elle nécessite moins de câblage.
4. Problèmes de congestion : Lorsque de nombreuses données sont envoyées
simultanément, il peut y avoir des collisions et des ralentissements.
5. Panne : Si le câble principal (le bus) se déconnecte ou tombe en panne, tout le
réseau est affecté.
Avantages :
 Simplicité : Facile à installer et à étendre.
 Coût réduit : Moins de câbles nécessaires par rapport à d'autres topologies
(comme la topologie en étoile).
Inconvénients :
 Risque de collision : Si plusieurs appareils essaient de transmettre des données
en même temps, des collisions peuvent survenir, ce qui entraîne une perte de
données et des ralentissements.
 Panne unique : Si le bus central échoue, tout le réseau tombe en panne.
 Scalabilité limitée : Au fur et à mesure que le nombre d'appareils augmente, les
performances peuvent se dégrader.
La topologie en bus est de moins en moins utilisée aujourd'hui, car elle a été remplacée
par des topologies plus robustes et flexibles comme la topologie en étoile ou en anneau,
mais elle reste intéressante pour des réseaux simples et de petite taille.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


1.5.2. Topologie en étoile
Dans une topologie de réseau en étoile aussi appelé Hub and spoke, les équipements du
réseau sont reliés à un système matériel central (le nœud). Celui-ci a pour rôle d'assurer
la communication entre les différents équipements du réseau.

En pratique, l'équipement central peut être un concentrateur (en anglais hub, littéralement
"moyeu de roue"), un commutateur (en anglais switch) ou un routeur (en anglais router).

Le réseau Token ring utilise dans ses versions récentes une topologie en anneau au
niveau électrique, mais une topologie en étoile au niveau physique. Cette bizarrerie
s'explique en remarquant que des portions de l'anneau sont « pliées » pour former des fils
qui convergent vers un équipement central, le MAU (Multisession Access Unit). Les
réseaux se chevauchent l'un sur l'autre.
Les avantages :

 ajout facile de postes ;


 localisation facile des pannes ;
 le débranchement d'une connexion ne paralyse pas le reste du réseau ;
 simplicité éventuelle des équipements au niveau des nœuds : c'est le concentrateur
qui est intelligent.
Les inconvénients :

 plus onéreux qu'un réseau à topologie en bus (achat du concentrateur et d'autant de


câbles que de nœuds) ;
 si le concentrateur est défectueux, tout le réseau est en panne.
 utilisation de multiples routeur ou switch afin de pouvoir communiquer entre différents
réseaux ou ordinateur

Note de cours d’Architecture Réseaux Ir Marc BOPEY


1.5.3. TOPOLOGIE EN ANNEAU
La topologie en anneau est une configuration de réseau dans laquelle chaque appareil
est connecté à deux autres, formant ainsi un circuit fermé ou un "anneau". Dans cette
topologie, les données circulent de manière unidirectionnelle ou bidirectionnelle autour de
l'anneau jusqu'à ce qu'elles atteignent leur destination.
Principales caractéristiques de la topologie en anneau :
1. Connexion en boucle : Chaque appareil est connecté à deux autres, formant ainsi
un anneau. Cela signifie qu'il n'y a pas de point central unique comme dans la
topologie en étoile.
2. Transmission des données : Les données circulent dans une seule direction (ou
parfois dans les deux directions, selon le type de réseau) autour de l'anneau.
Lorsqu'un appareil envoie des données, celles-ci traversent chaque appareil
successivement jusqu'à atteindre la destination.
3. Accès contrôlé : Dans les réseaux à topologie en anneau, l'accès au réseau est
souvent géré par un protocole de passation de jeton, un petit paquet de données
qui permet de savoir quel appareil a la permission d'envoyer des données à un
instant donné.
4. Évolutivité limitée : Ajouter de nouveaux appareils au réseau peut être plus
compliqué par rapport à d'autres topologies, car cela nécessite de "casser" l'anneau
pour insérer le nouvel appareil.
Avantages :
1. Simplicité de gestion : Le flux de données étant ordonné, il est facile de contrôler
le réseau et de détecter les problèmes.
2. Pas de collisions : En raison de la manière dont les données sont envoyées, il n'y
a pas de risques de collisions entre les messages, contrairement à la topologie en
bus.
3. Performance stable : Tant que l'anneau fonctionne correctement, la performance
du réseau reste stable et prévisible.
Inconvénients :
1. Sensibilité aux pannes : Une seule panne dans le réseau (par exemple, une
déconnexion d'un appareil ou une défaillance de câble) peut interrompre le
fonctionnement de l'ensemble du réseau, car les données ne peuvent plus circuler.
2. Latence accrue : Lorsque le réseau grandit, les données doivent parcourir une
plus grande distance pour atteindre leur destination, ce qui peut entraîner un délai
plus long.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
3. Évolutivité complexe : Ajouter ou supprimer des appareils peut être difficile car
cela nécessite de "rompre" l'anneau et de le reconnecter correctement.
En résumé, la topologie en anneau peut être très efficace dans certains contextes, mais
elle présente des vulnérabilités en cas de pannes et devient moins pratique à grande
échelle ou dans des réseaux très dynamiques.

1.5.4. TOPOLOGIE EN MAILLAGE


La topologie en maillage est une configuration de réseau dans laquelle chaque appareil
est directement connecté à tous les autres appareils du réseau, formant ainsi un réseau
très interconnecté. Cela permet à chaque dispositif de communiquer directement avec
n'importe quel autre dispositif sans nécessiter de passer par un appareil central.
Principales caractéristiques de la topologie en maillage :
1. Connexions multiples : Chaque appareil est relié à tous les autres appareils du
réseau, soit de manière physique, soit via des connexions logiques.
2. Redondance : Étant donné que chaque appareil est connecté à tous les autres, le
réseau est très redondant. Si une connexion ou un appareil tombe en panne,
d'autres chemins existent pour acheminer les données.
3. Pas de point unique de défaillance : L'une des principales forces de la topologie
en maillage est qu'il n'y a pas de point central de défaillance. Si un appareil ou une
connexion tombe en panne, le réseau peut continuer de fonctionner en utilisant
d'autres chemins disponibles.
Avantages :
1. Haute fiabilité : En raison des multiples chemins disponibles pour les données, le
réseau est très résilient aux pannes. Si une connexion ou un appareil tombe en
panne, les données peuvent prendre un autre chemin.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


2. Pas de congestion du réseau : La topologie en maillage réduit les risques de
congestion, car chaque appareil dispose de plusieurs chemins pour envoyer et
recevoir des données.
3. Haute performance : En l'absence de points de défaillance et grâce à la
redondance, les performances globales du réseau sont souvent élevées.
Inconvénients :
1. Coût élevé : Mettre en place un réseau en maillage, surtout en maillage complet,
peut être très coûteux en termes de câblage et de matériel. Plus il y a de dispositifs
à connecter, plus le nombre de connexions nécessaires augmente de manière
exponentielle.
2. Complexité de gestion : La gestion et la maintenance du réseau peuvent devenir
complexes en raison du grand nombre de connexions et de la nécessité de gérer
de multiples chemins de données.
3. Utilisation inefficace de ressources : Dans un maillage complet, de nombreuses
connexions peuvent ne jamais être utilisées, ce qui représente une utilisation
inefficace des ressources matérielles et du câblage.
Applications de la topologie en maillage :
1. Réseaux de communication de haute disponibilité : Les réseaux utilisés pour
des applications critiques, comme les réseaux militaires, les réseaux bancaires ou
les réseaux de télécommunications, où la disponibilité et la résilience sont
primordiales, peuvent tirer parti de la topologie en maillage.
2. Internet : Bien que l'Internet n'utilise pas strictement une topologie en maillage
complet, il comporte une structure en maillage partiel, où les différents routeurs et
serveurs sont connectés de manière redondante pour garantir la fiabilité et la
performance.
Exemple :
Dans un réseau maillage complet à 4 appareils (A, B, C, D), chaque appareil est
directement connecté à tous les autres :
 A est connecté à B, C, et D.
 B est connecté à A, C, et D.
 C est connecté à A, B, et D.
 D est connecté à A, B, et C.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Cela donne une grande flexibilité et une faible probabilité de défaillance, mais le nombre
de connexions devient rapidement très élevé à mesure que le nombre de périphériques
augmente.
Conclusion :
La topologie en maillage est idéale pour les réseaux où la fiabilité, la redondance et la
performance sont essentielles, mais elle peut être trop coûteuse et complexe pour des
réseaux de grande taille avec de nombreux appareils. Dans de tels cas, un maillage partiel
peut offrir un compromis acceptable entre coûts et résilience.

1.5.5. TOPOLOGIE HYBRIDE


La topologie hybride est une combinaison de deux ou plusieurs topologies de réseau
différentes, créant ainsi un réseau qui bénéficie des avantages de chaque type de
topologie tout en compensant leurs inconvénients respectifs. Par exemple, un réseau
hybride pourrait combiner une topologie en étoile et une topologie en bus, ou une topologie
en arbre avec une topologie en anneau.
Principales caractéristiques de la topologie hybride :
1. Combinaison de topologies : Elle regroupe plusieurs types de topologies (par
exemple, en bus, en étoile, en anneau, en maillage, etc.), souvent adaptées aux
besoins spécifiques de différentes parties du réseau.
2. Flexibilité : Elle permet de tirer parti des avantages de chaque topologie en fonction
des exigences du réseau. Par exemple, dans une grande entreprise, une partie du
réseau pourrait utiliser une topologie en étoile pour les stations de travail, tandis
qu'une autre utilise une topologie en bus ou en maillage pour interconnecter les
différents bâtiments.
3. Adaptabilité : Elle peut être adaptée pour répondre à des besoins spécifiques en
termes de performance, de fiabilité et de coût.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Avantages :
1. Optimisation des coûts et des performances : La topologie hybride permet de
choisir les meilleures topologies pour chaque section du réseau, optimisant ainsi
les coûts tout en garantissant de bonnes performances.
2. Redondance et fiabilité : En combinant des topologies comme le maillage (qui offre
une grande redondance et résilience), avec d'autres plus simples comme l'étoile ou
le bus, le réseau peut être plus fiable.
3. Scalabilité : Une topologie hybride est plus facilement évolutive. Par exemple, de
nouveaux appareils ou sous-réseaux peuvent être ajoutés sans perturber
l'ensemble du système.
4. Adaptation aux besoins : Elle permet de concevoir un réseau qui répond
spécifiquement aux besoins d'une organisation, tout en utilisant une combinaison
de topologies qui convient le mieux aux différents environnements (par exemple,
des bureaux, des salles de serveurs, des connexions à distance).
Inconvénients :
1. Complexité de gestion : Gérer un réseau hybride peut être plus complexe que gérer
un réseau utilisant une seule topologie. Il faut prendre en compte différents types
de topologies, chacune avec ses propres règles et configurations.
2. Coût initial élevé : La mise en place d'une topologie hybride peut nécessiter un
investissement initial plus important, car elle implique la configuration de plusieurs
types de topologies et parfois l'achat de divers équipements pour chaque partie du
réseau.
3. Maintenance complexe : La maintenance du réseau peut devenir plus complexe et
nécessiter des compétences spécialisées, car il faudra comprendre les différentes
topologies utilisées dans le réseau hybride.
Exemple de réseaux hybrides :
1. Bureau avec plusieurs départements : Dans un bureau de grande taille, un
département pourrait être connecté via une topologie en étoile, chaque poste étant
relié à un commutateur central. Un autre département pourrait utiliser une topologie
en bus, reliant tous les postes de travail sur un câble principal. Entre les deux
départements, un réseau en maillage ou une topologie en arbre pourrait être utilisé
pour interconnecter les réseaux tout en assurant la redondance et la résilience.
2. Grand réseau d'entreprise : Un grand réseau pourrait utiliser une topologie en arbre
pour relier plusieurs bâtiments dans un campus, avec chaque bâtiment ayant sa
propre topologie en étoile pour les stations de travail et les serveurs. Cela permet

Note de cours d’Architecture Réseaux Ir Marc BOPEY


de maintenir un réseau centralisé tout en offrant des avantages locaux dans chaque
bâtiment.

Conclusion :
La topologie hybride est idéale pour des réseaux complexes nécessitant flexibilité, fiabilité
et scalabilité. Elle permet de combiner plusieurs topologies pour répondre aux besoins
spécifiques d'une organisation tout en réduisant les coûts dans les parties du réseau où
des topologies plus simples peuvent suffire. Toutefois, elle nécessite une gestion plus
soignée et peut entraîner des coûts plus élevés à la mise en place et à la maintenance.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Activités pédagogiques
1. Exercice pratique : "Dessinez un schéma de réseau pour une petite entreprise en
utilisant une topologie en étoile. Justifiez votre choix."
2. Étude de cas : "Quelle topologie serait la plus adaptée pour un réseau dans une
université ? Pourquoi ?"
3. Débat : "Quels sont les avantages et les inconvénients d'une topologie en maillage par
rapport à une topologie en étoile ?"

A RETENIR :
- Les topologies de réseaux définissent la structure physique ou logique d'un réseau.
- Chaque topologie a des avantages et des inconvénients spécifiques, adaptés à des
contextes différents.
- Le choix de la topologie dépend des besoins en termes de coût, de performance, de
fiabilité et de facilité de gestion.

Résumé du chapitre
 Les réseaux informatiques permettent de partager des ressources et de
communiquer.
 Ils ont évolué des premiers réseaux locaux à Internet et aux réseaux sans fil.
 Les types de réseaux (LAN, MAN, WAN, etc.) répondent à des besoins spécifiques.
 Les composants (routeurs, commutateurs, pare-feu) jouent des rôles clés.
 Les topologies (bus, étoile, anneau, maillage) ont des avantages et des
inconvénients.
 Les modes de communication (unicast, multicast, broadcast) sont adaptés à
différents usages.

Évaluation formative
- QCM sur les concepts clés du chapitre.
- Mini-projet : "Concevez un réseau pour une petite entreprise en utilisant les concepts
appris."

Note de cours d’Architecture Réseaux Ir Marc BOPEY


CHAPITRE 2 : MODELES DE REFERENCE ET NORMES
Objectif du chapitre
 Comprendre les modèles de référence OSI et TCP/IP.
 Identifier les rôles et fonctions de chaque couche dans ces modèles.
 Comparer les modèles OSI et TCP/IP.
 Connaître les organismes de standardisation et leur rôle dans la normalisation des
réseaux.
2.1. Le modèle OSI
Le modèle OSI est un cadre conceptuel qui définit comment les systèmes réseau
communiquent et envoient des données d'un expéditeur à un destinataire. Il est composé
de sept couches, chacune ayant des fonctions spécifiques qui permettent
l'interopérabilité entre différents systèmes et équipements réseau. Ce modèle aide les
fabricants à créer des appareils et des logiciels compatibles, facilitant ainsi la
communication entre produits de différents fournisseurs.
Ou encore, le modèle OSI (Open Systems Interconnection) est un modèle de référence
qui décrit comment les données sont transmises à travers un réseau. Il est divisé en 7
couches, chacune ayant des fonctions spécifiques.

Les 7 couches du modèle OSI


1. La couche physique (ou Physical Layer) est la première couche du modèle OSI, et
elle est chargée de la transmission des données brutes entre les dispositifs sur un réseau.
Cette couche définit les aspects matériels du réseau, comme les câbles, les cartes réseau,
les signaux électriques ou optiques, ainsi que les spécifications techniques permettant
d'envoyer des bits d'un appareil à un autre.
Fonction principale :
La fonction principale de la couche physique est de transformer les données numériques
(bits) en signaux physiques qui peuvent être envoyés à travers un média de transmission
(par exemple, un câble ou l'air dans le cas des communications sans fil). Elle est
responsable de la transmission et de la réception des bits (0 et 1) sous forme de signaux.
Caractéristiques de la couche physique :
1. Transmission des bits :
o Les données sont envoyées sous forme de bits (0 et 1). Ces bits sont
représentés par des signaux physiques, comme des impulsions électriques,
des ondes lumineuses ou des ondes radio.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


o La couche physique gère la conversion de ces bits en signaux analogiques
ou numériques qui sont envoyés sur le canal de transmission.
2. Média de transmission :
o Câbles physiques : La couche physique définit les types de câbles utilisés
pour la transmission des données. Cela peut être des câbles coaxiaux, des
câbles en cuivre (comme le câble Ethernet), des fibres optiques (utilisées
pour des communications rapides sur de longues distances), ou des
supports sans fil (ondes radio, micro-ondes, etc.).
o Média sans fil : Dans les réseaux sans fil, la couche physique gère les
signaux radio ou autres types d'ondes électromagnétiques.
3. Définition des paramètres physiques :
o Tension et fréquence des signaux électriques pour les connexions filaires.
o Fréquences radio pour les communications sans fil (Wi-Fi, Bluetooth, etc.).
o Longueur d'onde et modulation des signaux lumineux dans les systèmes à
fibre optique.
4. Synchronisation des signaux :
o La couche physique doit garantir que les signaux sont synchronisés entre
l'émetteur et le récepteur, afin que les bits arrivent dans le bon ordre et au
bon moment.
5. Topologie physique :
o Bien que la couche physique ne s'occupe pas de la topologie logique du
réseau (qui est gérée par des couches supérieures), elle joue un rôle dans
la topologie physique du réseau (par exemple, en étoile, en bus, ou en
maillage), déterminant comment les appareils sont physiquement
connectés.
Protocoles et technologies associés :
La couche physique ne définit généralement pas de protocoles complexes, mais elle est
liée aux normes physiques et aux technologies suivantes :
 Ethernet (pour les câbles en cuivre) : Utilisation de signaux électriques pour
transmettre des bits sur des câbles en cuivre.
 Wi-Fi (IEEE 802.11) : Pour les réseaux sans fil, où des ondes radio sont utilisées
pour transmettre des données.
 Bluetooth : Communication sans fil à courte portée, basée sur des ondes radio.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Fibre optique (IEEE 802.3z, 802.3ae) : Utilisation de lumière pour transmettre des
données à haute vitesse et sur de longues distances.
 DSL (Digital Subscriber Line) : Utilisation de lignes téléphoniques pour transmettre
des données à large bande.
 DSL, ADSL, VDSL : Protocoles pour la transmission de données sur des lignes
téléphoniques.
 USB (Universal Serial Bus) : Technologie de connexion pour les périphériques
utilisant un câble pour transmettre des données.
 RS-232 : Un ancien standard pour la transmission de données sur des ports série.
Exemples de matériel à la couche physique :
 Câbles et connecteurs : Câbles Ethernet (RJ45), câbles coaxiaux, câbles en fibre
optique.
 Cartes réseau (NIC) : Cartes Ethernet, cartes Wi-Fi, adaptateurs USB.
 Équipements de transmission : Modems, hubs, répéteurs, commutateurs
(switches) qui fonctionnent principalement au niveau de la couche physique (bien
que les commutateurs opèrent également dans des couches supérieures).
 Antennes : Pour les communications sans fil (Wi-Fi, Bluetooth).
Rôle de la couche physique :
 Elle assure l'interface physique entre les équipements réseau, en garantissant
l'acheminement des données sous forme de signaux physiques.
 Elle s'assure de la conversion des données numériques en signaux physiques et
inversement.
 Elle gère les données brutes sous forme de bits, sans aucune compréhension des
données qu'elles transportent.
La couche physique est fondamentale pour la communication sur un réseau, car elle
permet de transporter les données sous forme de signaux sur différents supports de
transmission. Bien qu’elle ne se préoccupe pas du contenu des données, elle joue un rôle
essentiel dans la fiabilité et la vitesse des communications réseau, notamment en
garantissant que les signaux sont correctement envoyés, reçus et convertis entre les
différents appareils.
2. La couche de liaison de données (ou Data Link Layer) est la deuxième couche du
modèle OSI. Elle est responsable de la transmission fiable des données entre deux
appareils connectés directement sur un réseau physique, et elle prépare les données pour
leur transfert en ajoutant des informations de contrôle et de synchronisation. La couche de
Note de cours d’Architecture Réseaux Ir Marc BOPEY
liaison de données garantit que les données qui traversent le réseau physique sont
envoyées et reçues sans erreur et qu'elles peuvent être correctement identifiées.
Fonction principale de la couche de liaison de données :
La principale fonction de la couche de liaison de données est de transférer les données
sous forme de trames entre des nœuds réseau directement connectés, et d’assurer la
fiabilité et la gestion des erreurs pendant cette transmission. Elle prend les bits bruts
envoyés par la couche physique et les organise en trames, ajoutant des informations de
contrôle.
Rôles spécifiques de la couche de liaison de données :
1. Encapsulation des données :
o La couche de liaison de données prend les paquets provenant de la couche
réseau et les encapsule dans des trames. Ces trames contiennent non
seulement les données, mais aussi des informations de contrôle, comme
des adresses de liaisons (adresses MAC), des informations de contrôle
d’erreur, des informations de séquencement, etc.
2. Contrôle d'erreurs :
o La couche de liaison de données effectue un contrôle d'erreur pour s'assurer
que les données transmises sont correctes. Elle peut utiliser des méthodes
comme le CRC (Cyclic Redundancy Check) ou des sommes de contrôle
pour détecter les erreurs dans les trames.
o Si une erreur est détectée, la trame peut être renvoyée ou un mécanisme
de retransmission est utilisé.
3. Contrôle de flux :
o Cette couche régule la quantité de données envoyées entre deux nœuds
afin d'éviter la congestion. Par exemple, elle peut utiliser des mécanismes
de fenêtre glissante pour contrôler le nombre de trames envoyées à la fois.
4. Accès au média :
o La couche de liaison de données gère l'accès au média de transmission
pour éviter les conflits lorsque plusieurs appareils essaient de transmettre
des données en même temps. Ce rôle est géré par des protocoles d'accès
au média, comme CSMA/CD (Carrier Sense Multiple Access with Collision
Detection) dans Ethernet.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


5. Adresses physiques :
o Chaque appareil sur le réseau possède une adresse MAC (Media Access
Control), un identifiant unique au niveau de la couche de liaison de données.
La couche utilise ces adresses pour identifier de manière unique les
périphériques et diriger les trames vers leur destination correcte.
Sous-couches de la couche de liaison de données :
La couche de liaison de données est souvent divisée en deux sous-couches :
1. Sous-couche de contrôle de liaison logique (LLC - Logical Link Control) :
o Elle gère les interfaces avec la couche réseau (couche 3) et permet de
rendre le protocole indépendant du type de média sous-jacent. La sous-
couche LLC prend en charge des tâches comme la gestion des erreurs, la
segmentation, et le contrôle de flux.
2. Sous-couche de contrôle d'accès au média (MAC - Media Access Control) :
o Elle est responsable de la gestion des accès au média de transmission (par
exemple, comment les appareils décident qui peut émettre des données à
un moment donné). Le protocole MAC définit comment l'appareil obtient
l'autorisation de transmettre des données sur un support de communication
partagé. Il s'agit de la gestion des conflits et des mécanismes de
synchronisation.
Protocoles associés à la couche de liaison de données :
Voici quelques protocoles qui fonctionnent à la couche de liaison de données :
 Ethernet : Utilise le protocole MAC pour la gestion de l'accès au média et les
adresses MAC pour l'identification des appareils.
 Wi-Fi (IEEE 802.11) : Gère la communication sans fil en utilisant des protocoles de
la couche de liaison de données, notamment la gestion de l'accès au canal et des
adresses MAC.
 PPP (Point-to-Point Protocol) : Utilisé dans les connexions point à point, comme
dans les lignes téléphoniques ou les connexions DSL.
 Frame Relay : Un protocole de communication utilisé dans les réseaux de données
WAN (Wide Area Network) pour la transmission de données entre différents
nœuds.
 HDLC (High-Level Data Link Control) : Utilisé pour établir des connexions et
effectuer des transmissions de données sur des lignes point à point ou multipoint.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Exemple de fonctionnement :
Supposons que vous envoyiez un e-mail. Voici comment la couche de liaison de données
intervient :
1. L'e-mail est envoyé à la couche application qui le prépare.
2. L'e-mail est ensuite passé à la couche de transport, où il est segmenté en petites
unités.
3. Ces segments sont envoyés à la couche réseau, qui les encapsule dans des
paquets et les adresse.
4. Ensuite, la couche de liaison de données prend les paquets, les encapsule dans
des trames, ajoute des informations de contrôle (comme les adresses MAC) et les
envoie sur le réseau physique à destination de l'appareil cible.
5. Si les trames sont corrompues ou perdues, la couche de liaison de données pourra
détecter l'erreur et demander la retransmission des trames.
Exemples de matériel et technologies associés :
 Cartes réseau (NIC) : Ces cartes traitent la couche de liaison de données pour
envoyer et recevoir des trames sur un réseau local.
 Switches (commutateurs) : Ils fonctionnent au niveau de la couche de liaison de
données pour diriger les trames en utilisant les adresses MAC.
 Ponts (Bridges) : Ces dispositifs peuvent connecter plusieurs segments de réseau
au niveau de la couche de liaison de données et prendre des décisions sur le
routage des trames en fonction des adresses MAC.
Conclusion :
La couche de liaison de données est essentielle pour garantir une communication fiable
et ordonnée entre les appareils connectés à un réseau. Elle s'occupe de l'encapsulation
des données, du contrôle des erreurs, de la gestion du flux et de l'accès au média. Bien
que cette couche soit transparente pour l'utilisateur final, elle joue un rôle crucial pour
assurer une communication efficace et fiable sur le réseau.
3. La couche réseau (ou Network Layer) est la troisième couche du modèle OSI, et elle
est responsable du routage des données à travers le réseau, ainsi que de l'adressage
logique des appareils. Elle assure la communication entre les différents réseaux et garantit
que les données arrivent à leur destination, même si elles doivent traverser plusieurs
réseaux intermédiaires.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Fonction principale de la couche réseau :
La fonction principale de la couche réseau est de déterminer le meilleur chemin pour
acheminer les données entre l'origine et la destination, ce qui est appelé le routage. Elle
est aussi responsable de l'adressage logique et de la fragmentation des données si
nécessaire.
Rôles spécifiques de la couche réseau :
1. Routage (Routing) :
o La couche réseau décide du chemin que les données doivent emprunter
pour arriver à destination. Cela inclut la détermination du meilleur itinéraire
à travers un réseau ou plusieurs réseaux, souvent en fonction de la
topologie du réseau, de la congestion, et d'autres critères.
o Le routage se fait généralement à l'aide de protocoles de routage tels que
RIP (Routing Information Protocol), OSPF (Open Shortest Path First), ou
BGP (Border Gateway Protocol).
2. Adressage logique :
o La couche réseau attribue des adresses logiques aux appareils sur un
réseau. Ces adresses sont généralement appelées adresses IP (Internet
Protocol). Chaque appareil connecté à un réseau possède une adresse IP
unique, qui permet aux autres appareils de le localiser et de lui envoyer des
données.
o Contrairement aux adresses MAC utilisées par la couche de liaison de
données (qui sont des identifiants physiques), les adresses IP sont des
identifiants logiques utilisés pour le routage des données à travers différents
réseaux.
3. Fragmentation et réassemblage :
o Si un paquet de données est trop grand pour être envoyé à travers un
réseau spécifique (par exemple, un réseau Ethernet a une taille maximale
de paquet), la couche réseau peut fragmenter ce paquet en plusieurs plus
petits et les envoyer séparément.
o À destination, la couche réseau réassemble les fragments pour reconstruire
le paquet original.
4. Contrôle de la qualité de service (QoS) :
o La couche réseau peut également être impliquée dans le contrôle de la
qualité de service (QoS), c'est-à-dire la gestion du trafic réseau pour
garantir que certains types de données (comme la voix ou la vidéo en temps
Note de cours d’Architecture Réseaux Ir Marc BOPEY
réel) reçoivent la priorité en termes de bande passante, de latence et de
fiabilité.
Protocoles associés à la couche réseau :
Voici quelques protocoles et technologies qui fonctionnent au niveau de la couche réseau
:
1. IP (Internet Protocol) :
o Le protocole IP est le principal protocole utilisé pour l'adressage et le
routage des données sur Internet. Il existe en deux versions :
 IPv4 : La version la plus utilisée, avec une adresse de 32 bits (ex. :
[Link]).
 IPv6 : La version plus récente avec des adresses de 128 bits, offrant
un nombre beaucoup plus grand d'adresses uniques (ex. :
[Link]).
2. ICMP (Internet Control Message Protocol) :
o Utilisé pour envoyer des messages d'erreur et de diagnostic dans un réseau
IP, comme ping et traceroute.
3. ARP (Address Resolution Protocol) :
o ARP est utilisé pour associer une adresse IP à une adresse MAC physique
dans un réseau local (LAN). Il fonctionne pour résoudre les adresses IP en
adresses MAC.
4. Routage statique et dynamique :
o Routage statique : Les itinéraires sont définis manuellement par
l'administrateur réseau.
o Routage dynamique : Les routeurs échangent des informations de routage
via des protocoles de routage (comme RIP, OSPF ou BGP) pour déterminer
automatiquement les meilleurs chemins.
5. NAT (Network Address Translation) :
o Le NAT permet de mapper plusieurs adresses IP privées utilisées à
l'intérieur d'un réseau local vers une seule adresse IP publique, permettant
ainsi à plusieurs appareils internes de partager une seule connexion
Internet.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Exemple de fonctionnement de la couche réseau :
Prenons l'exemple d'un envoi de données entre deux ordinateurs, l'un à Paris et l'autre à
New York :
1. Appareil A à Paris souhaite envoyer un paquet de données à Appareil B à New
York. L'application (comme un navigateur web) prépare les données.
2. La couche transport (par exemple, TCP) segmente les données et les transmet à
la couche réseau.
3. La couche réseau ajoute l'adresse IP de Appareil A comme source et celle de
Appareil B comme destination.
4. Ensuite, la couche réseau choisit un chemin pour acheminer le paquet à travers le
réseau, peut-être en traversant plusieurs routeurs et réseaux intermédiaires.
5. Si nécessaire, la couche réseau fragmentera les paquets pour les adapter aux
limites des réseaux qu'ils traversent.
6. Le paquet arrivera finalement à un routeur proche de Appareil B et sera transmis
à l'ordinateur de destination en fonction de l'adresse IP de destination.
Matériel associé à la couche réseau :
 Routeurs : Les routeurs fonctionnent principalement à la couche réseau. Ils sont
responsables de déterminer le meilleur chemin pour acheminer les paquets entre
différents réseaux, en utilisant des informations de routage.
 Gateways (Passerelles) : Elles permettent de connecter des réseaux utilisant des
protocoles différents, et elles peuvent également fonctionner au niveau de la
couche réseau pour faire la traduction entre ces protocoles.
La couche réseau est essentielle pour garantir que les données arrivent à bon port, même
lorsqu'elles traversent plusieurs réseaux différents. Elle est responsable du routage, de
l'adressage logique, de la fragmentation et du réassemblage des paquets. Sans la couche
réseau, il serait impossible de communiquer à travers Internet ou même entre différents
réseaux locaux. La gestion efficace de cette couche est cruciale pour la performance, la
sécurité et la fiabilité des réseaux modernes.
4. LA COUCHE TRANSPORT (ou Transport Layer) est la quatrième couche du modèle
OSI. Elle joue un rôle clé dans la gestion de la communication entre deux hôtes (appareils)
sur un réseau. Sa principale responsabilité est d'assurer un transfert fiable des données
entre les systèmes de bout en bout, c'est-à-dire de la machine source à la machine
destination. La couche transport garantit que les données arrivent de manière ordonnée,
complète et correcte, en contrôlant des aspects comme la fiabilité, la segmentation des
données et le contrôle de flux.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Fonction principale de la couche transport :
La couche transport est responsable de la transmission fiable des données entre les
applications sur deux hôtes différents. Elle s'assure que les données envoyées depuis la
source arrivent correctement et dans le bon ordre à la destination, et elle permet la
communication de bout en bout entre les applications via des ports.
Rôles spécifiques de la couche transport :
1. Segmentation et réassemblage :
o Lorsque des données sont envoyées par l'application (comme une requête
HTTP ou un message e-mail), elles sont souvent trop grandes pour être
envoyées en une seule fois sur le réseau. La couche transport découpe ces
données en segments plus petits.
o De même, à la destination, la couche transport réassemble ces segments
pour recréer le message original avant de le transmettre à l'application.
2. Contrôle de la fiabilité (Contrôle d'erreurs et retransmission) :
o La couche transport assure la fiabilité de la communication en vérifiant que
les données arrivent sans erreurs. Si un segment est perdu ou corrompu en
cours de route, il est renvoyé (réémission des segments manquants).
o Elle inclut également des mécanismes de contrôle des erreurs, comme des
sommes de contrôle ou des vérifications de redondance cyclique (CRC),
pour s'assurer de l'intégrité des données.
3. Contrôle de flux :
o Le contrôle de flux permet de réguler la quantité de données envoyées
entre les hôtes pour éviter la congestion du réseau et la surcharge du
récepteur. Cela évite que le récepteur soit submergé par un trop grand
volume de données.
o Des mécanismes comme la fenêtre glissante sont utilisés pour assurer que
le récepteur peut gérer le nombre de segments qu'il reçoit.
4. Contrôle de congestion :
o La couche transport peut également inclure des mécanismes pour éviter la
congestion du réseau, en régulant la vitesse d'envoi des données lorsque
le réseau devient trop encombré. Cela est essentiel pour maintenir une
transmission efficace même dans des conditions de trafic intense.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


5. Multiplexage/démultiplexage :
o La couche transport permet de gérer plusieurs communications simultanées
entre des applications différentes sur un même appareil en utilisant des
numéros de port.
o Elle s'assure que chaque segment de données envoyé appartient à la bonne
application en utilisant des ports spécifiques (par exemple, le port 80 pour
HTTP, le port 25 pour SMTP).
6. Communication de bout en bout :
o Contrairement aux couches inférieures qui se concentrent sur la
transmission de données entre des dispositifs réseau intermédiaires, la
couche transport assure une communication de bout en bout, c'est-à-dire
entre l'application source et l'application destination, en garantissant que les
données parviennent à la bonne application.
Protocoles associés à la couche transport :
Il existe principalement deux protocoles utilisés dans cette couche pour gérer la
transmission des données :
1. TCP (Transmission Control Protocol) :
o Fiable : TCP garantit la livraison correcte et dans le bon ordre des données.
Si un segment est perdu ou corrompu, il est retransmis.
o Contrôle de congestion et de flux : TCP ajuste la vitesse de transmission
en fonction de l'état du réseau et des capacités du récepteur.
o Connexion orientée : TCP nécessite une établissement de connexion
entre les hôtes avant d'envoyer des données. Cela se fait par un mécanisme
appelé handshake (serrement de main).
o Exemple d'utilisation : Protocoles comme HTTP, FTP, SMTP utilisent
TCP, car il est essentiel pour des communications fiables.
2. UDP (User Datagram Protocol) :
o Non fiable : Contrairement à TCP, UDP n'assure pas la retransmission des
paquets perdus ni le contrôle de l'ordre des paquets. Il s'agit d'un protocole
plus rapide, mais sans garantie de livraison ou d'ordre.
o Pas de connexion : UDP est un protocole sans connexion, ce qui signifie
qu'il n'y a pas d'étape d'initialisation avant l'envoi des données.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


o Contrôle de flux et de congestion limité : UDP ne gère pas la congestion
ni le flux, ce qui peut être avantageux pour des applications sensibles à la
latence (par exemple, la vidéo en temps réel ou la voix sur IP).
o Exemple d'utilisation : Protocoles comme DNS, DHCP, VoIP, et le
streaming en temps réel utilisent UDP, car la rapidité prime sur la fiabilité.
Exemple de fonctionnement de la couche transport :
Imaginons qu'un utilisateur à Paris envoie un e-mail à un destinataire à New York. Voici
comment la couche transport intervient :
1. L'utilisateur rédige un e-mail via une application (par exemple, un client de
messagerie).
2. Les données de l'e-mail sont envoyées à la couche transport, où elles sont
segmentées si elles sont trop grandes.
3. Si TCP est utilisé, un handshake (établissement de la connexion) est effectué entre
l'appareil de l'utilisateur à Paris et le serveur de messagerie à New York. La couche
transport garantit que chaque segment de données arrive dans le bon ordre et sans
erreur.
4. Si un segment est perdu ou corrompu en cours de route, la couche transport
demande une retransmission des segments manquants.
5. Une fois tous les segments reçus à destination, la couche transport les réassemble
pour reconstruire l'e-mail et le transmettre à la couche application, qui l'envoie au
serveur de messagerie.
6. Si UDP est utilisé (par exemple pour une vidéo en streaming en temps réel), les
segments sont envoyés sans établissement de connexion préalable, et même si
des paquets sont perdus, la vidéo continue de jouer sans interruption.
Matériel et technologies associés à la couche transport :
 Serveurs et clients d'applications : Les serveurs web, les serveurs de
messagerie, et les clients qui envoient des demandes HTTP, SMTP ou FTP
communiquent via la couche transport.
 Firewalls et contrôles de sécurité : Les firewalls peuvent filtrer les connexions
au niveau de la couche transport, en se basant sur les ports utilisés pour les
applications.
 Load balancers : Ils distribuent le trafic entrant entre plusieurs serveurs en fonction
de l'utilisation des ports ou du protocole.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


La couche transport est cruciale pour garantir la transmission correcte et fiable des
données entre les applications, en s'assurant que les données arrivent en ordre, sans
erreur et sans congestion. Elle offre deux types de service principaux : fiable (via TCP) et
rapide mais sans garantie (via UDP). En régulant la segmentation, le contrôle de flux, la
retransmission, et le multiplexage, cette couche permet une communication de bout en
bout stable et efficace.
5. LA COUCHE SESSION (ou Session Layer) est la cinquième couche du modèle OSI.
Elle est responsable de l'établissement, de la gestion et de la terminaison des sessions de
communication entre les applications sur deux hôtes distants. Une session est une
connexion persistante et active qui permet à deux applications d'échanger des données
de manière ordonnée et contrôlée pendant une certaine période.
Fonction principale de la couche session :
La fonction principale de la couche session est de gérer les sessions de communication
entre les applications. Elle s'assure que les applications peuvent échanger des données
de manière organisée et fluide, tout en offrant des mécanismes pour contrôler l’ouverture,
la gestion et la fermeture de ces sessions.
Rôles spécifiques de la couche session :
1. Établissement, gestion et terminaison de la session :
o La couche session gère la création, le contrôle et la fin de la session entre
deux applications. Cela inclut la négociation d’une session et l’établissement
des règles de communication entre les deux systèmes.
o Elle garantit que la session reste active pendant le transfert de données et
que celle-ci est correctement terminée une fois l'échange de données
terminé.
2. Synchronisation des échanges de données :
o La couche session permet de synchroniser les communications entre les
applications. Par exemple, elle peut insérer des points de contrôle
(checkpoints) dans le flux de données pour faciliter la reprise de la
communication en cas de panne ou de coupure.
o En cas d'interruption de la communication (par exemple, une panne de
réseau), la session peut être reprise à partir du dernier point de contrôle,
évitant ainsi de retransmettre toutes les données précédentes.
3. Contrôle de dialogue :
o La couche session gère également le contrôle du dialogue entre les
applications, en déterminant qui peut transmettre les données à quel

Note de cours d’Architecture Réseaux Ir Marc BOPEY


moment. Ce contrôle permet de décider si la communication est duplex (les
deux parties peuvent envoyer et recevoir en même temps) ou simplex (un
seul côté transmet à la fois).
4. Gestion de l’ordre des messages :
o La couche session peut aussi organiser les messages pour qu'ils arrivent
dans le bon ordre et pour éviter toute confusion. Elle peut être utilisée pour
établir un ordre de transmission des messages en fonction de la priorité des
applications, de manière à garantir que les messages critiques soient traités
en premier.
Exemples de protocoles associés à la couche session :
Bien que de nombreux protocoles modernes ne mettent pas directement en œuvre la
couche session du modèle OSI, certains protocoles et mécanismes utilisent ses principes
ou sont parfois associés à cette couche.
1. NetBIOS (Network Basic Input/Output System) :
o Un protocole utilisé principalement dans les réseaux Windows. Il permet la
communication entre applications sur des réseaux locaux, en gérant les
sessions de manière simplifiée.
2. RPC (Remote Procedure Call) :
o Le protocole RPC permet à une application sur un système d'invoquer une
fonction sur un autre système, à distance. Le RPC gère le début et la fin de
la session, ainsi que la transmission des données nécessaires à l'exécution
de la fonction à distance.
3. SAP (Session Announcement Protocol) :
o Utilisé dans le cadre de la gestion des sessions multimédia, en particulier
dans le streaming audio et vidéo. SAP annonce la disponibilité de sessions
multimédia aux clients et facilite la gestion de ces sessions.
4. SQL (Structured Query Language) dans les bases de données :
o Certaines bases de données utilisent des mécanismes de gestion de
session pour maintenir l'état de la connexion entre un client et un serveur
pendant qu'ils échangent des requêtes.
Exemple de fonctionnement de la couche session :
Supposons qu'un utilisateur se connecte à une application de vidéoconférence pour
participer à une réunion. Voici comment la couche session intervient :

Note de cours d’Architecture Réseaux Ir Marc BOPEY


1. Lorsqu’un utilisateur rejoint la réunion, la couche session établit une session de
communication entre l'appareil de l'utilisateur et le serveur de la vidéoconférence.
Elle négocie les règles de communication et les protocoles de synchronisation.
2. Pendant la réunion, la couche session gère la session, en permettant aux
participants de discuter en temps réel, d'échanger des vidéos et des messages.
3. Si la connexion est interrompue (par exemple, en raison d'une perte de réseau), la
couche session peut enregistrer un point de contrôle pour que la session puisse
reprendre à partir de cet endroit une fois que la connexion est rétablie, sans devoir
recommencer l'ensemble de la communication.
4. Lorsque la réunion se termine, la couche session termine proprement la session
en fermant la communication.
Matériel et technologies associés à la couche session :
Bien que cette couche soit généralement abstraite et que les protocoles modernes ne
l'implémentent pas explicitement comme une couche distincte, plusieurs technologies qui
gèrent des sessions peuvent être associées à des solutions réseau ou à des applications
réseau :
 Serveurs d'applications : Par exemple, les serveurs web ou les serveurs de bases
de données peuvent gérer des sessions pour maintenir la connexion entre un client
et un serveur.
 Firewalls et systèmes de sécurité : Les pare-feux peuvent gérer les sessions en
vérifiant l'intégrité des connexions et en maintenant une table des sessions actives
pour décider si les paquets entrants ou sortants peuvent être autorisés.
 Protocoles de communication en temps réel : Les technologies de
vidéoconférence, de téléphonie IP (comme VoIP) et de jeux en ligne peuvent gérer
des sessions pour permettre une communication continue et ordonnée.
La couche session est essentielle pour gérer la durée, la synchronisation et l'organisation
des communications entre deux applications. Bien que la plupart des protocoles
modernes, comme HTTP ou FTP, n'implémentent pas directement cette couche, de
nombreux aspects de la gestion des sessions sont toujours utilisés dans les applications
réseau, en particulier pour des services de communication en temps réel, des bases de
données, et d'autres types de communication qui nécessitent des sessions continues et
contrôlées. La couche session garantit donc que les échanges d'informations sont
ordonnés, synchronisés et peuvent être récupérés après des interruptions.
6. LA COUCHE PRESENTATION (ou Presentation Layer) est la sixième couche du
modèle OSI. Elle est responsable de la représentation, de la transformation et de la
codification des données afin qu'elles puissent être comprises par les applications à

Note de cours d’Architecture Réseaux Ir Marc BOPEY


chaque extrémité de la communication. Cette couche se situe entre la couche session et
la couche application, et son rôle principal est d'assurer que les données envoyées et
reçues entre les applications sont dans un format compréhensible pour les deux parties.
Fonction principale de la couche présentation :
La fonction principale de la couche présentation est de gérer la syntaxe des données
échangées entre les applications. Elle transforme les données du format utilisé par
l'application sur un hôte en un format standardisé pour le transfert sur le réseau, puis
effectue la transformation inverse sur l'autre hôte.
Rôles spécifiques de la couche présentation :
1. Formatage des données (Data Formatting) :
o La couche présentation prend les données provenant de l'application et les
convertit dans un format standard ou universel qui peut être compris par
d'autres systèmes ou applications.
o Par exemple, elle peut transformer des données texte en un format
spécifique (comme ASCII ou Unicode) ou des données numériques en un
autre format utilisé par la plateforme cible (comme un format big-endian ou
little-endian).
2. Codage des données :
o Elle effectue le codage et le décodage des données. Cela inclut la
transformation de certains types de données pour s'assurer qu'elles peuvent
être envoyées sur un réseau, comme le codage des caractères spéciaux,
des fichiers multimédia (images, vidéos) ou des données structurées
(par exemple les fichiers XML ou JSON).
o Elle peut également convertir des données dans un format compressé pour
réduire la quantité de données envoyées sur le réseau.
3. Compression des données :
o La couche présentation peut appliquer des techniques de compression
pour réduire la taille des données à envoyer. Cela permet de gagner en
bande passante et de réduire le temps de transmission des données sur le
réseau.
o Par exemple, dans le cas de la transmission de fichiers multimédia (comme
des vidéos ou des images), la couche présentation peut appliquer des
algorithmes de compression comme JPEG pour les images ou MP3 pour
les fichiers audio.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


4. Cryptage des données :
o La couche présentation peut également gérer la sécurisation des données
en les cryptant avant leur envoi, et les décryptant à la réception. Cela
garantit la confidentialité et la sécurité des informations échangées entre les
hôtes.
o Par exemple, lors d'une transaction bancaire en ligne, la couche
présentation peut appliquer un protocole de cryptage comme SSL/TLS pour
sécuriser les données sensibles.
5. Interopérabilité entre différents systèmes :
o La couche présentation permet à des systèmes utilisant des formats de
données différents (par exemple, entre un système Windows et un système
Linux) de communiquer entre eux en assurant que les formats des données
sont convertis de manière appropriée pour chaque plateforme.
Exemples de protocoles et formats associés à la couche présentation :
La couche présentation utilise divers formats de données et protocoles pour effectuer ces
transformations, en fonction des besoins de l'application. Voici quelques exemples :
1. Formats de codage des caractères :
o ASCII (American Standard Code for Information Interchange) : Un standard
de codage de caractères très utilisé dans les premiers systèmes
informatiques.
o Unicode : Un système de codage plus moderne qui permet de représenter
une plus grande variété de caractères provenant de différentes langues et
symboles, assurant ainsi l'internationalisation des applications.
2. Compression des données :
o JPEG (Joint Photographic Experts Group) : Utilisé pour la compression des
images.
o MP3 : Un format de compression des fichiers audio.
o ZIP : Un format de compression de fichiers utilisé pour réduire la taille des
fichiers avant leur transfert.
3. Cryptage des données :
o SSL/TLS (Secure Sockets Layer / Transport Layer Security) : Protocoles de
sécurité utilisés pour crypter les données échangées entre un client et un
serveur, comme dans les transactions HTTPS.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


4. Formats de données structurées :
o XML (eXtensible Markup Language) et JSON (JavaScript Object Notation)
: Formats utilisés pour structurer les données dans des formats lisibles par
des humains et facilement manipulables par des machines, par exemple
dans les API web ou le transfert de données entre applications.
5. Protocole XDR (External Data Representation) :
o XDR est un protocole standard qui permet de représenter de manière
indépendante des systèmes différents (par exemple, des systèmes utilisant
des architectures matérielles et logicielles variées) des données structurées
pour faciliter leur échange.
Exemple de fonctionnement de la couche présentation :
Prenons un exemple d'un utilisateur qui envoie une image à travers une application de
messagerie instantanée. Voici comment la couche présentation intervient :
1. Formatage et compression : L'image est dans un format natif (par exemple un
fichier PNG). La couche présentation de l'application va compresser l'image pour
réduire sa taille et la convertir dans un format plus adapté pour le transfert sur le
réseau (par exemple JPEG).
2. Codage de l'image : La couche présentation peut également appliquer un codage
pour garantir que l'image est envoyée dans un format compatible avec le réseau,
comme en encodant les données binaires de l'image en base64 si nécessaire.
3. Cryptage : Si la transmission est sécurisée, la couche présentation peut crypter
l'image avant de l'envoyer à travers le réseau, en utilisant un algorithme comme
AES pour garantir que personne ne puisse la lire à part le destinataire.
4. Transmission : Une fois l'image formatée, compressée et cryptée, elle est envoyée
à travers le réseau, où elle sera reçue par l'autre utilisateur.
5. Décodage et décompression : À la réception, la couche présentation du récepteur
décrypte l'image, décompresse le fichier et décodera l'image pour la convertir
dans un format compréhensible et visualisable pour l'utilisateur.
Matériel et technologies associés à la couche présentation :
Bien que la couche présentation soit principalement logicielle, elle peut interagir avec des
technologies et des outils qui assurent la conversion des données au niveau matériel et
logiciel. Par exemple :
 Serveurs web : Les serveurs qui hébergent des sites web utilisent des
technologies de compression (par exemple, gzip) et de cryptage (par exemple,

Note de cours d’Architecture Réseaux Ir Marc BOPEY


SSL/TLS) pour optimiser le transfert des données et sécuriser la communication
avec les clients.
 Appareils multimédia : Les applications de diffusion de contenu multimédia,
comme le streaming vidéo, utilisent des codecs et des algorithmes de compression
pour réduire la taille des vidéos et faciliter leur diffusion.
 Applications mobiles et de messagerie : Les applications de messagerie utilisent
des formats d'encodage (comme Base64 pour les images) et des mécanismes de
cryptage pour protéger les données transmises.
La couche présentation joue un rôle crucial dans le traitement des données échangées
entre les applications, en assurant leur transformation, leur compression, leur codage et
leur cryptage. Elle permet d’assurer que les données sont envoyées dans un format
compréhensible et compatible pour toutes les parties impliquées dans la communication.
Cette couche est particulièrement importante pour les applications qui échangent des
informations complexes, comme les images, les vidéos, et les fichiers sensibles
nécessitant un cryptage. Elle facilite ainsi l’interopérabilité entre des systèmes ayant des
formats de données différents et garantit la sécurité des échanges sur le réseau.
7. LA COUCHE APPLICATION (ou Application Layer) est la septième et dernière
couche du modèle OSI. C'est la couche la plus proche de l'utilisateur, et elle permet à
l'utilisateur d'interagir directement avec les applications réseau. Elle fournit des services
et des interfaces qui permettent aux applications de communiquer avec d'autres
applications via le réseau. Cette couche ne se préoccupe pas de la gestion des données
et de leur transfert sur le réseau en tant que tel, mais elle gère la communication et les
services nécessaires pour permettre l'interaction des utilisateurs avec les systèmes
distants.
Fonction principale de la couche application :
La fonction principale de la couche application est de fournir un environnement dans lequel
les applications peuvent communiquer entre elles à travers le réseau. Elle fournit des
services tels que la messagerie, le partage de fichiers, l'accès aux bases de données et
la navigation sur le web, tout en étant transparente pour l'utilisateur.
Rôles spécifiques de la couche application :
1. Fournir des services réseau aux utilisateurs :
o Cette couche permet aux utilisateurs d'interagir avec des services réseau
tels que l'envoi de courriels, la navigation sur Internet, le transfert de fichiers
ou l'accès à des bases de données.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


o Les applications comme les navigateurs web, clients de messagerie, et
logiciels de transfert de fichiers dépendent de cette couche pour
fonctionner.
2. Communication entre applications :
o Elle définit les protocoles permettant à deux applications situées sur des
hôtes différents d'échanger des données. Les applications n'ont pas besoin
de se préoccuper des détails sous-jacents du réseau (gestion des paquets,
adresses IP, etc.), car la couche application fournit des protocoles de
communication spécifiques.
3. Interface utilisateur :
o L'interface graphique ou l'interface utilisateur d'une application est
connectée à cette couche, qui permet à l'utilisateur de communiquer avec
d'autres utilisateurs ou systèmes via des services réseau.
4. Services de support pour l'échange de données :
o Elle propose des services comme l'authentification, le contrôle d'accès,
la compression et le cryptage des données pour garantir la sécurité et
l'intégrité des échanges.
5. Contrôle des erreurs et des flux pour les applications :
o Bien que la couche transport et d'autres couches assurent une transmission
fiable des données, la couche application peut également être responsable
de vérifier l'intégrité et la validité des données dans certaines applications
spécifiques (par exemple, la gestion des erreurs de requêtes HTTP ou des
erreurs dans les messages électroniques).
Exemples de protocoles associés à la couche application :
Les protocoles de la couche application définissent comment les applications
communiquent sur le réseau. Voici quelques exemples de protocoles populaires :
1. HTTP (HyperText Transfer Protocol) :
o Utilisé pour la communication entre un navigateur web et un serveur web.
HTTP est le fondement de la navigation web et permet la récupération des
pages web depuis un serveur.
2. FTP (File Transfer Protocol) :
o Utilisé pour le transfert de fichiers entre un client et un serveur. FTP
permet de transférer des fichiers entre ordinateurs via un réseau.
3. SMTP (Simple Mail Transfer Protocol) :
Note de cours d’Architecture Réseaux Ir Marc BOPEY
o Utilisé pour l'envoi de courriels entre serveurs de messagerie. SMTP
permet de transférer des messages électroniques.
4. IMAP (Internet Message Access Protocol) et POP3 (Post Office Protocol) :
o Ces protocoles sont utilisés pour la réception de courriels. IMAP permet
de garder les messages sur le serveur, tandis que POP3 les télécharge sur
l'appareil local.
5. DNS (Domain Name System) :
o Utilisé pour résoudre les noms de domaine (comme "[Link]")
en adresses IP. DNS est essentiel pour la navigation sur Internet.
6. Telnet :
o Permet d'ouvrir une session de connexion à distance sur un autre système
via un terminal, souvent utilisé pour administrer des serveurs à distance.
7. SSH (Secure Shell) :
o Un protocole sécurisé qui permet l'accès à distance à un terminal sur un
serveur. SSH remplace Telnet en offrant un cryptage pour sécuriser la
communication.
8. HTTPS (HyperText Transfer Protocol Secure) :
o Variante sécurisée de HTTP, utilisée pour les échanges sécurisés sur le
web. HTTPS chiffre les données échangées entre un navigateur et un
serveur pour garantir la confidentialité.
9. SNMP (Simple Network Management Protocol) :
o Utilisé pour gérer et surveiller les dispositifs réseau, comme les routeurs,
switches, ou serveurs. SNMP permet de collecter des informations et de
configurer des paramètres à distance.
Exemple de fonctionnement de la couche application :
Prenons l'exemple d'un utilisateur qui envoie un e-mail via une application de messagerie.
Voici comment la couche application intervient :
1. L'utilisateur rédige son e-mail à l'aide d'une application de messagerie (par
exemple, Outlook ou Gmail).
2. L'application de messagerie utilise le protocole SMTP pour envoyer l'e-mail au
serveur de messagerie.
3. Le serveur de messagerie transmet l'e-mail à d'autres serveurs jusqu'à ce qu'il
atteigne le serveur du destinataire.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


4. Le destinataire récupère l'e-mail via un client de messagerie en utilisant un
protocole comme IMAP ou POP3.
5. Enfin, l'utilisateur consulte l'e-mail dans son application, qui affiche le message à
l'écran.
Matériel et technologies associés à la couche application :
La couche application interagit principalement avec des logiciels et des applications qui
facilitent l'interaction entre les utilisateurs et le réseau. Les serveurs d'applications, les
serveurs de messagerie, les serveurs web, les navigateurs et les clients FTP sont tous
des exemples de technologies qui utilisent cette couche pour offrir des services à leurs
utilisateurs.
En conclusion, la couche application est la couche la plus proche de l'utilisateur et fournit
des services permettant la communication entre les applications sur différents systèmes
via un réseau. Elle utilise des protocoles bien définis, comme HTTP, FTP, SMTP et DNS,
pour garantir des échanges efficaces de données. Cette couche permet à l'utilisateur
d'interagir avec des services réseau de manière transparente, sans avoir besoin de
comprendre les détails techniques sous-jacents du réseau. La couche application est donc
essentielle pour rendre les réseaux et Internet utilisables de manière pratique et
fonctionnelle pour l'utilisateur final.

2.2. LE MODELE TCP/IP (4 COUCHES)


Le modèle TCP/IP (Transmission Control Protocol/Internet Protocol) est un modèle
simplifié utilisé pour la communication sur Internet. Il est divisé en 4 couches.

LES 4 COUCHES DU MODELE TCP/IP


Le modèle TCP/IP (Transmission Control Protocol/Internet Protocol) est un cadre de
communication qui décrit comment les données sont transmises à travers un réseau. Il se
compose de quatre couches, chacune ayant des responsabilités spécifiques dans le
processus de communication. Ce modèle est souvent comparé au modèle OSI à sept
couches, bien qu'il soit plus simple et plus orienté vers la pratique.
Voici un aperçu des quatre couches du modèle TCP/IP :
1. Couche d'application (Application Layer)
Fonction :
La couche d'application est la couche la plus haute du modèle TCP/IP, et elle correspond
principalement à la couche application du modèle OSI. Elle est responsable de la

Note de cours d’Architecture Réseaux Ir Marc BOPEY


communication entre les applications sur des hôtes différents et permet aux programmes
utilisateur de s'interfacer avec les protocoles réseau.
Protocoles associés :
 HTTP (HyperText Transfer Protocol) : pour la communication web.
 FTP (File Transfer Protocol) : pour le transfert de fichiers.
 SMTP (Simple Mail Transfer Protocol) : pour l'envoi de courriels.
 DNS (Domain Name System) : pour la résolution des noms de domaine en
adresses IP.
 Telnet et SSH : pour l'accès à distance.
 IMAP/POP3 : pour la réception des courriels.
Cette couche gère toutes les interactions des utilisateurs avec les applications réseau,
comme la navigation web, l'envoi de mails, et l'accès à des fichiers distants.

2. Couche de transport (Transport Layer)


Fonction :
La couche de transport est responsable de l'établissement d'une communication fiable
entre deux hôtes. Elle s'assure que les données sont transmises correctement, en gérant
la segmentation, l'assemblage, le contrôle de flux, la gestion des erreurs et la
retransmission en cas de perte de données.
Protocoles associés :
 TCP (Transmission Control Protocol) : un protocole orienté connexion qui garantit
une transmission fiable des données. Il assure l'intégrité des données et la
retransmission en cas de perte.
 UDP (User Datagram Protocol) : un protocole sans connexion qui offre des
performances plus rapides mais sans garanties de livraison, d'ordre ou de fiabilité.
Il est souvent utilisé pour des applications comme la diffusion de vidéos en temps
réel, où la rapidité est plus importante que la fiabilité.

3. Couche Internet (Internet Layer)


Fonction :
La couche Internet est responsable de l'adressage, du routage et de la remise des
paquets de données à travers différents réseaux. Elle assure que les paquets arrivent à

Note de cours d’Architecture Réseaux Ir Marc BOPEY


leur destination correcte, même s'ils doivent traverser plusieurs réseaux interconnectés.
Cette couche est essentiellement chargée de la mise en réseau et de la gestion des
adresses IP.
Protocoles associés :
 IP (Internet Protocol) : le protocole principal de cette couche, qui gère le routage
des paquets entre différents réseaux. Il détermine le chemin qu'un paquet doit
suivre pour atteindre sa destination.
o IPv4 et IPv6 : les deux versions de l'IP utilisées pour attribuer des adresses
uniques à chaque appareil sur un réseau.
 ICMP (Internet Control Message Protocol) : utilisé pour envoyer des messages
d'erreur et de diagnostic, par exemple lors de l'utilisation de ping.
 ARP (Address Resolution Protocol) : utilisé pour résoudre les adresses IP en
adresses MAC dans un réseau local.

4. Couche d'accès au réseau (Network Access Layer ou Link Layer)


Fonction :
La couche d'accès au réseau (parfois appelée couche liaison de données dans
d'autres modèles) gère l'interface avec le matériel physique du réseau. Elle est
responsable de la transmission des données sur un support physique, que ce soit par
câble, fibre optique, ou sans fil. Cette couche prend en charge les aspects liés à
l'encapsulation des données et à la communication à l'intérieur d'un réseau local (LAN) ou
entre différents réseaux.
Protocoles et technologies associés :
 Ethernet : un protocole couramment utilisé pour la communication dans les
réseaux locaux (LAN).
 Wi-Fi : pour la communication sans fil dans les réseaux locaux (Wi-Fi).
 PPP (Point-to-Point Protocol) : utilisé pour établir une connexion directe entre deux
hôtes.
 Frame Relay, ATM (Asynchronous Transfer Mode) : utilisés dans certains types
de réseaux pour gérer les connexions et la transmission de données.
Cette couche inclut tout ce qui est nécessaire pour transmettre les paquets de données
sur un réseau physique, en assurant qu'ils sont envoyés et reçus sur des supports comme
des câbles, des commutateurs et des routeurs.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Résumé des 4 couches du modèle TCP/IP :
Couche Responsabilité principale Protocoles
associés
Application Services de communication pour les HTTP, FTP, SMTP,
applications utilisateur (e-mail, web, etc.) DNS, etc.
Transport Transmission fiable des données entre hôtes TCP, UDP
Internet Routage et adressage des paquets sur IP, ICMP, ARP
différents réseaux
Accès au Transmission physique des données sur le Ethernet, Wi-Fi,
réseau réseau local ou via des liens PPP, etc.

Conclusion :
Le modèle TCP/IP est un cadre de communication largement utilisé pour l'interconnexion
des réseaux mondiaux (comme Internet) et définit comment les données sont transmises
d'une application à une autre. Chacune de ses quatre couches (Application, Transport,
Internet et Accès au réseau) joue un rôle crucial dans l'acheminement efficace et fiable
des données à travers les réseaux.

2.3. COMPARAISON OSI ET TCP/IP


La comparaison entre le modèle OSI (Open Systems Interconnection) à 7 couches et le
modèle TCP/IP à 4 couches met en lumière les différences dans la structure et la
complexité de ces deux modèles utilisés pour décrire le processus de communication dans
les réseaux. Bien que les deux aient un objectif similaire — la normalisation des processus
de communication sur des réseaux — ils diffèrent par leur conception et leur application.
Voici une comparaison détaillée des deux modèles :
1. Nombre de couches
 Modèle OSI : 7 couches.
o Chaque couche dans le modèle OSI est distincte, avec une fonction bien
définie et une interface bien délimitée entre elles.
 Modèle TCP/IP : 4 couches.
o Le modèle TCP/IP combine certaines des couches du modèle OSI en une
seule couche, réduisant ainsi la complexité.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


2. Couches et leurs fonctions
Couches Modèle OSI Modèle TCP/IP
Couche la plus 7. Application : Fournit des 4. Application : Fournit des
haute (Couches services aux applications services directement aux
utilisateurs) utilisateur (HTTP, FTP, SMTP, applications utilisateur (HTTP,
etc.) FTP, DNS, etc.)
Couche 6 6. Présentation : Assure la Fusionnée avec la couche
syntaxe et la sémantique des Application.
données (cryptage, compression,
transformation de formats)
Couche 5 5. Session : Gère les sessions de Fusionnée avec la couche
communication (établir, Application.
maintenir, fermer une session)
Couche 4 4. Transport : Assure la 3. Transport : Assure la
communication de bout en bout, communication de bout en
fiable ou non fiable (TCP, UDP) bout (TCP, UDP)
Couche 3 3. Réseau : Gère l'adressage 2. Internet : Gère l'adressage
logique, le routage et la livraison logique, le routage des
des paquets (IP, ICMP, ARP) paquets et leur livraison (IP,
ICMP)
Couche 2 2. Liaison de données : Gère la 1. Accès au réseau : Gère la
communication entre des communication sur le support
dispositifs sur un réseau local physique (Ethernet, Wi-Fi,
(Ethernet, Wi-Fi, PPP) etc.)
Couche la plus 1. Physique : Transmission des 1. Accès au réseau : Assure
basse (Couches bits sur le support physique la transmission des données
matérielles) (câble, ondes radio) sur un support physique
(Ethernet, Wi-Fi)

3. Modèle OSI - Détail des couches


 Couche 7 : Application : Fournit des services comme le transfert de fichiers,
l'accès web, la messagerie électronique.
 Couche 6 : Présentation : Assure la traduction, la compression, le cryptage des
données.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
 Couche 5 : Session : Gère la gestion des sessions entre applications (connexion,
synchronisation).
 Couche 4 : Transport : Gestion de la communication de bout en bout et des
services de transmission fiables/non fiables (TCP/UDP).
 Couche 3 : Réseau : Gestion des adresses et du routage des paquets à travers
plusieurs réseaux (IP).
 Couche 2 : Liaison de données : Communication et encodage des données sur
le support physique (Ethernet).
 Couche 1 : Physique : Transmission des données binaires (électriques, optiques,
ou radio).

4. Modèle TCP/IP - Détail des couches


 Couche 4 : Application : Permet aux applications de communiquer, en utilisant
des protocoles comme HTTP, FTP, DNS, SMTP.
 Couche 3 : Transport : Gère les protocoles de communication de bout en bout
comme TCP et UDP.
 Couche 2 : Internet : Gère l'adressage logique (IP) et le routage des paquets de
données entre différents réseaux.
 Couche 1 : Accès au réseau : Englobe tout ce qui est nécessaire pour transmettre
des données sur le réseau physique, y compris l'encapsulation des paquets et la
transmission via des technologies comme Ethernet, Wi-Fi, etc.

5. Simplification et pratiques
 OSI : Le modèle OSI est plus théorique et détaillé, avec une séparation claire entre
chaque fonction. Il est utile à des fins pédagogiques pour comprendre la séparation
des responsabilités dans la communication réseau, mais il n'est pas directement
utilisé dans la pratique quotidienne des réseaux modernes.
 TCP/IP : Le modèle TCP/IP est plus pratique et a été largement adopté dans la
réalité des réseaux, notamment sur Internet. Les couches sont moins nombreuses
et plus directement associées à des protocoles concrets (par exemple, le protocole
IP dans la couche Internet et le protocole TCP dans la couche Transport).

Note de cours d’Architecture Réseaux Ir Marc BOPEY


6. Protocoles associés
Modèle OSI Protocoles
Application (7) HTTP, FTP, SMTP, IMAP, SNMP
Présentation (6) ASCII, JPEG, GIF, SSL, TLS
Session (5) RPC, SMB, NetBIOS
Transport (4) TCP, UDP
Réseau (3) IP, ICMP, ARP
Liaison de données (2) Ethernet, Wi-Fi, PPP
Physique (1) Ethernet, DSL, Câbles fibre optique, Ondes radio

Modèle TCP/IP Protocoles

Application (4) HTTP, FTP, SMTP, DNS, Telnet

Transport (3) TCP, UDP

Internet (2) IP, ICMP, ARP

Accès au réseau (1) Ethernet, Wi-Fi, PPP

7. Adoption et application
 Modèle OSI :
o Le modèle OSI a été principalement conçu pour normaliser les différentes
fonctions de communication réseau de manière théorique. Bien qu'il soit
largement utilisé dans les écoles et pour la documentation, il n'est pas
directement mis en œuvre dans les réseaux.
o Il a cependant joué un rôle clé dans la création d'autres normes et protocoles
réseau.
 Modèle TCP/IP :
o Le modèle TCP/IP est basé sur des normes concrètes et des protocoles
largement utilisés dans le monde réel, en particulier pour Internet. Il est
donc directement applicable et a conduit à la mise en place des standards
qui alimentent la communication mondiale sur Internet.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


8. Conclusion
Critère Modèle OSI Modèle TCP/IP
Nombre de 7 4
couches
Théorique ou Plus théorique et Plus pratique et largement utilisé
pratique ? pédagogique
Utilisation Référence pour la Basé sur des protocoles concrets et
normalisation réseau utilisé dans les réseaux réels
Simplicité Plus détaillé, complexe à Plus simple et directement lié à la
comprendre réalité des réseaux modernes
En résumé, bien que les deux modèles aient le même objectif — faciliter la communication
réseau — le modèle OSI est plus détaillé et théorique, tandis que le modèle TCP/IP est
plus simple et directement adapté à la réalité des réseaux actuels, notamment Internet.

2.4. Normes et organismes de standardisation


Les normes et les organismes de standardisation jouent un rôle crucial dans le
développement des technologies et des systèmes de communication, en particulier dans
le domaine des réseaux et des protocoles. Ces normes assurent l'interopérabilité entre les
différents équipements et systèmes provenant de fabricants différents et garantissent une
utilisation efficace et sécurisée des technologies dans le monde entier.
Normes : Qu'est-ce que c'est ?
Une norme est un ensemble de règles ou de spécifications techniques qui régissent un
produit, un processus, ou une méthode. Elles sont développées pour garantir que les
systèmes, équipements, et logiciels sont compatibles, sûrs, fiables et performants.
Dans le domaine des réseaux et de la communication, les normes permettent de :
 Garantir la compatibilité entre différents appareils et technologies.
 Assurer la sécurité, la fiabilité, et l'efficacité des communications.
 Faciliter l'innovation tout en maintenant des bases communes pour les nouvelles
technologies.
Les principaux organismes de standardisation
De nombreux organismes de standardisation dans le monde travaillent à l'élaboration de
normes pour les réseaux, les protocoles et les systèmes de communication. Voici les plus
importants :
Note de cours d’Architecture Réseaux Ir Marc BOPEY
1. ISO (Organisation internationale de normalisation)
L'ISO est une organisation non gouvernementale internationale indépendante qui élabore
des normes dans presque tous les secteurs, y compris les technologies de l'information et
les réseaux.
 Exemple de normes :
o ISO/OSI (Open Systems Interconnection) : Développement du modèle
OSI en 7 couches pour la communication dans les réseaux.
o ISO/IEC 27001 : Norme pour les systèmes de gestion de la sécurité de
l'information.

2. IEC (International Electrotechnical Commission)


L'IEC est une organisation internationale qui prépare et publie des normes internationales
pour tous les domaines des technologies électriques et électroniques. Elle collabore
étroitement avec l'ISO, notamment pour les normes liées à la sécurité des équipements
électriques et des réseaux.
 Exemple de normes :
o IEC 61850 : Norme pour la communication dans les réseaux de distribution
électrique (utilisée dans l'automatisation des réseaux).

3. ITU (International Telecommunication Union)


L'ITU est une agence spécialisée des Nations Unies qui se charge de la normalisation et
de la réglementation des télécommunications internationales. L'ITU est responsable des
normes concernant les technologies de l'information et la communication (TIC).
 Exemple de normes :
o ITU-T G.711 : Norme pour la compression de la voix dans les
communications voix sur IP (VoIP).
o ITU-T H.264 : Norme de compression vidéo utilisée pour la vidéoconférence
et le streaming vidéo.
o ITU-R M.1450 : Norme pour les systèmes mobiles 3G.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


4. IEEE (Institute of Electrical and Electronics Engineers)
L'IEEE est une organisation professionnelle mondiale qui élabore des normes pour les
technologies électriques, électroniques et de télécommunications. L'IEEE est
particulièrement bien connu dans les domaines du réseau et des communications.
 Exemples de normes :
o IEEE 802.3 (Ethernet) : Norme pour les réseaux Ethernet filaires.
o IEEE 802.11 (Wi-Fi) : Norme pour les réseaux sans fil.
o IEEE 802.15 (Bluetooth) : Norme pour la communication sans fil à courte
portée.
o IEEE 802.1Q : Norme de gestion du VLAN (Virtual Local Area Network).

5. IETF (Internet Engineering Task Force)


L'IETF est un groupe de travail qui développe des normes pour l'Internet. L'IETF est
responsable de la définition de nombreux protocoles et normes qui sont utilisés dans le
monde entier pour la communication sur Internet.
 Exemple de normes :
o RFC 791 (IP) : Norme pour le protocole Internet (Internet Protocol).
o RFC 2616 (HTTP/1.1) : Norme pour le protocole HTTP version 1.1.
o RFC 5321 (SMTP) : Norme pour le protocole de transfert de courrier
électronique.
o RFC 791 (IP) : Protocole Internet.

6. W3C (World Wide Web Consortium)


Le W3C est un organisme international qui développe des standards pour le web. Il est
responsable de l'élaboration des normes qui assurent l'interopérabilité et l'accessibilité des
technologies web.
 Exemples de normes :
o HTML (HyperText Markup Language) : Langage de balisage pour la
création de pages web.
o CSS (Cascading Style Sheets) : Norme pour la présentation des documents
web.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


o XML (Extensible Markup Language) : Langage de balisage pour la
structuration des données.
o WCAG (Web Content Accessibility Guidelines) : Normes d'accessibilité
pour le contenu web.

7. ETSI (European Telecommunications Standards Institute)


L'ETSI est un organisme européen qui définit des normes pour les télécommunications,
en particulier en Europe. Il joue un rôle majeur dans le développement de normes pour les
réseaux mobiles, les technologies sans fil, et les services de télécommunication.
 Exemple de normes :
o ETSI 3GPP (3rd Generation Partnership Project) : Développement des
normes pour les réseaux mobiles 3G, 4G et 5G.
o ETSI TS 102 222 : Norme pour la gestion des appels VoIP sur les réseaux
mobiles.

8. ANSI (American National Standards Institute)


L'ANSI est une organisation américaine qui supervise la normalisation des produits,
services, systèmes et processus. Bien qu'il soit principalement axé sur le marché
américain, il joue un rôle important dans la coordination des normes internationales.
 Exemple de normes :
o ANSI X3.4 : Norme pour le jeu de caractères ASCII.
o ANSI/TIA-568 : Norme pour les câblages dans les réseaux de
télécommunications.

9. JTC1 (Joint Technical Committee 1)


Le JTC1 est un comité conjoint de l'ISO et de la CEI (Comité Européen de Normalisation
Electrotechnique) qui est responsable de la normalisation des technologies de
l'information.
 Exemple de normes :
o ISO/IEC 27001 : Norme pour la gestion de la sécurité de l'information.
o ISO/IEC 20000 : Norme pour la gestion des services informatiques.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Conclusion
Les normes et les organismes de standardisation sont essentiels pour garantir
l'interopérabilité, la sécurité, et l'efficacité des technologies de communication à l'échelle
mondiale. En définissant des règles communes, ces organisations permettent de favoriser
l'innovation tout en assurant une compatibilité entre les différents systèmes et
équipements, réduisant ainsi les risques d'incompatibilité et de malfonctionnement dans
les réseaux mondiaux.

IMPORTANCE DES NORMES ET ORGANISMES


Les normes et les organismes de standardisation jouent un rôle crucial dans le monde
de la technologie, en particulier dans les domaines des réseaux, des télécommunications
et des systèmes informatiques. Leur importance ne peut être sous-estimée, car elles sont
fondamentales pour assurer la compatibilité, la sécurité, l'efficacité, et l'évolutivité des
technologies à l'échelle mondiale.
Voici un aperçu des raisons pour lesquelles les normes et les organismes de
standardisation sont essentiels :

1. Assurer l'Interopérabilité
Les normes garantissent que les produits et services de différents fabricants ou
fournisseurs peuvent travailler ensemble de manière fluide. Dans un environnement
technologique diversifié, les normes permettent aux systèmes, équipements et logiciels
provenant de différents fournisseurs d'être compatibles, ce qui est particulièrement
important pour l'intégration de réseaux, l'interconnexion des systèmes et les services multi-
plateformes.
 Exemple : Sans les normes de communication comme Ethernet ou Wi-Fi, il serait
difficile de connecter un appareil d'un fabricant avec un réseau local ou un autre
appareil d'un autre fabricant.

2. Favoriser l'Innovation
Les normes fournissent une base commune sur laquelle les entreprises peuvent innover.
Elles permettent aux développeurs de travailler avec des bases solides, ce qui favorise
l'innovation sans risquer de créer des solutions qui ne sont pas compatibles avec les
standards globaux.
 Exemple : Le protocole HTTP a permis l'émergence du web tel que nous le
connaissons aujourd'hui. En définissant un standard pour la communication entre
Note de cours d’Architecture Réseaux Ir Marc BOPEY
serveurs et navigateurs, il a ouvert la voie à une multitude d'innovations autour du
web.

3. Assurer la Sécurité
Les normes définissent des règles strictes pour la sécurité des systèmes et des
communications. Elles permettent de s'assurer que les produits et les technologies
respectent des exigences minimales de sécurité et de confidentialité. Cela protège les
utilisateurs contre les attaques et les faille de sécurité qui pourraient compromettre les
données sensibles ou perturber les services.
 Exemple : La norme ISO/IEC 27001 définit les bonnes pratiques pour la gestion de
la sécurité de l'information dans les organisations, garantissant ainsi que les
entreprises mettent en place des mesures appropriées pour protéger les données
des utilisateurs et des clients.

4. Faciliter la Communication Globale


Les normes garantissent la cohérence et la compatibilité des technologies utilisées
dans différents pays. Elles permettent une communication mondiale sans frontières, ce
qui est particulièrement important pour les réseaux mondiaux comme Internet.
 Exemple : Le protocole IP est une norme mondiale qui permet aux appareils sur
différents réseaux à travers le monde de communiquer entre eux. Il permet aux
utilisateurs de se connecter à Internet de manière transparente, indépendamment
de leur localisation géographique.

5. Réduire les Coûts et Optimiser les Ressources


Les normes permettent aux entreprises de réduire les coûts en favorisant la compétition
et la production en masse de produits conformes aux standards. Elles évitent aussi la
duplication des efforts en offrant des solutions éprouvées qui peuvent être largement
adoptées.
 Exemple : Le fait que le câblage Ethernet soit une norme mondiale permet aux
entreprises de fabriquer des équipements compatibles à grande échelle, réduisant
ainsi les coûts de production et d'achat pour les utilisateurs finaux.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


6. Encourager la Conformité Légale et la Responsabilité
Les normes aident les entreprises à se conformer aux exigences légales et aux
régulations locales ou internationales. Elles facilitent également la mise en œuvre de
bonnes pratiques et l'adhésion aux responsabilités éthiques et juridiques, en particulier
dans des domaines comme la protection des données personnelles et la gestion des
risques.
 Exemple : La norme GDPR (Règlement général sur la protection des données) est
devenue une norme importante dans l'Union Européenne, assurant que les
entreprises respectent des règles strictes sur la gestion et la protection des
données des utilisateurs.

7. Renforcer la Confiance des Consommateurs


Les normes assurent que les produits et services respectent des critères de qualité et
des attentes élevées. Cela renforce la confiance des consommateurs et des
utilisateurs finaux, sachant que les produits qu'ils achètent sont sûrs, fiables et répondent
à des critères reconnus internationalement.
 Exemple : La certification CE (Conformité Européenne) montre que les produits
respectent les normes de sécurité et de qualité européennes, ce qui assure aux
consommateurs qu'ils achètent des produits conformes aux normes de l'Union
Européenne.

8. Encourager l'Adoption des Nouvelles Technologies


Les normes aident à la réduction des risques associés à l'adoption de nouvelles
technologies. Lorsqu'une technologie ou un protocole est normalisé, les entreprises sont
plus enclines à l'adopter, car elles savent qu'il a été testé, qu'il est fiable, et qu'il sera
soutenu sur le long terme.
 Exemple : La norme 5G a facilité l'adoption mondiale des technologies mobiles de
cinquième génération. Les entreprises de télécommunication et les fabricants de
matériel ont développé des équipements conformes aux spécifications de la norme
5G, ce qui a permis une adoption rapide et une évolution des réseaux mobiles.

9. Soutenir le Commerce International


Les normes facilitent les échanges commerciaux internationaux en permettant aux
entreprises de se conformer à des exigences communes. Cela élimine les barrières
techniques au commerce et favorise les relations commerciales entre les pays.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
 Exemple : Les normes de télécommunication et les normes de câblage réseau
comme Ethernet et Wi-Fi permettent aux entreprises du monde entier de vendre
des équipements de réseau qui peuvent être utilisés sur tous les marchés
internationaux.

Conclusion
Les normes et les organismes de standardisation sont des instruments essentiels dans
le monde moderne des technologies. Elles facilitent l'innovation, garantissent la
sécurité, favorisent la compétitivité, et permettent une interopérabilité mondiale. Elles
jouent un rôle fondamental dans le développement de nouvelles technologies, tout en
assurant que ces technologies sont fiables, sûres et accessibles. Grâce à elles, l'industrie
mondiale peut évoluer de manière coordonnée, et les consommateurs bénéficient de
produits de haute qualité et sûrs.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


CHAPITRE 3 : COUCHE PHYSIQUE
Comprendre les principes fondamentaux de la transmission physique des données, les
différents supports de transmission et les problèmes rencontrés. Acquérir des
compétences pratiques pour tester et diagnostiquer les infrastructures physiques.

3.1. Notions de base (signaux, bande passante, débit)


Dans le domaine des réseaux et des télécommunications, plusieurs notions de base sont
essentielles pour comprendre comment les données sont transmises à travers les
différents types de médias (câbles, ondes radio, etc.). Parmi ces notions, les plus
importantes sont les signaux, la bande passante et le débit. Ces concepts sont
fondamentaux pour déterminer les performances des réseaux et des systèmes de
communication.
1. Signaux
Un signal est une variante physique d'une information qui est transmise à travers un
médium de communication. Les signaux peuvent prendre différentes formes selon la
technologie utilisée (électrique, optique, radio, etc.). Ils peuvent être classés en deux types
principaux :
 Signaux analogiques : Ce sont des signaux qui varient de manière continue dans
le temps et l'amplitude. Un exemple classique de signal analogique est la radio
FM. Les informations sont transmises sous forme de variations continues, telles
que des ondes sinusoïdales.
 Signaux numériques : Contrairement aux signaux analogiques, les signaux
numériques sont discrets. Ils sont représentés par une série de 0 et de 1 (bits). Par
exemple, les données transmises sur un réseau informatique sont des signaux
numériques, où chaque bit est une valeur binaire (0 ou 1) codée pour être envoyée
à travers le médium.
Les signaux peuvent être transmis à travers divers médias :
 Câbles (comme les câbles cuivre ou fibre optique),
 Ondes radio (comme dans les communications sans fil),
 Rayonnement infrarouge (comme les télécommandes).
2. Bande Passante (Bandwidth)
La bande passante est un concept clé dans les réseaux de communication. Elle
représente la largeur de bande d’un canal de communication, c’est-à-dire la quantité de
données qui peut être transmise par ce canal dans une période de temps donnée. Elle se

Note de cours d’Architecture Réseaux Ir Marc BOPEY


mesure généralement en hertz (Hz) ou en bits par seconde (bps), selon qu'on parle de
la capacité du signal ou du débit.
 Bande passante en hertz (Hz) : Elle désigne la différence entre les fréquences les
plus basses et les plus élevées d'un signal ou d'un canal. Par exemple, un canal
de 20 MHz (mégahertz) peut transporter des signaux dont les fréquences varient
entre 0 et 20 MHz.
 Bande passante en bits par seconde (bps) : Dans le contexte des réseaux, la
bande passante se réfère souvent à la quantité de données qui peut être
transmise dans un canal par seconde. Une bande passante plus large permet de
transmettre plus de données par seconde. Par exemple, une ligne Internet à 100
Mbps (mégabits par seconde) peut théoriquement transmettre jusqu'à 100 millions
de bits chaque seconde.
La bande passante est cruciale pour la performance des réseaux. Plus la bande passante
est élevée, plus la capacité du réseau à transmettre des données est grande. Cela se
traduit par une meilleure qualité de service, comme des vitesses de téléchargement plus
rapides et moins de latence.
Facteurs influençant la bande passante :
 La largeur de la fréquence du signal.
 La technologie utilisée pour la transmission (fibre optique, câble, ondes radio,
etc.).
 Les interférences ou la distorsion du signal pendant sa transmission.

3. Débit (Throughput)
Le débit fait référence à la quantité effective de données qui est effectivement transmise
sur un réseau ou un canal dans une période de temps donnée. Il est souvent exprimé en
bits par seconde (bps), ou dans des unités supérieures comme Mbps (mégabits par
seconde) ou Gbps (gigabits par seconde).
Bien que le débit soit souvent lié à la bande passante, il peut être inférieur à cette dernière
pour plusieurs raisons :
 Congestion du réseau : Lorsqu'un réseau est surchargé, le débit réel peut être
réduit par rapport à la bande passante théorique.
 Latence : Les délais dans le transfert de données peuvent également affecter le
débit effectif.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Perte de paquets : La transmission de données peut être perturbée par des erreurs
ou des pertes de paquets, réduisant ainsi le débit.
Le débit réel est donc la vitesse de transmission mesurée au niveau du système ou du
réseau, tandis que la bande passante correspond à la capacité maximale du canal.
Exemples :
 Une connexion Internet de 1 Gbps (gigabit par seconde) offre une bande passante
théorique de 1 Gbps. Cependant, en raison de la congestion du réseau, des
interférences ou d'autres facteurs, le débit effectif pourrait être inférieur, par
exemple 800 Mbps.
 Un réseau Wi-Fi avec une bande passante de 100 Mbps peut avoir un débit de 80
Mbps, en fonction de la distance entre l'appareil et le routeur, de l'interférence du
signal, etc.

4. Relation entre Bande Passante et Débit


La bande passante définit le potentiel maximal du réseau, tandis que le débit représente
la vitesse effective à laquelle les données sont réellement transmises. La relation entre
les deux dépend de plusieurs facteurs :
 Saturation du réseau : Si un canal a une bande passante de 1 Gbps mais est
fortement utilisé par plusieurs utilisateurs, le débit effectif pour chaque utilisateur
peut être bien inférieur.
 Qualité du signal : Si le signal est de mauvaise qualité (par exemple, à cause de
bruit ou de distorsion), même si la bande passante est élevée, le débit peut être
limité.
 Protocole de communication : Certains protocoles de communication ajoutent
des overheads (surcharge) qui réduisent le débit utile. Par exemple, le protocole
TCP/IP comporte une gestion des erreurs et de la congestion qui peut limiter le
débit effectif.
En résumé :
 Signaux : Les signaux représentent les données sous forme d'ondes analogiques
ou numériques qui sont transmises à travers un canal de communication.
 Bande Passante : La bande passante est la capacité maximale d'un canal à
transmettre des données, souvent mesurée en Hz (pour les fréquences) ou bps
(pour les données).

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Débit : Le débit représente la quantité réelle de données transmises dans un
réseau dans un temps donné, mesuré en bps, et il peut être inférieur à la bande
passante à cause des interférences, de la congestion ou des erreurs de
transmission.
Comprendre ces notions est essentiel pour évaluer la performance des réseaux de
communication et des systèmes de transmission de données.

3.2. Supports de transmission


Les supports de transmission sont les canaux physiques ou sans fil utilisés pour
transmettre des données entre les équipements dans un réseau de communication.
1. Câbles métalliques
Les câbles métalliques sont des supports de transmission largement utilisés dans les
réseaux de communication pour transmettre des signaux électriques. Ils sont constitués
principalement de conducteurs métalliques, qui permettent la transmission de données
sous forme de signaux analogiques ou numériques. Les câbles métalliques sont essentiels
pour des applications variées, telles que les réseaux informatiques, les
télécommunications, et les systèmes d’alimentation.
Types de câbles métalliques
Les câbles métalliques peuvent être classés en fonction de leur structure, du matériau
utilisé et de leurs caractéristiques spécifiques. Voici les principaux types de câbles
métalliques utilisés pour la transmission de données :
 Câble coaxial
Le câble coaxial est un câble composé de plusieurs couches concentriques, chacune
ayant une fonction spécifique pour assurer une transmission efficace et réduire les
interférences. Il est couramment utilisé pour la télévision par câble, les réseaux
informatiques et les transmissions de données à haute fréquence.
 Câble à paires torsadées
Le câble à paires torsadées est l'un des types de câbles les plus utilisés dans les réseaux
informatiques. Il est composé de plusieurs paires de fils en cuivre torsadés pour réduire
les interférences électromagnétiques.
Types de câbles à paires torsadées :
 UTP (Unshielded Twisted Pair) : Câble à paires torsadées sans blindage. Il est
utilisé dans de nombreux réseaux locaux (LAN).

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 STP (Shielded Twisted Pair) : Câble à paires torsadées avec un blindage
supplémentaire autour des paires pour offrir une meilleure protection contre les
interférences.
 FTP (Foiled Twisted Pair) : Variante avec un blindage en feuille qui protège
l’ensemble des paires de fils.

 Câble en cuivre (téléphonique)


Les câbles téléphoniques classiques utilisent des fils en cuivre torsadés. Bien qu'ils soient
largement remplacés par d'autres technologies (comme les fibres optiques), ils sont
encore utilisés dans certaines applications à faible bande passante, comme les lignes
téléphoniques analogiques.

En résumé, les câbles métalliques restent une technologie importante pour la


transmission de données dans de nombreux types de réseaux, surtout dans les réseaux
locaux (LAN) et dans les systèmes de télécommunication. Le choix du type de câble
dépend de plusieurs facteurs, tels que la bande passante requise, la distance de
transmission, le coût et les conditions d'environnement (interférences). Les câbles
coaxiaux et à paires torsadées sont parmi les plus courants dans les réseaux
traditionnels, mais les câbles en cuivre sont souvent limités à des applications à faible
bande passante.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


2. FIBRE OPTIQUE
La fibre optique est un type de câble utilisé pour transmettre des informations à grande
vitesse sur de longues distances. Contrairement aux câbles traditionnels en cuivre, qui
utilisent des signaux électriques, la fibre optique utilise la lumière pour transporter les
données. Grâce à sa capacité à transporter de grandes quantités de données et à sa
résistance aux perturbations, elle est largement utilisée dans les réseaux de
télécommunications et joue un rôle essentiel dans notre connectivité moderne.

Différence entre la fibre et la WiFi


La fibre optique utilise des câbles en verre ou en plastique pour transmettre les données
sous forme de signaux lumineux à travers de longues distances. Elle offre une bande
passante élevée, une faible latence et une grande capacité de transmission, ce qui en fait
un choix idéal pour les connexions Internet haut débit. Le Wi-Fi, en revanche, est une
technologie sans fil qui utilise des ondes radio pour transmettre les données sur
de courtes distances. Les routeurs Wi-Fi reçoivent les signaux Internet via un câble
(comme une connexion fibre optique) et les diffusent ensuite sous forme d'ondes radio,
permettant aux appareils compatibles Wi-Fi à proximité de se connecter et d'accéder à
Internet.

COMPOSITION DE LA FIBRE ?
La fibre optique est un fil de verre entouré d'une gaine réfléchissante. Sa propriété
principale est de servir de tuyau dans lequel on peut faire circuler de la lumière. Elle sert
à transporter de l'information numérique.

1 - La gaine de protection de la fibre.


2 - La fibre de renfort en Kevlar.
3 - Le revêtement protège mécaniquement la fibre.
4 - La gaine aide à la propagation du signal.
5 - Le cœur sert à confiner le signal lumineux et à le propager.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


3. SANS FIL
Un réseau sans fil est un réseau informatique numérique qui connecte différents
postes ou systèmes entre eux par ondes radio. Il peut être associé à un réseau de
télécommunications pour réaliser des interconnexions à distance entre nœuds.

 W i - F i ( W i r el e ss F i d el i t y)

Bon le Wi-Fi (abréviation de Wireless Fidelity) tout le monde doit à peu près en maîtriser
le fonctionnement et l'utilisation, il sert à transmettre le signal internet sans fil entre votre
box internet et vos appareils connectés.

Il est également largement utilisé dans les lieux publics car il permet de couvrir d'assez
grandes zones avec un émetteur unique : jusqu'à 50 mètres en intérieur.

Le Wi-Fi (ou wifi) permet également une bonne sécurisation des données transmises via
divers protocoles de protection (WPA, WEP, etc...), il répond à la norme internationale du
protocole de communication IEEE 802.11 (ISO/CEI 802-11) et supporte un haut débit de
données.

Cette norme générale se décompose ensuite en divers types de connexions plus ou moins
puissantes allant de "802.11a" à "802.11y" et quelques nouvelles normes finissant par ac
ou ax pour le très haut débit, les plus utilisées pour un usage domestique sont les normes :

 IEEE 802.11b (11 Mbits/seconde)


 IEEE 802.11g (54 Mbits/seconde)
 IEEE 802.11n (450 Mbits/seconde)
 IEEE 802.11ac (1.3 Gbits/seconde) aussi nommé "Wi-Fi 5"
 IEEE 802.11ax (10.5 Gbits/seconde) aussi nommé "Wi-Fi 6 Killer"

Note de cours d’Architecture Réseaux Ir Marc BOPEY


La grande majorité des appareils électroniques supportant le Wi-Fi sont compatibles avec
les trois premières normes (b/g/n) et il suffit donc de s'assurer que l'appareil dispose de la
norme "802.11ac" ou "802.11ax" pour assurer un haut débit, leur sécurisation
est standardisée avec un mot de passe.

Il est possible de cacher son adresse IP (identification du terminal par son numéro de
série) quand on se connecte à internet à l'aide d'un VPN (Virtual Private Network) ou
"réseau privé virtuel" en français, un VPN relie deux réseaux locaux dans un protocole de
tunnel modifiant votre adresse IP.

 L i - F i ( L i g h t F i d el i t y )

Le Li-Fi (abréviation de Light Fidelity) est une dérivation d'un réseau Wi-Fi qu'elle ne
remplace pas mais canalise plutôt si l'on peut dire, en utilisant la lumière pour diffuser une
transmission sans fil. Le Li-Fi utilise la partie visible du spectre électro-magnétique alors
que le Wi-Fi utilise lui la partie invisible.

C'est un peu complexe mais plus simplement le Li-Fi transmet les données sans fil en les
diffusant via les lumières bleues et rouges d'une ampoule, mais il faut que l'ampoule soit
connectée au Wi-Fi. Vous devez vous demander à quoi ça sert ?

L'avantage principal est que les données transmises sont codées et qu'il faut un récepteur
adapté pour les recevoir comme les transmettre sur le réseau (type clé USB). Le Li-Fi ne
traverse pas les murs et sa portée est réduite (10 mètres), vos données ne peuvent donc
pas être interceptées depuis l'extérieur ou la pièce d'à côté.

Encore peu répandue cette technologie arrive petit à petit avec un usage principalement
industriel pour la sécurisation de données sensibles. Mais aussi domestique avec des
lampes dotées d'une prise Ethernet et équipées d'ampoules spécifiques, ou des serrures
connectées qui s'ouvrent avec le Flash du smartphone.

Le Li-Fi utilise comme sa grande sœur le protocole de communication IEEE 802.11 mais
également TCP/IP et CSK qui composent les trois couches PHY standard, permettant un
débit potentiel de 1 Gbits/seconde même si on en est encore loin.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
 5 G ( r é s e a u m ob i l e) :

Le réseau dit "mobile" couvre à la fois les zones publiques et privées, même si dans le
second cas il sert principalement aux appels puisque l'accès à internet du domicile est
principalement assuré par le réseau Wi-Fi.

Il a la particularité de ne pas avoir de nom spécifique, en effet ce réseau n'a pas de nom
distinctif et se contente d'un numéro et d'un chiffre qui correspondent à la génération.

La première génération se nommait 1G (pour 1ère Génération) puis est devenue la 2G,
puis 3G, puis 4G et enfin la 5G (pour 5ème Génération de réseau mobile) qui s'est
déployée à partir de 2020 en Europe même si la majorité du territoire français ne sera pas
couverte avant au mieux 2025.

Rarement d'ailleurs l'arrivée d'un réseau sans fil n'aura autant fait parler de lui et n'aura
été accusé de tous les maux comme l'est la 5G en ce moment, entre craintes pour la santé
et guerre économique entre l'occident et la Chine mais ce n'est pas le sujet ici.

La 5G s'appuie sur la technologie LTE-Advanced (Long Term Evolution) et intègre la


technologie MIMO (Multiple-Input Multiple-Output), des termes que l'on retrouve souvent
dans les caractéristiques de nos smartphones et autres objets connectés.

La 5G se veut une petite révolution avec des débits multipliés par 100 par rapport à la 4G
basique donc jusqu'à 100 fois plus rapide, mais aussi quasiment sans latence donc plus
pratique notamment dans le domaine des véhicules autonomes ou de la domotique pour
la maison connectée.

Avant le réseau dit 1G existait déjà un réseau mobile qui était le GSM et avait d'ailleurs
donné son nom d'usage aux tous premiers téléphones portables qui allaient avec, lui aussi
a connu plusieurs améliorations et est devenu le GPRS puis le Edge.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Le réseau Edge a cohabité avec les premières générations G et est toujours en service à
l'heure actuelle pour pallier les zones non couvertes, il est équivalent en puissance de
transmission à la 3G de base ou à un réseau 2G amélioré.

 B l u e t o o t h ( BL E )

Le Bluetooth est également une autre norme de communication basée sur le protocole
IEEE-812 utilisant elle les ondes radios à une fréquence précise (UHF 2,4 GHz), il créé un
pico réseau entre plusieurs appareils qui se connectent entre eux.

Il y a donc toujours un émetteur qui transmet le signal sans fil à un ou plusieurs appareils
équipés de récepteurs qui le reçoivent, sans que ces derniers ne soient reliés entre eux
par un câble bien entendu puisque c'est une transmission sans fil.

La technologie Bluetooth qui est utilisée dans nos smartphones et autres petits objets du
quotidien se nomme plus communément BLE (Bluetooth Low Energy) depuis sa version
4.1, il n'a qu'une portée de quelques mètres (maxi 10 mètres) et est limité en nombre de
connexions simultanées.

Pour connecter deux appareils en Bluetooth il faut les appairer, cela fonctionne par un
échange de code entre les deux appareils, l'émetteur transmet le code au récepteur.
L'avantage est qu'une fois appairés les appareils se reconnaissent et sont capables de se
connecter automatiquement.

Le point fort du Bluetooth est sa simplicité d'utilisation et son point faible est la sécurité,
c'est pour cette raison qu'il est souvent associé à la technologie NFC que nous allons vous
expliquer juste après.

La dernière version nommée Bluetooth 5 (versions 5.0 / 5.1 / 5.2) est déjà présente sur
les appareils électroniques depuis quelques années.

Le Bluetooth existe en plusieurs normes de "812.15.1" à "802.15.5" (la plus puissante


permettant de connecter simultanément plus de 200 appareils) avec trois classes
délimitant leur portée, de quelques mètres pour la classe 3 à une centaine de mètres pour
la classe 1.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
 I n f r a - ro u g e ( I rD a e t I R)

La technologie IrDa (Infrared Data) est appelée à disparaître en électronique car elle
nécessite une liaison directe entre les deux objets, elle fonctionne sous la forme d'une
onde électromagnétique qui diffuse les données.

On la retrouve principalement dans nos télécommandes et anciens appareils électroniques


mais elle est remplacée petit à petit par les technologies Wi-Fi, Bluetooth ou RF (radio-
fréquence) présentées ci-dessus qui ne nécessitent pas de liaison directe car elles
émettent à 360° et traversent les murs.

La technologie infrarouge (IR) a par contre de beaux jours devant elle sous d'autres formes
et dans d'autres domaines comme la cuisine et la santé, en effet elle peut émettre de la
chaleur et la mesurer donc est utilisable par exemple sous forme de plaque de cuisson ou
de thermomètre.

Mais l'infrarouge a également des applications en photographie (argentique et numérique),


en astronomie (télescopes satellisés), ou encore dans le domaine de la sécurité
domestique (détecteurs de présence et d'intrusion, vision nocturne) et militaire (guidage
de missiles), etc...

Sur ces deux dernières technologies que sont les radio fréquences et l'infrarouge, il existe
une version de base (RF et IR) mais aussi des versions dérivées plus complexes qui
permettent de transmettre des données (RFID et IrDA) pour "Identité" dans le premier
cas et "Data" dans le second (données).

Q u el q u e s co n s ei l s p o u r s é cu ri s e r l e s co n n e ct i vi t é s s an s f i l

Bien entendu les connectivités sans fil évoluent régulièrement, le Wi-Fi 7 et la 6G sont déjà
dans les tuyaux et devraient arriver prochainement, remplaçant les protocoles actuels. Il

Note de cours d’Architecture Réseaux Ir Marc BOPEY


en est de même pour les autres types de connectivité qui, même si elles ne changent pas
de nom, s'améliorent au fil des avancées technologiques.

Il y a les réseaux qui permettent de faire transiter les données à grande échelle et
composent le réseau internet dont nous avons expliqué le fonctionnement dans un
précédent article.

Comme la 5G elles sont diffusées dans l'espace public par des fournisseurs d'accès (FAI)
et sécurisées par des protocoles utilisant des mots de passe et l'adresse IP (Internet
Protocol) des appareils qui se connectent au réseau.

Mais aussi d'autres types de connectivité à petite échelle, qui permettent notamment des
échanges de données dans un périmètre réduit. Le NFC et le RFID notamment, qui
permettent de sécuriser les échanges sans fil entre une puce électronique et un terminal.

C'est le cas des paiements sans contact (RFID) ou du NFC qui sécurise par exemple la
connexion Bluetooth entre votre smartphone et une enceinte nomade. Ils servent à
identifier les appareils qui se connectent entre eux, afin d'éviter que d'autres appareils à
proximité puissent accéder à ce réseau privé.

Il est important de sécuriser aussi ses cartes à puces, notamment avec des étuis RFID
pour sécuriser ses cartes bancaires. Ces étuis bloquent l'émission des données par la
carte à puce, empêchant une personne mal intentionnée d'utiliser la connectivité sans fil à
votre insu pour pirater les données qui sont stockées dans ces puces.

Il en va de même pour son smartphone et son ordinateur, ce sont dans ce cas les suites
Antivirus qui permettent de sécuriser vos appareils. Car ce ne sont pas les techniques
qui manquent aux pirates pour vous extorquer des informations sensibles qu'ils vont
ensuite utiliser pour vous arnaquer.

3.3. Problèmes de transmission


Les problèmes de transmission dans les systèmes de communication peuvent être
nombreux et variés, affectant la qualité et la fiabilité des données transmises. Ces
problèmes peuvent survenir à différents niveaux du système de communication, qu’il
s’agisse des câbles, des équipements de transmission, des protocoles ou des
interférences externes. Voici un aperçu des principaux problèmes de transmission qui
peuvent survenir, ainsi que leurs causes et leurs impacts :
3.3.1. Perte de signal (Atténuation)
Description :
L'atténuation désigne la réduction de la puissance d'un signal au fur et à mesure qu'il se
propage à travers un média de transmission. Elle est principalement causée par la

Note de cours d’Architecture Réseaux Ir Marc BOPEY


résistance du câble ou de l'air, qui absorbe l'énergie du signal et la dissipe sous forme de
chaleur.
Causes :
 Longue distance de transmission.
 Mauvais choix de câble pour la distance et la bande passante requises.
 Mauvaise qualité des câbles ou des connecteurs.
 Absorption de signal par des matériaux dans l'environnement (par exemple, dans
les réseaux sans fil).
Impact :
 Signal trop faible pour être correctement détecté par le récepteur.
 Risque d'erreurs de transmission, car le signal devient trop faible pour être
distingué du bruit.
Solutions :
 Utilisation de répéteurs ou d'amplificateurs pour renforcer le signal.
 Choix de câbles à faible atténuation ou de fibres optiques pour les longues
distances.
 Mise en place de réseaux sans fil maillés pour améliorer la portée des signaux
sans fil.

3.3.2. Interférences (Bruit)


Description :
Le bruit ou les interférences sont des signaux indésirables qui perturbent la transmission
d'informations. Il existe plusieurs types de bruit, tels que le bruit thermique, les
interférences électromagnétiques (EMI), et le bruit impulsionnel.
Causes :
 Sources externes d'EMI (équipements électroniques, moteurs, lignes électriques).
 Bruit thermique dans les circuits électroniques.
 Crosstalk ou diaphonie dans les câbles (par exemple, entre les paires torsadées).
 Phénomènes naturels comme la foudre ou les orages.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Impact :
 Distorsion du signal, erreurs de transmission.
 Perte de données ou réduction de la vitesse de transmission.
 Augmentation des taux d'erreur dans les réseaux sans fil, conduisant à une
rétention des données ou à des retransmissions.
Solutions :
 Blindage des câbles (STP, FTP, coaxiaux).
 Utilisation de filtrage pour éliminer les signaux indésirables.
 Séparation physique des câbles sensibles des sources de bruit.
 Mise en œuvre de modulation robuste et de codes de correction d'erreurs pour
atténuer les effets du bruit.

3.3.3. Distorsion
Description :
La distorsion se produit lorsque les différentes composantes d'un signal (fréquences,
amplitudes) subissent des modifications pendant la transmission, ce qui altère le signal
reçu.
Causes :
 Réflexions du signal sur des surfaces ou des équipements non adaptés (par
exemple, dans les câbles mal terminés ou mal connectés).
 Non-linéarité du système de transmission ou des composants électroniques.
 Effets de dispersion dans les fibres optiques ou les réseaux sans fil.
Impact :
 Le signal reçu diffère significativement du signal émis, rendant difficile ou
impossible la récupération des données correctes.
 Réduction de la qualité du signal et des performances globales du réseau.
Solutions :
 Utilisation de filtres pour corriger certaines formes de distorsion.
 Emploi de systèmes de compensation de dispersion, notamment dans les
réseaux de fibres optiques.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Alignement et calibration corrects des équipements pour minimiser les réflexions
et les erreurs de distorsion.

3.3.4. Attaque de congestion


Description :
La congestion dans un réseau se produit lorsque la demande de transmission de données
dépasse la capacité du réseau. Cela peut entraîner un goulot d'étranglement, où les
paquets de données sont retardés ou même perdus.
Causes :
 Surplus de trafic sur un segment de réseau particulier (par exemple, un routeur
ou une connexion Internet).
 Mauvaise gestion de la bande passante, avec des priorités de trafic non définies.
 Problèmes de capacité dans les points de concentration du réseau, comme les
commutateurs ou les routeurs.
Impact :
 Latence accrue, augmentant les délais de réponse.
 Perte de paquets, ce qui entraîne la nécessité de retransmettre les données et
donc une diminution de l'efficacité du réseau.
 Réduction de la bande passante effective, avec des connexions plus lentes.
Solutions :
 Mise en place de contrôles de congestion au niveau du protocole (par exemple,
TCP congestion control).
 QoS (Quality of Service) pour prioriser certains types de trafic (par exemple, les
vidéos ou les appels VoIP).
 Mise à niveau de l'infrastructure du réseau pour améliorer la capacité et la
résilience.

3.3.5. Pertes de données (Erreurs de transmission)


Description :
Les pertes de données sont des situations où les informations transmises ne parviennent
pas au destinataire, soit en raison de la corruption du signal, soit en raison de la perte de
paquets pendant la transmission.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
Causes :
 Interférences et bruit pendant la transmission, dégradant l'intégrité du signal.
 Saturation du réseau qui empêche la livraison de certains paquets.
 Mauvaise qualité des câbles ou des connexions.
Impact :
 Les données ne sont pas correctement reçues, nécessitant leur retransmission, ce
qui affecte la performance et l'efficacité du réseau.
 Potentiel de corruption de données dans les applications sensibles à l'intégrité
des informations (par exemple, les applications bancaires ou de transfert de
fichiers).
Solutions :
 Utilisation de protocoles de correction d'erreurs (comme CRC, FEC).
 Redondance des données pour permettre la retransmission des paquets perdus.
 Surveillance continue du réseau pour détecter les points de défaillance et réduire
les erreurs.

3.3.6. Retards (Latence)


Description :
La latence fait référence au délai entre l'envoi d'un signal et sa réception. Elle est
particulièrement importante dans les applications en temps réel, comme les
communications VoIP, les jeux en ligne ou les applications vidéo.
Causes :
 Longues distances de transmission (par exemple, dans les réseaux satellites).
 Congestion ou goulots d'étranglement dans le réseau.
 Protocoles de transmission qui introduisent des délais supplémentaires, tels que
l'attente des confirmations dans TCP.
Impact :
 Expérience utilisateur dégradée, notamment dans les communications interactives.
 Dans les systèmes de contrôle en temps réel, des délais excessifs peuvent rendre
le système non fonctionnel.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Solutions :
 Optimisation de l'infrastructure pour réduire la distance physique entre les points
de communication.
 Utilisation de protocoles de communication asynchrone pour réduire la latence
dans les communications bidirectionnelles.
 Mise en place de réseaux à faible latence et d'accélérateurs de réseau pour les
applications sensibles au temps.

Conclusion
Les problèmes de transmission peuvent affecter la performance des réseaux de
manière significative. De la perte de signal à la congestion, en passant par les erreurs
de transmission et la latence, ces problèmes peuvent perturber l'efficacité de tout
système de communication. Heureusement, il existe plusieurs stratégies pour atténuer ces
problèmes, notamment l'utilisation de technologies de correction d'erreurs,
l'amélioration de l'infrastructure réseau, et l'optimisation des protocoles de transmission.
L'objectif est de garantir une transmission de données fiable et rapide dans tous les types
de réseaux.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


CHAPITRE 4 : COUCHE LIAISON DE DONNEES
La couche liaison de données, également appelée « data link layer », est le deuxième
niveau du modèle OSI. Elle assure la transmission fiable et optimisée des données entre
deux nœuds sur un réseau local, en organisant les données en trames structurées. Cette
couche gère également les erreurs de transmission et la synchronisation des trames de
données.

4.1. ROLE DE LA COUCHE LIAISON DE DONNEES


La couche liaison de données a pour objet le transfert des données sur les liaisons
physiques du réseau. Sur un réseau, le commutateur redirige les messages de données
au niveau de la couche 2, et ce au moyen d’une adresse MAC qui détermine la destination
du message.
La couche liaison de données, ou couche 2, est la deuxième couche du modèle OSI. Elle
est responsable de la transmission de données entre les équipements situés sur le même
segment de réseau. Son rôle principal est de fournir un accès au support physique pour
les couches supérieures.
Le protocole utilisé par la couche liaison de données est le protocole de liaison de données
(LLC). Ce protocole est responsable de la gestion des connexions logiques entre les
équipements. Il s’agit d’un protocole orienté connexion qui garantit la fiabilité de la
transmission des données.
Les sous-couches de la couche liaison de données sont la sous-couche de contrôle de
liaison logique (LLC) et la sous-couche de contrôle d’accès au support (MAC). La sous-
couche LLC est responsable de la gestion des connexions logiques entre les équipements.
Elle assure la séparation des données du niveau réseau et du niveau liaison de données
et la gestion des erreurs de transmission. La sous-couche MAC est responsable de la
gestion des accès au support physique et de la transmission des trames de données.
Chaque couche du modèle OSI a un rôle spécifique à jouer dans la transmission des
données. La couche 1, ou couche physique, est responsable de la transmission des
signaux électriques ou optiques sur le support physique. La couche 2, ou couche liaison
de données, est responsable de la transmission des données entre les équipements situés
sur le même segment de réseau. La couche 3, ou couche réseau, est responsable de la
transmission des données entre les équipements situés sur des segments de réseau
différents. La couche 4, ou couche transport, est responsable de la transmission des
données entre les applications.
La sous-couche de contrôle de liaison logique (LLC) est responsable de la gestion des
connexions logiques entre les équipements. Elle s’assure que les données sont

Note de cours d’Architecture Réseaux Ir Marc BOPEY


transmises de manière fiable et ordonnée. Elle est également responsable de la gestion
des erreurs de transmission et de la récupération des données perdues.
Les deux déclarations qui décrivent les services fournis par la couche de liaison de
données sont la gestion des accès au support physique et la gestion des erreurs de
transmission. La couche liaison de données est responsable de la gestion des accès au
support physique en garantissant que les équipements ne transmettent pas des trames de
données simultanément. Elle est également responsable de la gestion des erreurs de
transmission en détectant et en corrigeant les erreurs de transmission.
4.2. CONTROLE D'ERREUR (CRC, PARITE)
4.3. PROTOCOLES DE LIAISON (HDLC, PPP)
HDLC et PPP sont tous deux des protocoles de couche de liaison de données. HDLC
(contrôle de liaison de données de haut niveau) est un protocole de communication utilisé
au niveau de la couche liaison de données des réseaux informatiques, développé par l'ISO
(organisation internationale de normalisation). PPP est un protocole de couche de liaison
de données basé sur HDLC et très similaire à HDLC. Les deux sont des protocoles WAN
(Wide Area Network) et fonctionnent bien pour connecter des lignes louées point à point.

QU'EST-CE QUE HDLC??


HDLC n’est apparue que lorsque IBM a soumis le SDLC à divers comités de normalisation,
dont l’un (ISO) a modifié le SDLC et créé le protocole HDLC. HDLC est considéré comme
un sur-ensemble compatible de SDLC. C'est un protocole synchrone orienté bit. HDLC
prend en charge le fonctionnement en duplex intégral synchrone. HDLC a une option pour
la somme de contrôle 32 bits et HDLC prend en charge les configurations point à point et
multipoint. HDLC identifie le type de nœud «principal», qui contrôle les autres stations
appelées nœuds «secondaires». Seul un nœud principal contrôlera les nœuds
secondaires. HDLC prend en charge trois modes de transfert et ils sont comme suit. Le
premier est le mode de réponse normal (NRM) dans lequel les nœuds secondaires ne
peuvent pas communiquer avec un primaire tant que le primaire n’a pas donné son
autorisation. Deuxièmement, le mode de réponse asynchrone (ARM) permet aux nœuds
secondaires de parler sans l'autorisation du principal. Enfin, il a le mode équilibré
asynchrone (ABM), qui introduit un nœud combiné, et toutes les communications ABM ont
lieu uniquement entre ces types de nœuds..

QU'EST-CE QUE LE PPP??


Comme mentionné ci-dessus, PPP est un protocole de couche de liaison de données basé
sur HDLC et très similaire à HDLC. Il est utilisé pour la communication directe entre deux

Note de cours d’Architecture Réseaux Ir Marc BOPEY


nœuds. La confidentialité, l’authentification et la compression du cryptage de transmission
sont fournies par PPP. L'authentification est fournie par le protocole PAP (Password
Authentication Protocol) et plus communément par les protocoles CHAP (Challenge
Handshake Protocol). Il est utilisé pour divers types de réseaux constitués de différents
supports physiques, tels qu'une ligne principale, des fibres optiques, un câble série, un
téléphone cellulaire et une ligne téléphonique. Il est très populaire parmi les fournisseurs
de services Internet (Internet Service Providers) comme moyen de fournir aux clients un
accès commuté à Internet. Pour fournir des services DSL (ligne d'abonné numérique) à
leurs clients, les fournisseurs de services utilisent le protocole POPoE (protocole point à
point sur Ethernet) et le protocole point à point sur ATM (POPoA), qui sont deux formes
encapsulées de PPP. PPP est utilisé à la fois pour les circuits synchrones et asynchrones.
Il fonctionne avec différents protocoles de réseau tels que IP (Internet Protocol), IPX
(Internetwork Packet Exchange), NBF et AppleTalk. Les connexions à large bande utilisent
également PPP. Bien que PPP ait été conçu quelque peu après les spécifications HDLC
d'origine, PPP inclut de nombreuses fonctionnalités supplémentaires qui n'étaient
disponibles que dans les protocoles de liaison de données propriétaires à ce moment-là..
Bien que HDLC et PPP soient des protocoles de couche de liaison de données WAN très
similaires utilisés pour les communications point à point, ils ont leurs différences.
Contrairement à HDLC, PPP n'est pas propriétaire lorsqu'il est utilisé dans un routeur
Cisco. Plusieurs sous-protocoles constituent la fonctionnalité de PPP. PPP est riche en
fonctionnalités avec des fonctionnalités réseau à distance et est largement utilisé par les
fournisseurs de services Internet pour fournir Internet à leurs clients. Contrairement à
HDLC, PPP peut être utilisé avec des connexions synchrones et asynchrones.

4.4. TECHNOLOGIES LAN (ETHERNET, VLAN)


LAN est l’abréviation de Local Area Network. Elle désigne les réseaux avec une étendue
spatiale limitée. La plupart du temps, les LAN sont utilisés dans les domiciles privés ou
dans des entreprises pour mettre en place un réseau local ou un réseau d’entreprise. Ils
permettent aux différents appareils de communiquer les uns avec les autres. Sans un tel
réseau, l’échange de données serait impossible.
Un réseau local est composé d’au moins deux appareils, mais peut également connecter
plusieurs milliers d’appareils. Si des distances importantes doivent être couvertes, on
utilise alors plutôt des réseaux métropolitains ou des réseaux étendus. Un Local Area
Network peut connecter des ordinateurs, des smartphones, des imprimantes, des
scanners, des périphériques de stockage, des serveurs et d’autres appareils en réseau
entre eux et avec Internet. Prenons un exemple : si une imprimante est connectée à un
ordinateur à l’aide d’un câble USB, seul ce PC peut en principe y accéder. En revanche,

Note de cours d’Architecture Réseaux Ir Marc BOPEY


si l’on intègre l’imprimante dans un réseau, plusieurs appareils du foyer pourront utiliser
l’imprimante.
 Ethernet permet d’atteindre des taux de transfert de données de plusieurs
centaines de Go/s. Cette technologie utilise un câble paire torsadée ou un câble en
fibre (méthode la plus récente). Alors que les traditionnels câbles en cuivre
permettent de couvrir 100 mètres au maximum, les câbles en fibre peuvent
s’étendre sur plusieurs kilomètres. Afin de garantir que les données sont
effectivement transmises via le câble et ne se bloquent pas mutuellement, on utilise
par exemple la technologie CSMA/CD. Dans le cas d’un réseau local sans fil dans
lequel les paquets de données sont transmis via un signal radio, on utilise
le CSMA/CA.
Un réseau local Ethernet peut être divisé en plusieurs LAN virtuels (VLAN) ou plusieurs
LAN physiques. Cette division virtuelle permet aux administrateurs de partitionner des
réseaux sans devoir apporter de grandes modifications à l’infrastructure.
Pour diviser les Local Area Networks, on utilise des commutateurs et des routeurs. Ce
matériel servant d’interface assure la connexion entre les différents participants au réseau
et veille à ce que les paquets de données atteignent leur destination. La connexion est
également effectuée via un routeur lorsque des données doivent être transmises depuis
un réseau local sur Internet ou lorsque des informations doivent être consultées auprès de
plusieurs réseaux ou centres de calcul. Les répéteurs et les hubs, qui assuraient des
tâches similaires par le passé, ne sont plus guère utilisés dans les réseaux locaux
modernes.
Des composants physiques sont également nécessaires pour créer un LAN tels que des
câbles réseau, des prises réseau et des patchs réseau. Ils relient les différents appareils
au serveur et permettent aux administrateurs réseau et aux administrateurs locaux
d’installer correctement le réseau, que ce soit au bureau ou au domicile.
 Un réseau local virtuel, communément appelé VLAN (pour Virtual LAN), est
un réseau informatique logique indépendant. De nombreux VLAN peuvent
coexister sur un même commutateur réseau ou « switch ».

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Note de cours d’Architecture Réseaux Ir Marc BOPEY
4.5. Travaux pratiques : configuration de commutateurs et VLAN

Note de cours d’Architecture Réseaux Ir Marc BOPEY


CHAPITRE 5 : COUCHE RESEAU
La « couche réseau » est la partie du processus de communication Internet où ces
connexions se produisent, en envoyant des paquets de données dans les deux sens entre
différents réseaux. Dans le modèle OSI à 7 couches (voir ci-dessous), la couche réseau
est la couche 3.

Ce sont les connexions de réseau à réseau qui rendent Internet possible. La « couche
réseau » est la partie du processus de communication Internet où ces connexions se
produisent, en envoyant des paquets de données dans les deux sens entre différents
réseaux.

Dans le modèle OSI à 7 couches (voir ci-dessous), la couche réseau est la couche 3.
L'Internet Protocol (IP) est l'un des principaux protocoles utilisés au niveau de cette
couche, avec plusieurs autres protocoles de routage, de tests et de chiffrement.

Imaginons que Bob et Alice soient connectés au même réseau local (LAN), et que Bob
veuille envoyer un message à Alice. Bob étant connecté au même réseau qu'Alice, il
pourrait l'envoyer directement à son ordinateur. En revanche, si Alice est connectée à un
autre réseau local distant de plusieurs kilomètres, le message de Bob devra être adressé
et envoyé au réseau d'Alice avant qu'il ne puisse atteindre son ordinateur, ce qui relève
de la couche réseau.

QU'EST-CE QU'UN RESEAU ?

Un réseau est un ensemble composé de deux ou plusieurs appareils informatiques


connectés. La plupart du temps, tous les appareils du réseau sont connectés à un hub (ou
concentrateur) central, par exemple un routeur. Le réseau peut également comprendre
des sous-réseaux, c'est-à-dire des sous-divisions du réseau, plus petites. Les réseaux
particulièrement étendus, comme ceux des FAI, s'appuient sur ces sous-divisions pour
gérer les milliers d'adresses IP et d'appareils connectés.

Songez à Internet comme à un réseau de réseaux : les ordinateurs sont reliés entre eux
au sein de réseaux, et ces réseaux se connectent à d'autres réseaux. Cela permet à ces
ordinateurs de se connecter à d'autres ordinateurs, qu'ils soient proches ou distants.

QUE SE PASSE-T-IL AU NIVEAU DE LA COUCHE RESEAU ?

Tout ce qui a trait aux connexions inter-réseaux a lieu au niveau de la couche réseau. Cela
comprend la configuration des itinéraires que les paquets de données doivent emprunter,

Note de cours d’Architecture Réseaux Ir Marc BOPEY


la vérification de la disponibilité d'un serveur dans un autre réseau, ainsi que l'envoi et la
réception de paquets IP provenant d'autres réseaux. Ce dernier processus est peut-être
le plus important, car la grande majorité du trafic Internet passe par des adresses IP.

QU'EST-CE QU'UN PAQUET ?

Toutes les données envoyées sur Internet sont décomposées en petits morceaux appelés
« paquets ». Lorsque Bob envoie par exemple un message à Alice, son message est
décomposé en petits morceaux puis reconstitué sur l'ordinateur d'Alice. Les paquets sont
divisés en deux parties : l'en-tête, qui contient des informations sur le paquet lui-même, et
le corps, qui contient les données envoyées.

Au niveau de la couche réseau, les logiciels de mise en réseau ajoutent un en-tête à


chaque paquet lorsque celui-ci est envoyé sur Internet, et à l'autre extrémité, les logiciels
de réseau peuvent utiliser cet en-tête pour comprendre comment traiter le paquet.

L'en-tête contient des informations sur le contenu, la source et la destination de chaque


paquet (un peu comme lorsqu on affranchit une enveloppe en indiquant l'adresse du
destinataire et celle de l'expéditeur). Un en-tête IP contien par exemple l'adresse IP de
destination1 de chaque paquet, la taille totale du paquet, la mention indiquant si le paquet
a été ou non fragmenté (découpé en morceaux plus petits) pendant le transit et le nombre
de réseaux par lesquels le paquet a transité.

QU’EST-CE QUE LE MODELE OSI ?

Le modèle OSI (Open Systems Interconnection) décrit le fonctionnement d'internet. Il


décompose en sept couches les fonctions liées à l'envoi de données sur Internet. Chaque
couche a une fonction qui prépare les données à envoyer via des lignes, des câbles et des
ondes radio sous la forme d'une série de bits.

Voici les sept couches du modèle OSI :

 7. Couche applicative : les données générées et utilisables par les applications


logicielles. Le protocole principalement utilisé au niveau de cette couche est
le HTTP.
 6. Couche de présentation : cette couche assure la traduction des données sous
une forme acceptable par l'application. Certaines autorités considèrent que les
opérations de chiffrement et déchiffrement HTTPS ont lieu au niveau de cette
couche.
 5. Couche de session : cette couche contrôle les connexions entre les ordinateurs
(ce contrôle peut également être traité au niveau de la couche 4 par le protocole
TCP).

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 4. Couche de transport : cette couche permet de transmettre des données de
bout en bout entre les deux parties connectées et de contrôler la qualité du service.
Les principaux protocoles utilisés ici sont le TCP et l'UDP.
 3. Couche réseau : elle gère le routage et l'envoi de données entre différents
réseaux. Les protocoles les plus importants utilisés au niveau de cette couche sont
l'IP et l'ICMP.
 2. Couche de liaison de données : cette couche gère les communications entre
les appareils présents sur le même réseau. Si la couche 3 est comparable à
l'adresse figurant sur un courrier, la couche 2 correspond au numéro du bureau ou
de l'appartement situé à cette adresse. Le protocole le plus utilisé ici est l'Ethernet.
 1. Couche physique : les paquets sont ici convertis en impulsions électriques,
radio ou optiques et transmis sous forme de bits (la plus petite quantité
d'information utilisable) par l'intermédiaire de lignes, d'ondes radio ou de câbles.

Il convient de garder à l'esprit que le modèle OSI constitue une représentation conceptuelle
et abstraite des processus qui font fonctionner Internet, et que l'interprétation et
l'application du modèle à la réalité d'Internet est parfois un exercice subjectif.

Le modèle OSI permet de faciliter les discussions concernant les équipements et les
protocoles de réseau, de déterminer quels protocoles sont utilisés par quels logiciels et
quels équipements, et de décrire grossièrement le fonctionnement d'internet. Toutefois, il
ne s'agit pas d'une définition stricte et précise de la manière dont fonctionnent les
connexions Internet.

5.1. ROLE DE LA COUCHE RESEAU


La couche réseau est responsable de l'acheminement des données à travers un réseau
en identifiant les chemins les plus efficaces entre les différents périphériques. Elle assure
également le contrôle de la congestion, la segmentation des données en paquets et la
prise en charge du routage.
Plus précisément, la couche réseau a pour rôle de :
1. Identifier les différents périphériques connectés au réseau grâce à des adresses IP
uniques.
2. Déterminer le chemin optimal pour acheminer les données vers leur destination en
utilisant des protocoles de routage tels que le protocole IP (Internet Protocol).
3. Diviser les données en paquets pour faciliter leur transmission à travers le réseau.
4. Assurer la fiabilité de la transmission des données en gérant les erreurs
éventuelles.
5. Gérer la congestion du réseau en régulant le flux de données et en évitant les
goulets d'étranglement.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


6. Contrôler le flux de données en régulant la vitesse de transmission pour éviter la
perte de données.
En résumé, la couche réseau joue un rôle essentiel dans la transmission des données à
travers un réseau en assurant un cheminement efficace, fiable et sécurisé des
informations.

5.2. ADRESSAGE IP (IPV4, IPV6, SOUS-RESEAUX)


L'adressage IP est un système qui permet d'identifier chaque appareil connecté à un
réseau informatique utilisant le protocole Internet (IP). Voici quelques points clés :
 Une adresse IP est un numéro d'identification unique attribué à chaque
périphérique sur un réseau.
 L'adressage IP se compose généralement de quatre ensembles de nombres
décimaux, chacun séparé par des points.
 Il existe deux versions principales d'adresses IP : IPv4 et IPv6, où IPv4 utilise 32
bits et IPv6 utilise 128 bits pour permettre un plus grand nombre d'adresses.
 L'adressage IP permet aux appareils de communiquer entre eux sur le réseau.
 En résumé, l'IP est essentielle pour le fonctionnement des réseaux modernes, car
elle permet d'identifier et de localiser les appareils sur Internet.
5.2.1 ADRESSAGE IPV4
Une adresse IPv4 (Internet Protocol version 4) est une identification unique pour un hôte
sur un réseau IP.
Une adresse IP est un nombre d’une valeur de 32 bits représentée par 4 valeurs décimales
pointées ; chacune a un poids de 8 bits (1 octet) prenant des valeurs décimales de 0 à 255
séparées par des points. La notation est aussi connue sous le nom de “décimale pointée”.

IDENTIFICATION DE LA CLASSE D’ADRESSE


À l’origine d’IPv4, on distingue une organisation en classes d’adresses dont les quatre
premiers bits indiquent la classe.
 Les adresses de Classe A commencent par 0xxx en binaire, ou 0 à 127 en décimal.
 Les adresses de Classe B commencent par 10xx en binaire, ou 128 à 191 en
décimal.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Les adresses de Classe C commencent par 110x en binaire, ou 192 à 223 en
décimal.
 Les adresses de Classe D commencent par 1110 en binaire, ou 224 à 239 en
décimal.
 Les adresses de Classe E commencent par 1111 en binaire, ou 240 à 255 en
décimal.
Notes sur les Classes d’adresses :
 Seules les adresses de Classes A, B et C sont assignables à des interfaces
 La classe D est utilisée pour des adresses de Multicast (adresse unique identifiant
de nombreuses destinations)
 La classe E est utilisée pour des besoins futurs ou des objectifs scientifiques

Lorsque l'on parle d'adresses IP, il existe plusieurs classes d'adresses définies pour
organiser l'allocation des adresses et leur utilisation dans les réseaux. Les classes A, B et
C sont celles qui peuvent être assignées à des interfaces sur des dispositifs réseau
(comme des routeurs, des ordinateurs, des serveurs, etc.), tandis que d'autres classes,
comme la classe D (multicast) et la classe E (réservée pour des usages futurs ou
expérimentaux), ont des rôles spécifiques et ne peuvent pas être assignées à des
interfaces réseau.
Voici un détail des classes A, B et C ainsi que la raison pour laquelle seules ces classes
sont assignables aux interfaces :
1. CLASSE A (ADRESSES PUBLIQUES)
 Plage : [Link] à [Link]
 Utilisation : Les adresses de la classe A sont utilisées pour les grands réseaux,
souvent attribuées à des organisations ou des fournisseurs d'accès qui nécessitent
un grand nombre d'adresses IP.
 Assignabilité : Une adresse de classe A peut être assignée à des interfaces
réseau dans un réseau ayant besoin d'un grand espace d'adresses (plus de 16
millions d'adresses).
 Masque de sous-réseau : Le masque par défaut est [Link], ce qui signifie que
seuls les 8 premiers bits de l'adresse sont utilisés pour le réseau, permettant une
grande quantité d'adresses d'hôtes.
2. CLASSE B (ADRESSES PUBLIQUES)
 Plage : [Link] à [Link]

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Utilisation : La classe B est utilisée pour des réseaux de taille moyenne, offrant
une quantité plus raisonnable d'adresses IP, généralement entre 65 000 et 130 000
adresses.
 Assignabilité : Une adresse de classe B peut être assignée à des interfaces dans
des réseaux ayant des besoins modérés en nombre d'adresses (entre 65 000 et
130 000 hôtes).
 Masque de sous-réseau : Le masque par défaut est [Link], ce qui signifie
que 16 bits sont utilisés pour le réseau et 16 bits pour les adresses d'hôtes.
3. CLASSE C (ADRESSES PUBLIQUES)
 Plage : [Link] à [Link]
 Utilisation : La classe C est utilisée pour des réseaux plus petits, généralement
pour des entreprises ou des organisations qui ont besoin de quelques centaines
d'adresses IP.
 Assignabilité : Une adresse de classe C peut être assignée à des interfaces dans
des réseaux qui nécessitent un nombre relativement faible d'adresses IP (jusqu'à
254 hôtes par réseau).
 Masque de sous-réseau : Le masque par défaut est [Link], ce qui signifie
que 24 bits sont utilisés pour le réseau et 8 bits pour les adresses d'hôtes.
4. CLASSES D ET E : NON ASSIGNABLES AUX INTERFACES
 Classe D (Multicast) :
o Plage : [Link] à [Link]
o Utilisation : Ces adresses sont réservées pour les communications
multicast, c'est-à-dire l'envoi de données à un groupe spécifique d'appareils.
Elles ne peuvent donc pas être assignées à des interfaces pour une
communication unicast.
 Classe E (Réservée) :
o Plage : [Link] à [Link]
o Utilisation : Ces adresses sont réservées à des fins expérimentales et
futures. Elles ne sont pas assignables aux interfaces pour une utilisation
réseau standard.
5. POURQUOI SEULES LES CLASSES A, B ET C SONT ASSIGNABLES ?
Les classes A, B et C sont celles qui sont destinées à l'assignation d'adresses IP à des
interfaces réseau pour un usage classique, car elles sont conçues pour répondre aux

Note de cours d’Architecture Réseaux Ir Marc BOPEY


besoins de réseaux de taille petite, moyenne ou grande. Ces classes sont subdivisées
en un réseau et des hôtes, ce qui permet de configurer une interface avec une adresse
unique et de l'utiliser dans des réseaux fonctionnels.
 Classe A : Pour les grands réseaux avec un nombre d'hôtes très élevé.
 Classe B : Pour les réseaux de taille moyenne avec un nombre raisonnable
d'hôtes.
 Classe C : Pour les petits réseaux avec un nombre limité d'hôtes.
Les classes D et E, en revanche, ne sont pas destinées à l'assignation d'adresses à des
interfaces réseau :
 Classe D (multicast) est utilisée uniquement pour la gestion de groupes multicast.
Elle permet à plusieurs récepteurs d'un groupe spécifique de recevoir les mêmes
données.
 Classe E (réservée) est réservée pour de futurs usages expérimentaux et n'est
donc pas assignée à des interfaces réseau.
En résumé, seules les adresses des classes A, B et C peuvent être assignées à des
interfaces réseau pour une utilisation classique. Elles sont adaptées aux besoins variés
des réseaux, de taille petite à grande. Les classes D et E sont réservées à d'autres usages
comme le multicast et les expérimentations, ce qui explique pourquoi elles ne peuvent
pas être assignées à des interfaces réseau pour une communication régulière.

COMPREHENSION DETAILLE DE LA CLASSE D


La classe D des adresses IP est réservée pour les adresses de multicast. Pour
comprendre ce que cela signifie, il faut d'abord saisir le concept de multicast et comment
les adresses IP sont organisées.
1. QU'EST-CE QUE LE MULTICAST ?
Le multicast est une méthode de communication où des données sont envoyées à un
groupe spécifique d'appareils en même temps, plutôt qu'à une seule machine (unicast)
ou à toutes les machines d'un réseau (broadcast). Cela permet d'envoyer des
informations à plusieurs récepteurs sans saturer le réseau avec des copies multiples des
mêmes données.
2. Classe D : Réservation pour le Multicast
Les adresses IP sont divisées en plusieurs classes, selon leur plage d'adresses. La classe
D est spécifiquement réservée pour les adresses multicast et va de [Link] à
[Link].

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Voici quelques caractéristiques importantes :
 Plage d'adresses : Les adresses de multicast commencent à [Link] et vont
jusqu'à [Link].
 Format binaire : Une adresse de classe D commence toujours par les 4 premiers
bits égaux à 1110. Cela permet de les distinguer des autres classes d'adresses.
3. POURQUOI UTILISER LE MULTICAST ?
Le multicast est utilisé pour optimiser l'envoi de données à plusieurs récepteurs. Au lieu
d'envoyer plusieurs copies du même message à chaque destinataire (ce qui prendrait
beaucoup de bande passante), un seul message est envoyé à un groupe d'appareils (les
membres du groupe multicast). Seuls les récepteurs qui font partie de ce groupe reçoivent
les données.
4. EXEMPLES D'UTILISATION DU MULTICAST
 Diffusion en direct : Lors d'un événement en streaming (comme un match de sport
en direct ou une conférence), la vidéo peut être envoyée à tous les spectateurs
simultanément via multicast, ce qui réduit la charge sur les serveurs et le réseau.
 Mise à jour logicielle : Des entreprises peuvent utiliser le multicast pour envoyer
une mise à jour logicielle à plusieurs machines en même temps, réduisant ainsi la
bande passante utilisée.
 Vidéoconférences : Pour une conférence en ligne avec plusieurs participants, le
multicast permet de diffuser le contenu vidéo et audio à tous les participants
simultanément.
5. PROTOCOLES ASSOCIES AU MULTICAST
 IGMP (Internet Group Management Protocol) : Ce protocole permet de gérer les
groupes multicast au sein d'un réseau. Par exemple, un hôte utilise IGMP pour
rejoindre ou quitter un groupe multicast.
 PIM (Protocol Independent Multicast) : Ce protocole est utilisé pour le routage
des paquets multicast entre différents réseaux.
6. AVANTAGES DU MULTICAST
 Efficacité de la bande passante : En envoyant un seul paquet à plusieurs
récepteurs, le multicast permet de réduire l'utilisation de la bande passante par
rapport à l'envoi de multiples copies d'un même paquet.
 Optimisation des ressources réseau : Contrairement au broadcast, qui envoie
des données à tous les appareils d'un réseau, le multicast envoie des données
uniquement aux appareils intéressés.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Conclusion
La classe D d'adresses IP est utilisée pour le multicast, permettant d'envoyer des
données à un groupe spécifique d'appareils de manière plus efficace et économique en
termes de bande passante. Les adresses multicast dans la plage [Link] à
[Link] sont réservées à cet usage, et des protocoles comme IGMP et PIM sont
utilisés pour gérer les groupes multicast et le routage des paquets.

Le masque de sous-réseau joue un rôle crucial dans l'organisation et la gestion des


réseaux informatiques. Il permet de diviser un réseau IP en sous-réseaux plus petits,
facilitant ainsi la gestion des adresses IP et améliorant l'efficacité du routage des paquets
de données. Voici une explication détaillée de pourquoi le masque de sous-réseau est
nécessaire dans un réseau :
1. DEFINIR LES PARTIES RESEAU ET HOTE D'UNE ADRESSE IP
Une adresse IP est composée de deux parties principales :
 La partie réseau : Cette partie identifie le réseau auquel appartient l'hôte (un
ordinateur, un serveur, un routeur, etc.).
 La partie hôte : Cette partie identifie un hôte spécifique au sein de ce réseau.
Le masque de sous-réseau sert à déterminer quelle partie de l'adresse IP est utilisée
pour le réseau et quelle partie est utilisée pour l'hôte. Il est constitué de bits à 1 pour la
partie réseau et de bits à 0 pour la partie hôte.
Par exemple :
 Adresse IP : [Link]
 Masque de sous-réseau : [Link]
En binaire :
 Adresse IP : 11000000.10101000.00000001.01100100
 Masque de sous-réseau : 11111111.11111111.11111111.00000000
Dans cet exemple, les 24 premiers bits de l'adresse sont utilisés pour le réseau, et les 8
derniers bits sont utilisés pour identifier l'hôte dans ce réseau.
2. POURQUOI AVOIR BESOIN DE SOUS-RESEAUX ?
Le masque de sous-réseau permet de créer plusieurs sous-réseaux à partir d'un seul
réseau. Voici pourquoi cette segmentation est importante :

Note de cours d’Architecture Réseaux Ir Marc BOPEY


a. Optimisation de l'utilisation des adresses IP
 Économiser de l'espace d'adressage : Au lieu de créer un énorme réseau unique
pour tout un organisme, le masque de sous-réseau permet de diviser un réseau en
sous-réseaux plus petits, chacun ayant un nombre d'adresses limité. Cela permet
d'optimiser l'utilisation des adresses disponibles, en fonction des besoins
spécifiques de chaque département ou segment du réseau.
 Par exemple, une entreprise peut créer plusieurs sous-réseaux pour chaque
département (Finance, Ressources humaines, IT, etc.), afin de mieux gérer les
ressources et de ne pas gaspiller des adresses IP dans des réseaux de grande
taille.
b. Amélioration de la performance du réseau
 Réduction de la taille des tables de routage : Le routage dans un réseau devient
plus efficace lorsque les sous-réseaux sont bien définis, car cela permet de réduire
la taille des tables de routage. Le masque de sous-réseau permet aux routeurs de
connaître les sous-réseaux et d'envoyer les paquets aux bons endroits, sans avoir
à traiter des informations inutiles.
 Contrôle de la diffusion des paquets : En divisant un grand réseau en sous-
réseaux plus petits, les paquets de diffusion (broadcast) sont limités à un sous-
réseau spécifique. Cela réduit le trafic inutile dans d'autres parties du réseau,
améliorant ainsi la performance globale.
c. Sécurité et gestion des accès
 Isolation des sous-réseaux : En segmentant le réseau avec des sous-réseaux,
on peut appliquer des politiques de sécurité spécifiques à chaque sous-réseau. Par
exemple, le sous-réseau des finances peut avoir des règles d'accès plus strictes
que celui des départements non sensibles.
 Cela aide également à limiter les communications entre les sous-réseaux, ce qui
peut être utile pour des raisons de sécurité.

5.2.2 ADRESSAGE IPV6


L'adressage IPv6 est la version la plus récente du protocole Internet, succédant à IPv4,
qui est de plus en plus limité en raison du nombre d'adresses disponibles. IPv6 a été conçu
pour résoudre la pénurie d'adresses IPv4 et pour offrir une plus grande efficacité dans la
gestion des réseaux.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


1. STRUCTURE D'UNE ADRESSE IPV6
Une adresse IPv6 est composée de 128 bits, répartis en 8 blocs de 16 bits chacun (soit
4 chiffres hexadécimaux par bloc). Cela permet de définir une quantité extrêmement
large d'adresses, bien plus que les 32 bits d'IPv4.
 Notation hexadécimale : Chaque bloc de 16 bits est écrit en hexadécimal, séparé
par des deux-points (:). Par exemple :
 [Link]
Cette adresse est représentée par 8 blocs hexadécimaux, chacun ayant 4 chiffres.
2. SIMPLIFICATION DE LA NOTATION
Pour faciliter la lecture des adresses IPv6 longues, plusieurs règles de simplification
peuvent être appliquées :
 Suppression des zéros à gauche : Les zéros à gauche de chaque bloc peuvent
être omis. Par exemple, 0000 devient simplement 0.
Exemple : [Link] devient
[Link].
 Compression des blocs de zéros continus : Si plusieurs blocs de zéros sont
présents successivement, ils peuvent être compressés en un double deux-points
(::). Cependant, cette simplification ne peut être utilisée qu'une seule fois dans une
adresse pour éviter toute ambiguïté. Exemple : [Link] peut être écrit
comme [Link].
3. Exemple d'adresse IPv6
Voici un exemple complet d'adresse IPv6 avec toutes les simplifications appliquées :
 Adresse IPv6 complète : [Link]
 Adresse IPv6 simplifiée : [Link]
4. Types d'adresses IPv6
Il existe plusieurs types d'adresses IPv6, chacune ayant un rôle spécifique dans le routage
et la communication réseau :
 Adresse unicast : Une adresse unicast désigne un seul hôte dans le réseau. Cela
permet la communication de point à point.
Exemple : [Link] (désigne un seul hôte spécifique sur le réseau).
 Adresse multicast : Une adresse multicast désigne un groupe d'hôtes. Les
paquets envoyés à une adresse multicast sont reçus par tous les hôtes appartenant
à ce groupe.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Exemple : FF00::/8 (plage d'adresses multicast).
 Adresse anycast : Une adresse anycast désigne un groupe d'hôtes, mais le
paquet est envoyé au premier hôte disponible du groupe selon les critères de
routage. Cela est souvent utilisé pour améliorer la redondance et la résilience des
services.
Exemple : une adresse anycast peut être utilisée pour des serveurs DNS.
 Adresse link-local : Ces adresses sont utilisées pour la communication locale sur
un réseau spécifique (généralement un réseau local) et ne sont pas routables sur
Internet. Elles sont souvent utilisées pour la configuration automatique des
appareils et la découverte de voisins.
Exemple : fe80::/10 (plage d'adresses link-local).
 Adresse global unicast : Une adresse globale unicast est une adresse unique sur
Internet. Elle peut être routée à travers le monde entier, tout comme une adresse
publique IPv4. Elle commence par un préfixe 2000::/3 (par exemple,
[Link]/32).
Exemple : [Link]/32 est un préfixe d'adresse global unicast.
5. Préfixes IPv6
Les adresses IPv6 sont souvent assignées avec un préfixe, qui indique la portion de
l'adresse qui appartient au réseau. Le préfixe est similaire au masque de sous-réseau en
IPv4.
 Global unicast : Le préfixe d'une adresse global unicast est souvent 2000::/3, ce
qui signifie que les 3 premiers bits de l'adresse sont fixés à 001.
 Link-local : Le préfixe pour les adresses link-local est fe80::/10. Cela signifie que
toutes les adresses commençant par fe80 à febf sont des adresses link-local.
 Multicast : Le préfixe pour les adresses multicast est ff00::/8, ce qui signifie que
toutes les adresses commençant par ff sont des adresses multicast.
6. Adresse de boucle locale (loopback)
En IPv6, l'adresse de boucle locale (localhost) est :
::1
C'est l'équivalent de [Link] en IPv4. Elle permet de tester la pile IPv6 sur une machine
sans passer par le réseau.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


7. Configuration automatique et état statique (SLAAC)
IPv6 permet aux appareils de se configurer automatiquement en utilisant un mécanisme
appelé SLAAC (Stateless Address Autoconfiguration). Lorsque vous connectez un
appareil à un réseau IPv6, il peut générer une adresse unique pour lui-même en combinant
le préfixe du réseau et un identifiant d'interface (généralement basé sur l'adresse MAC de
l'appareil).

8. Avantages de l'IPv6 par rapport à l'IPv4


 Plus grand espace d'adressage : Avec 128 bits, IPv6 peut supporter environ 340
undecillions (3.4×10^38) d'adresses, contre 4,3 milliards d'adresses IPv4 (32
bits).
 Simplification du routage : Le routage IPv6 est plus simple grâce à des adresses
hiérarchiques plus structurées.
 Sécurité intégrée : IPv6 a été conçu avec des fonctionnalités de sécurité telles
que IPsec (cryptage et authentification des données).
 Configuration automatique : La configuration automatique des adresses sans
serveur DHCP est possible via le mécanisme SLAAC.
 Support de la mobilité : IPv6 facilite la gestion de la mobilité des appareils
(exemple : téléphones mobiles).
9. Exemple complet d'adresse IPv6 avec adresse de réseau et sous-réseau
Supposons qu'une entreprise utilise le préfixe IPv6 [Link]/32. Voici comment
l'adressage pourrait être organisé pour des sous-réseaux :
1. Sous-réseau 1 : [Link]/48
2. Sous-réseau 2 : [Link]/48
3. Sous-réseau 3 : [Link]/48
Chaque sous-réseau peut ensuite être divisé en sous-sous-réseaux plus petits si
nécessaire.

Conclusion
L'IPv6 est conçu pour résoudre les limitations d'IPv4, notamment la pénurie d'adresses IP.
En offrant un espace d'adressage énorme, une meilleure sécurité, et des fonctionnalités
de configuration automatique, IPv6 est essentiel pour l'avenir des réseaux, en particulier
avec l'explosion du nombre d'appareils connectés à Internet.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


5.3. ROUTAGE (RIP, OSPF, BGP)
Le routage est un processus essentiel pour acheminer les paquets de données d'une
source à une destination à travers un réseau. Différents protocoles de routage sont utilisés
pour déterminer le meilleur chemin qu'un paquet doit suivre. Parmi les protocoles les plus
courants, on trouve RIP, OSPF, et BGP. Chaque protocole a ses caractéristiques, ses
avantages et ses inconvénients, et est utilisé dans des contextes spécifiques.
5.3.1. RIP (Routing Information Protocol)
a. Description :
RIP est l'un des protocoles de routage les plus anciens, utilisé principalement dans les
réseaux de petite et moyenne taille. Il est basé sur un algorithme appelé Vecteur de
Distance, ce qui signifie qu'il prend en compte le nombre de sauts (hops) entre le point
d'origine et la destination.
b. Caractéristiques :
 Distance : RIP utilise un compteur de sauts pour déterminer le chemin le plus court.
Chaque routeur considère le nombre de sauts comme critère principal. Par défaut,
le nombre de sauts maximal autorisé est de 15, ce qui signifie qu'un réseau distant
à plus de 15 sauts est considéré comme inaccessible.
 Mise à jour : Les informations de routage sont échangées toutes les 30 secondes,
ce qui peut provoquer un surplus de trafic réseau dans les grands réseaux.
 Convergence : Le protocole RIP peut prendre du temps pour converger après une
modification du réseau (ajout de nouveaux routeurs, défaillance d'un lien, etc.).
c. Avantages :
 Simple à configurer et à comprendre.
 Convient bien aux petits réseaux ou aux environnements où la simplicité est
essentielle.
d. Inconvénients :
 Pas adapté aux grands réseaux ou aux réseaux complexes en raison de sa limite
de 15 sauts.
 La mise à jour fréquente peut générer une surcharge de trafic réseau.
 Les délais de convergence peuvent entraîner des périodes de routage incorrect.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


5.3.2. OSPF (Open Shortest Path First)
a. Description :
OSPF est un protocole de routage plus avancé que RIP, basé sur l'algorithme de l'état
des liens (Link State). Contrairement à RIP, OSPF ne se contente pas de compter les
sauts mais utilise des tables d'état des liens pour calculer les chemins les plus courts.
b. Caractéristiques :
 Algorithme de Dijkstra : OSPF utilise l'algorithme de Dijkstra (ou SPF, Shortest
Path First) pour déterminer le chemin le plus court. Cela permet de prendre en
compte plusieurs critères, comme la bande passante et la latence, plutôt que
seulement le nombre de sauts.
 Mise à jour : Contrairement à RIP, OSPF envoie des mises à jour de routage
seulement lorsqu'il y a un changement dans l'état du réseau, ce qui réduit le
trafic de mise à jour.
 Convergence rapide : OSPF est beaucoup plus rapide à converger que RIP, ce
qui le rend plus adapté aux réseaux complexes ou de grande taille.
c. Avantages :
 Plus scalable que RIP (pas de limite de sauts).
 Convergence plus rapide.
 Plus flexible, en particulier pour les réseaux plus grands ou plus complexes.
 Supporte le routage hiérarchique avec la possibilité de créer des zones pour
mieux organiser un réseau.
d. Inconvénients :
 Plus complexe à configurer et à maintenir que RIP.
 Utilise plus de ressources systèmes et de bande passante en raison de la nature
de ses mises à jour et de son calcul de chemin.
5.3.3. BGP (Border Gateway Protocol)
a. Description :
BGP est un protocole de routage de type path vector principalement utilisé pour le
routage inter-domaines, c'est-à-dire entre différents systèmes autonomes (AS). BGP est
le protocole de routage par excellence pour l'Internet.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


b. Caractéristiques :
 Routage inter-domaines : BGP est utilisé pour échanger des informations de
routage entre différents fournisseurs de services Internet (FAI) ou organisations.
Cela le rend crucial pour la connectivité Internet globale.
 Sélection des chemins : BGP prend en compte un ensemble de critères pour
choisir le meilleur chemin, tels que le nombre d'AS traversés (AS Path), les
préférences locales, la métrique (weight) et la bande passante.
 Protocoles de routage basés sur les politiques : BGP permet de définir des
politiques de routage pour gérer de manière fine les chemins et le routage entre
les réseaux.
c. Avantages :
 Permet un routage fiable entre différents systèmes autonomes.
 Très flexible grâce à ses politiques de routage.
 Utilisé à l'échelle d'Internet, il assure la connectivité mondiale.
d. Inconvénients :
 Complexité de configuration et de gestion.
 Peut être lent à converger (surtout dans les réseaux très grands ou complexes).
 Nécessite des ressources importantes en termes de mémoire et de CPU sur les
routeurs.

Comparaison des Protocoles de Routage (RIP, OSPF, BGP)


Caractéristique RIP OSPF BGP
Type de routage Vecteur de État des liens Path vector
distance
Portée Intra-réseau Intra-réseau, large Inter-réseau (Internet)
(petits réseaux) échelle
Algorithme Compte des Dijkstra (SPF) Sélection de chemin
sauts basée sur des politiques
Convergence Lente Rapide Lente (à cause de la mise
à jour des routes)

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Scalabilité Limité à 15 Très scalable Très scalable (utilisé sur
sauts Internet)
Complexité Simple Modéré Très complexe
Exemple Petits réseaux Réseaux Connectivité entre
d'utilisation locaux d'entreprises fournisseurs d'accès (FAI)

Conclusion
Le choix du protocole de routage dépend largement des besoins du réseau :
 RIP est simple, mais limité par sa faible scalabilité et ses lenteurs de convergence.
Il est mieux adapté aux petits réseaux.
 OSPF est plus adapté aux réseaux de grande taille grâce à sa capacité à converger
rapidement et à son extensibilité. Il est plus complexe à configurer mais largement
utilisé dans les environnements d'entreprise.
 BGP est le protocole de choix pour le routage inter-domaine, essentiel pour
l'Internet. Bien qu'il soit très puissant, il est aussi complexe à configurer et à
maintenir.
Dans la plupart des réseaux modernes, OSPF est préféré pour les réseaux internes, tandis
que BGP est utilisé pour le routage entre les réseaux (notamment sur Internet).

5.4. PROTOCOLES (IP, ICMP, ARP, RARP)


Les protocoles réseau sont des règles et des conventions utilisées pour permettre la
communication entre les dispositifs sur un réseau. Parmi les protocoles les plus
couramment utilisés dans les réseaux TCP/IP, on trouve IP, ICMP, ARP, et RARP. Chacun
de ces protocoles joue un rôle essentiel dans le bon fonctionnement d'un réseau
informatique.
5.4.1. IP (Internet Protocol)
a. Description :
Le protocole IP est un protocole de la couche réseau (couche 3 du modèle OSI). Il permet
le transfert de données entre des hôtes sur des réseaux différents en utilisant des adresses
IP. IP est responsable de l'acheminement des paquets de données d'une source vers une
destination à travers un réseau, qu'il soit local ou étendu (Internet).

Note de cours d’Architecture Réseaux Ir Marc BOPEY


b. Fonctions principales :
 Adressage : IP utilise des adresses uniques, appelées adresses IP, pour identifier
les appareils sur le réseau.
 Fragmentation : IP peut fragmenter des paquets de données pour les adapter aux
différentes tailles de trame des réseaux intermédiaires.
 Routage : IP est responsable de l'acheminement des paquets en fonction des
informations contenues dans les tables de routage des routeurs.
c. Versions :
 IPv4 : C'est la version la plus courante de l'IP. Elle utilise des adresses de 32 bits,
divisées en quatre octets, et offre environ 4 milliards d'adresses possibles.
 IPv6 : C'est la version moderne de l'IP, qui utilise des adresses de 128 bits pour
supporter un nombre d'adresses beaucoup plus élevé (2^128 adresses).
d. Exemple d'adresse IP :
 IPv4 : [Link]
 IPv6 : [Link]
e. Rôle dans la communication réseau :
Le protocole IP est utilisé pour diviser les données en paquets et les envoyer d'un point à
un autre à travers des réseaux multiples. Il permet également de déterminer la destination
du paquet et d'utiliser les informations de la table de routage pour acheminer le paquet
correctement.

5.4.2. ICMP (Internet Control Message Protocol)


a. Description :
Le protocole ICMP est utilisé pour gérer les messages de contrôle et d'erreur dans un
réseau IP. Il est souvent associé à IPv4, mais il fonctionne aussi avec IPv6 (sous le nom
ICMPv6). ICMP permet aux routeurs, aux hôtes et aux dispositifs réseau d'échanger des
informations de diagnostic et de signaler des erreurs survenues lors de l'acheminement
des paquets.
b. Fonctions principales :
 Émission de messages d'erreur : Si un paquet ne peut pas être livré correctement
(par exemple, si un routeur ne peut pas atteindre une destination), ICMP envoie un
message d'erreur à l'expéditeur pour lui notifier l'échec de la transmission.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Tests de connectivité : ICMP est utilisé pour tester la connectivité entre les hôtes,
notamment via la commande ping, qui envoie des requêtes Echo et attend des
réponses Echo.
c. Types de messages ICMP :
 Echo Request (Type 8) et Echo Reply (Type 0) : Utilisés par les outils de
diagnostic comme ping pour vérifier si un hôte est accessible sur le réseau.
 Destination Unreachable (Type 3) : Utilisé pour signaler qu'une destination ne
peut pas être atteinte.
 Time Exceeded (Type 11) : Signalise qu'un paquet a été abandonné parce que
son temps de vie (TTL) a expiré.
d. Exemple de message ICMP :
Un ping envoyé à une adresse IP [Link] :
ping [Link]
Cela envoie une requête Echo Request à l'adresse IP et attend une réponse Echo Reply
pour confirmer que l'hôte est joignable.

5.4.3. ARP (Address Resolution Protocol)


a. Description :
Le protocole ARP est utilisé pour résoudre les adresses IP en adresses MAC (adresse
physique). ARP est un protocole de la couche liaison de données (couche 2 du modèle
OSI) et fonctionne dans un réseau local pour permettre à un hôte de savoir à quelle
adresse MAC associer une adresse IP donnée.
b. Fonctionnement :
 Lorsqu'un hôte souhaite envoyer des données à un autre hôte sur un réseau local
(même sous-réseau), il doit connaître l'adresse MAC de la machine cible.
 Si l'adresse MAC est inconnue, l'hôte émet une requête ARP sur le réseau local
en envoyant un paquet de diffusion à l'adresse MAC [Link]. La machine qui
possède l'adresse IP ciblée répond alors avec sa propre adresse MAC, permettant
à l'hôte d'envoyer les données directement à cette adresse.
c. Exemple de message ARP :
 ARP Request : L'hôte A demande l'adresse MAC de l'hôte B en envoyant un
paquet ARP.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 ARP Reply : L'hôte B répond avec son adresse MAC.
d. Cache ARP :
Les informations de résolution ARP sont souvent stockées dans une table ARP locale sur
les appareils réseau (comme les ordinateurs et les routeurs), qui contient des
correspondances entre les adresses IP et les adresses MAC pour accélérer les
communications futures.

5.4.4. RARP (Reverse Address Resolution Protocol)


a. Description :
Le protocole RARP est l'inverse du protocole ARP. Tandis qu'ARP résout les adresses
IP en adresses MAC, RARP permet de résoudre une adresse MAC en une adresse IP.
b. Fonctionnement :
 RARP était utilisé par les dispositifs sans disque (comme les stations de travail ou
les terminaux réseau) pour déterminer leur adresse IP à partir de leur adresse
MAC.
 Un dispositif sans disque envoie une requête RARP sur le réseau, demandant à un
serveur RARP d'envoyer l'adresse IP associée à son adresse MAC.
 Cependant, RARP a été remplacé par le BOOTP et le DHCP dans la plupart des
réseaux modernes, car ces derniers offrent plus de flexibilité et de fonctionnalités.
c. Limitation de RARP :
 RARP ne fournit pas de mécanisme pour l'attribution d'adresses IP dynamiques,
contrairement à DHCP qui le permet.
 RARP nécessite un serveur dédié pour répondre aux requêtes, ce qui n'est pas
aussi flexible que DHCP.

Résumé des Protocoles (IP, ICMP, ARP, RARP)


Protocole Description Fonction principale Exemple
d'utilisation
IP Protocole de la couche Acheminement des Routage d'un
réseau responsable de paquets entre les paquet IP d'un
l'adressage et de dispositifs sur un réseau. point A à un point
l'acheminement des B.
paquets.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


ICMP Protocole de contrôle et Envoi de messages Outil ping pour
de gestion des erreurs d'erreur et de contrôle, tester la
pour le protocole IP. comme les messages de connectivité.
type « Destination
Unreachable » et « Time
Exceeded ».
ARP Protocole utilisé pour Résolution des adresses Résolution
résoudre les adresses IP en adresses MAC sur d'adresse MAC
IP en adresses MAC. un réseau local. pour l'envoi de
données dans un
réseau local.
RARP Protocole permettant de Résolution d'adresses Utilisé par les
résoudre les adresses MAC en adresses IP dispositifs sans
MAC en adresses IP. (remplacé par DHCP et disque pour
BOOTP). obtenir leur
adresse IP.

Ces protocoles, bien qu'ils servent des objectifs différents, sont tous essentiels au
fonctionnement des réseaux modernes, en particulier dans un environnement IPv4. IP
assure la livraison des paquets, ICMP offre des outils de diagnostic, ARP permet de faire
le lien entre les adresses réseau et physiques, et RARP, bien que moins utilisé aujourd'hui,
était crucial pour les dispositifs sans disque dans les années passées.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


CHAPITRE 6 : COUCHE TRANSPORT
La couche transport fait partie du modèle OSI (Open Systems Interconnection) et du
modèle TCP/IP. Elle se situe entre la couche réseau (couche 3) et la couche session
(couche 5) et est responsable de l'établissement, du maintien et de la terminaison des
connexions réseau pour la transmission des données entre les hôtes. Sa fonction
principale est de garantir un transfert fiable, efficace et ordonné des données entre les
applications qui tournent sur des systèmes différents.

6.1. ROLE DE LA COUCHE TRANSPORT


La couche transport joue un rôle crucial dans la communication réseau en assurant la
transmission fiable ou non des données entre deux hôtes sur un réseau. Elle se situe entre
la couche réseau (qui s'occupe du routage et de l'adressage) et la couche session (qui
gère les sessions de communication entre applications). Son rôle principal est d'assurer
que les données parviennent correctement, dans l'ordre et sans erreur, entre l'émetteur et
le récepteur, en fonction des besoins de l'application.
Voici les principaux rôles de la couche transport :
1. Segmentation et Réassemblage des Données :
 La couche transport découpe les données de l'application en segments (ou
datagrammes pour UDP) pour les transmettre efficacement à travers le réseau.
Chaque segment contient des informations nécessaires pour assurer une
transmission correcte, comme le numéro de séquence et le numéro de port.
 Lorsque ces segments arrivent à leur destination, la couche transport se charge de
réassembler ces segments pour reconstituer le message original et le transmettre
à l'application cible.
2. Contrôle de la Fiabilité :
 TCP (Transmission Control Protocol), un protocole fiable, est responsable de la
gestion de la fiabilité de la communication. Il assure que chaque segment envoyé
arrive à destination sans erreur.
o Numéros de séquence et accusés de réception (ACK) sont utilisés pour
suivre les segments envoyés et confirmer leur réception.
o Si un segment est perdu ou corrompu, TCP le retransmet pour garantir une
livraison correcte des données.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


3. Contrôle de Flux :
 La couche transport gère le contrôle de flux pour s'assurer que l'expéditeur ne
surcharge pas le récepteur. Ce mécanisme est important pour éviter la congestion
du récepteur et garantir une communication efficace.
 Par exemple, TCP ajuste dynamiquement la quantité de données envoyées, en
fonction de la capacité du récepteur.
4. Contrôle de l'Ordre des Paquets :
 La couche transport veille à ce que les segments arrivant dans un ordre incorrect
(en raison de la nature du réseau) soient réorganisés correctement avant d'être
envoyés à l'application.
 Cela permet de garantir que les données sont livrées dans l'ordre exact dans lequel
elles ont été envoyées.
5. Multiplexage et Démultiplexage :
 La couche transport permet à plusieurs applications de partager le même canal
réseau en multiplexant les données en fonction des ports (via des numéros de
port).
 Le démultiplexage consiste à diriger les segments de données reçus vers la bonne
application, en se basant sur le numéro de port de destination inclus dans chaque
segment.
o Par exemple, une machine peut avoir un serveur web (port 80) et un serveur
FTP (port 21) fonctionnant simultanément. La couche transport enverra les
données aux bonnes applications en utilisant ces ports.
6. Établissement et Terminaison de Connexion :
 Pour certains protocoles, comme TCP, la couche transport gère l’établissement
d'une connexion fiable entre les deux hôtes avant de commencer à échanger des
données (avec un handshake en trois étapes).
 Elle s'occupe également de la fermeture de la connexion, garantissant que la
session se termine proprement.
7. Contrôle de Congestion :
 La couche transport, et en particulier TCP, veille à éviter la congestion du réseau.
En surveillant les conditions du réseau, elle ajuste dynamiquement le taux de
transmission des segments.
 Par exemple, TCP utilise des mécanismes comme le contrôle de fenêtre pour
ajuster la vitesse d'envoi des données en fonction de la congestion du réseau.
Note de cours d’Architecture Réseaux Ir Marc BOPEY
8. Transmission Fiable ou Non Fiable (selon le protocole) :
 TCP est orienté connexion et fiable, garantissant la livraison et l'ordre des paquets.
 UDP, en revanche, est non fiable et ne garantit pas la livraison des paquets ni leur
ordre. Il est utilisé pour des applications qui peuvent tolérer des pertes de paquets
et où la rapidité est primordiale, comme le streaming vidéo, les jeux en ligne ou
la VoIP.
En résumé, le rôle de la couche transport dans les communications réseau est de gérer
la transmission des données entre les applications sur des systèmes distants de
manière fiable ou non, selon le protocole utilisé. Elle assure la segmentation des données,
le contrôle de leur fiabilité et de leur ordre, la gestion du flux et de la congestion, ainsi que
la capacité de plusieurs applications à partager les ressources réseau.

6.2. Protocoles TCP et UDP


Les protocoles TCP (Transmission Control Protocol) et UDP (User Datagram
Protocol) sont deux des protocoles de la couche transport du modèle OSI et du modèle
TCP/IP. Ces deux protocoles sont utilisés pour la communication entre les applications à
travers un réseau, mais ils diffèrent dans leur approche du transfert des données.
Examinons ces deux protocoles en détail.
1. TCP (Transmission Control Protocol)
a. Caractéristiques principales :
 Fiabilité : TCP est un protocole orienté connexion, ce qui signifie qu'une
connexion doit être établie avant la transmission des données. Cela garantit la
fiabilité de la transmission, c'est-à-dire que les données arriveront à destination
sans erreur et dans le bon ordre.
 Contrôle de flux : TCP ajuste dynamiquement la quantité de données envoyées
pour éviter la congestion du récepteur.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Contrôle de congestion : TCP surveille l'état du réseau et ajuste la vitesse
d'envoi des paquets pour éviter la congestion.
 Numéros de séquence : Chaque segment TCP contient un numéro de séquence
qui permet au récepteur de réorganiser les paquets dans l'ordre correct, même
s'ils arrivent dans un ordre différent.
 Retransmission : Si un segment est perdu, TCP le retransmet automatiquement.
 Confirmation (ACK) : Le récepteur envoie un accusé de réception pour chaque
segment reçu, garantissant que les données ont bien été reçues.
b. Processus de communication avec TCP :
1. Établissement de la connexion (3-way handshake) :
o SYN : L'émetteur envoie un segment avec le drapeau SYN pour initier la
connexion.
o SYN-ACK : Le récepteur répond avec un segment contenant SYN et ACK,
pour confirmer qu'il est prêt à établir la connexion.
o ACK : L'émetteur confirme la réception du SYN-ACK avec un segment
ACK.
2. Transmission des données :
o Les données sont envoyées par l'émetteur en segments, chaque segment
étant accompagné d'un numéro de séquence.
o Le récepteur répond par des accusés de réception (ACK) pour chaque
segment reçu.
3. Fermeture de la connexion :
o La connexion est fermée proprement avec un échange de segments FIN
et ACK, garantissant que la communication est terminée.
c. Avantages de TCP :
 Fiabilité : TCP garantit que les paquets arrivent sans erreur et dans le bon ordre.
 Contrôle de flux et de congestion : TCP peut réguler la vitesse de transmission
pour éviter la congestion du réseau.
 Utilisation dans des applications nécessitant de la fiabilité : HTTP, FTP, e-
mail (SMTP), etc.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


d. Inconvénients de TCP :
 Latence accrue : Le processus de connexion et les mécanismes de contrôle
augmentent la latence de la communication.
 Surcoût de gestion : Le contrôle de l'ordre, des erreurs et des retransmissions
consomme plus de ressources.

2. UDP (User Datagram Protocol)


a. Caractéristiques principales :
 Non orienté connexion : UDP est un protocole sans connexion. Il ne nécessite
pas l'établissement d'une connexion préalable avant l'envoi des données.
 Non fiable : UDP ne garantit pas la livraison des données, ni leur ordre. Il
n'effectue pas de retransmissions en cas de perte de paquets.
 Pas de contrôle de flux ou de congestion : UDP envoie les paquets sans
s'assurer que le récepteur est prêt à les recevoir ou qu'il y a assez de capacité
réseau.
 Légèreté et rapidité : UDP a un en-tête plus simple et ne nécessite pas de
mécanismes de contrôle, ce qui le rend plus rapide et avec une latence plus
faible.
b. Processus de communication avec UDP :
 L'émetteur envoie des datagrammes (unités de données) directement au
récepteur, sans établir de connexion préalable.
 Aucune confirmation (ACK) n'est envoyée par le récepteur.
 Il n'y a pas de retransmission en cas de perte de paquet, et les segments peuvent
arriver dans un ordre non défini.
c. Avantages de UDP :
 Vitesse : UDP est plus rapide que TCP car il n'a pas les mécanismes de contrôle
associés à la fiabilité, au contrôle de congestion, ou à la gestion des connexions.
 Faible latence : En raison de son absence de processus d'établissement de
connexion et de confirmation, UDP a une faible latence, ce qui le rend adapté aux
applications en temps réel.
 Simplicité : UDP a un en-tête plus simple, ce qui réduit le traitement de chaque
paquet.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


d. Inconvénients de UDP :
 Non fiabilité : Aucun mécanisme n'est en place pour garantir la réception
correcte des paquets ni leur ordre.
 Pas de contrôle de flux ou de congestion : Les applications utilisant UDP
doivent gérer ces aspects par elles-mêmes si nécessaire.
 Utilisation dans des applications sensibles aux erreurs : Certaines
applications peuvent perdre des paquets sans que cela affecte trop leur
fonctionnement, mais d'autres pourraient rencontrer des problèmes si des
données importantes sont perdues.
e. Exemples d'applications utilisant UDP :
 DNS (Domain Name System) : Résolution des noms de domaine.
 VoIP (Voice over IP) : Transmission de la voix en temps réel.
 Streaming vidéo/audio : Envoi de flux multimédia en temps réel.
 Jeux en ligne : Communication en temps réel entre joueurs.

Comparaison entre TCP et UDP :


Caractéristique TCP UDP
Type Orienté connexion Sans connexion
(connection-oriented) (connectionless)
Fiabilité Fiable (avec Non fiable (pas de
retransmissions et contrôle retransmissions)
d’erreur)
Contrôle de flux et Oui, avec contrôle de Non, aucune gestion de la
congestion congestion et de flux congestion
Contrôle d’ordre Oui, garantit l'ordre des Non, les paquets peuvent
paquets arriver dans un ordre aléatoire
Performance Moins rapide, plus de Plus rapide, faible latence
latence
Exemples HTTP, FTP, SMTP, e-mail, DNS, VoIP, streaming vidéo,
d'utilisation SSH jeux en ligne

Note de cours d’Architecture Réseaux Ir Marc BOPEY


En résumé, le choix entre TCP et UDP dépend des exigences spécifiques de
l'application. TCP est idéal pour des applications où la fiabilité, l'ordre des paquets et
l'intégrité des données sont cruciaux, tandis que UDP est préféré dans des applications
où la vitesse et la faible latence sont plus importantes que la fiabilité (comme pour le
streaming vidéo, les jeux en ligne ou les appels VoIP).

6.3. Numéros de ports et sockets


Les numéros de port et les sockets sont des concepts clés dans les protocoles de
communication réseau. Ils permettent de gérer les connexions et la communication entre
les applications sur des hôtes différents ou sur le même hôte. Voici une explication
détaillée de chacun de ces concepts :
6.3.1. Numéros de Port
Un numéro de port est une valeur numérique utilisée pour identifier de manière unique
une application ou un service au sein d'un hôte. Dans un réseau informatique, plusieurs
services peuvent être accessibles simultanément sur un même hôte via différents ports.
Le numéro de port permet de diriger les paquets vers le bon service ou application.
a. Port et Adresse IP :
Un numéro de port est toujours associé à une adresse IP et à un protocole de transport
(comme TCP ou UDP). Ensemble, l'adresse IP et le numéro de port forment une paire
de sockets (voir ci-dessous).
b. Plage de numéros de port :
Les numéros de port sont répartis en trois plages distinctes :
1. Ports bien connus (Well-known Ports) :
o Plage : 0 à 1023
o Utilisés par des services standardisés, tels que :
 HTTP : Port 80
 HTTPS : Port 443
 FTP : Port 21
 SSH : Port 22
 SMTP (pour les e-mails) : Port 25
2. Ports enregistrés (Registered Ports) :
o Plage : 1024 à 49151

Note de cours d’Architecture Réseaux Ir Marc BOPEY


o Utilisés par des applications spécifiques et non standardisées, mais qui
nécessitent une identification par des organisations ou entreprises pour
éviter les conflits de ports.
3. Ports dynamiques ou privés (Dynamic/Private Ports) :
o Plage : 49152 à 65535
o Utilisés de manière dynamique par les applications clientes pour établir des
connexions temporaires.
c. Rôle des numéros de port :
Les numéros de port permettent à un hôte de différencier les connexions entrantes ou
sortantes pour différents services. Par exemple, un serveur web écoute généralement sur
le port 80 pour HTTP, et un serveur FTP écoute sur le port 21. Un même serveur peut
gérer plusieurs services, chacun étant associé à un numéro de port différent.

6.3.2. Sockets
Un socket est un point de communication entre deux machines ou processus, utilisé pour
établir une connexion réseau. Un socket est généralement défini par une combinaison de
l'adresse IP de la machine, du numéro de port, et du protocole de transport utilisé
(comme TCP ou UDP). Les sockets sont utilisés pour envoyer et recevoir des données à
travers un réseau.
a. Composants d'un socket :
Un socket est constitué de trois éléments principaux :
1. Adresse IP : L'adresse unique du dispositif (ordinateur ou serveur) sur le réseau.
2. Numéro de port : Le numéro de port utilisé pour diriger les paquets vers la bonne
application/service sur l'hôte.
3. Protocole : Le protocole de transport (généralement TCP ou UDP) utilisé pour
établir et maintenir la connexion.
En d'autres termes, un socket est la combinaison d'un port et d'une adresse IP, associés
à un protocole de communication.
b. Exemple d'un socket :
Un exemple d'adresse de socket pourrait être :
 TCP socket : [Link]:80 (IP : [Link], port : 80, protocole : TCP)

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 UDP socket : [Link]:12345 (IP : [Link], port : 12345, protocole :
UDP)
c. Rôle des Sockets :
Les sockets sont utilisés par les programmes pour envoyer et recevoir des données entre
deux machines. Par exemple :
 Un serveur web sur une machine a un socket qui écoute sur le port 80 pour les
connexions HTTP.
 Un client qui veut accéder à un site web utilise un socket pour se connecter à
l'adresse IP du serveur sur le port 80.
Les sockets peuvent être ouverts dans deux modes :
 Mode passif (serveur) : Le serveur ouvre un socket pour écouter les connexions
entrantes.
 Mode actif (client) : Le client ouvre un socket pour se connecter à un serveur
spécifique.
d. Création de Sockets :
Lorsqu'un programme souhaite communiquer via un réseau, il doit créer un socket et
associer ce socket à un numéro de port. Par exemple :
 Un serveur crée un socket et l'associe à un port spécifique (comme le port 80 pour
un serveur HTTP).
 Un client crée un socket et se connecte à ce serveur en utilisant l'adresse IP du
serveur et le port correspondant.
3. Types de Sockets :
1. Sockets TCP (ou Stream Sockets) :
o Utilisés avec le protocole TCP, qui est un protocole orienté connexion.
o Fournissent un flux de données fiable, ordonné et sans erreur entre le client
et le serveur.
o Exemple d'application : HTTP, FTP, SSH.
2. Sockets UDP (ou Datagram Sockets) :
o Utilisés avec le protocole UDP, qui est un protocole sans connexion et non
fiable.
o Permettent d'envoyer des datagrammes (paquets) sans garantie de
réception ou d'ordre.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


o Exemple d'application : DNS, VoIP, jeux en ligne, streaming vidéo.

4. Résumé des Concepts


 Numéros de port : Identifient de manière unique les services ou applications sur
un hôte, permettant de diriger les données vers le bon service. Les ports sont
répartis en trois plages (bien connus, enregistrés, privés).
 Sockets : Points de communication entre deux hôtes pour envoyer et recevoir des
données, définis par une combinaison d'adresse IP, de numéro de port, et de
protocole de transport (TCP ou UDP).
En résumé, les numéros de port et les sockets sont des concepts fondamentaux pour la
communication réseau. Les ports permettent de distinguer les différents services sur un
hôte, tandis que les sockets sont utilisés pour établir une connexion et échanger des
données entre des applications sur des hôtes différents.

6.4. Qualité de service (QoS)


La Qualité de Service (QoS) est un ensemble de techniques et de mécanismes utilisés
dans les réseaux de communication pour garantir que certaines performances réseau
soient respectées et que des priorités soient accordées à certains types de trafic. QoS vise
à améliorer l'expérience de l'utilisateur et à garantir que les applications et services
critiques reçoivent la bande passante et la latence nécessaires pour fonctionner
correctement, tout en optimisant l'utilisation du réseau.
6.4.1. Objectifs de la QoS
La QoS permet de répondre à plusieurs objectifs clés dans un réseau :
1. Contrôle de la bande passante :
o Garantir qu'une quantité minimale de bande passante soit allouée à certains
types de trafic, comme les appels VoIP ou la vidéo en streaming.
2. Contrôle de la latence :
o Réduire le retard (latence) dans le traitement des paquets pour des
applications sensibles à la latence, comme la VoIP ou les jeux en ligne.
3. Contrôle de la gigue :
o Minimiser les variations de latence, appelées gigue, pour des applications
telles que la vidéo en temps réel ou la voix, où des pauses ou des coupures
dans le flux peuvent perturber la communication.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


4. Contrôle des pertes de paquets :
o Réduire le taux de perte de paquets, essentiel pour des applications comme
le transfert de fichiers ou la vidéo en streaming, où des pertes de données
peuvent avoir un impact majeur sur la qualité.
5. Priorisation du trafic :
o Permettre à certains types de trafic (par exemple, la voix ou la vidéo) de
passer avant d'autres types (comme les téléchargements ou les e-mails),
garantissant que les applications sensibles à la performance obtiennent la
priorité.
6.4.2. Comment la QoS fonctionne-t-elle ?
La QoS est mise en œuvre à travers une combinaison de mécanismes et de techniques,
telles que :
a. Classification du trafic :
 Le réseau identifie et classe le trafic en fonction de différents critères, comme le
type de protocole (HTTP, VoIP, FTP), l'adresse IP source/destination, ou même le
port utilisé.
 Une fois que le trafic est classé, des politiques de QoS peuvent être appliquées en
fonction des priorités et des exigences de chaque type de trafic.
b. Marquage du trafic :
 Le marquage permet de marquer chaque paquet avec un niveau de priorité. Par
exemple, dans un réseau IP, le champ DSCP (Differentiated Services Code Point)
ou ToS (Type of Service) dans l'en-tête IP peut être utilisé pour marquer les
paquets avec une priorité spécifique.
 Cela permet aux équipements réseau comme les routeurs et les commutateurs de
traiter le trafic de manière différente, en fonction de sa priorité.
c. Politiques de gestion du trafic :
 Une fois les paquets marqués, des politiques QoS sont appliquées pour gérer le
traitement du trafic. Cela peut inclure :
o Réservation de bande passante pour certains types de trafic.
o Contrôle de congestion pour éviter la surcharge du réseau.
o Répartition de la bande passante entre différents types de trafic en
fonction de leur priorité.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


d. Gestion de la congestion :
 Lorsqu'un réseau est saturé, la QoS peut être utilisée pour réduire les effets de la
congestion, par exemple en utilisant le contrôle de la file d'attente pour différer
ou abandonner certains paquets en fonction de leur priorité.
 Des algorithmes comme RED (Random Early Detection) peuvent être utilisés pour
détecter la congestion avant qu'elle n'ait un impact important sur le réseau.
e. Contrôle de la file d'attente :
 Les équipements réseau, tels que les routeurs, utilisent des files d'attente pour
organiser les paquets entrants avant qu'ils ne soient transmis. La QoS permet de
gérer l’ordre de traitement des paquets dans ces files d’attente en fonction de leur
priorité.
 Les algorithmes de planification de file d'attente, comme FIFO (First In, First
Out), Priority Queuing ou Weighted Fair Queuing (WFQ), permettent de gérer la
façon dont les paquets sont envoyés ou retardés.
6.4.3. Techniques principales de QoS
Voici quelques techniques couramment utilisées pour garantir la QoS dans un réseau :
a. Politiques de différenciation de service (DiffServ) :
 DiffServ est un modèle qui permet de classer et de marquer le trafic réseau en
fonction de son importance. Chaque paquet de données est marqué avec un DSCP
(Differentiated Services Code Point), qui détermine la priorité du paquet et
comment il doit être traité par les équipements réseau.
 DiffServ simplifie la gestion de QoS, car il évite de traiter chaque paquet
individuellement, mais fonctionne plutôt sur des flux de données en les classifiant
dans différentes catégories.
b. Multi-Protocol Label Switching (MPLS) :
 MPLS est une technique qui utilise des étiquettes pour diriger les paquets à travers
un réseau de manière plus efficace que les protocoles traditionnels basés sur les
adresses IP.
 MPLS permet de garantir la QoS en définissant des LSPs (Label Switched Paths)
avec des priorités spécifiques pour différents types de trafic. Les paquets marqués
peuvent être acheminés de manière à garantir la qualité de service.
c. IntServ (Integrated Services) :
 IntServ est un modèle plus complexe que DiffServ, qui garantit une réservation
de bande passante pour des flux de données spécifiques. Chaque flux doit obtenir
Note de cours d’Architecture Réseaux Ir Marc BOPEY
une bande passante dédiée et les équipements réseau doivent être capables de
gérer des informations sur l’état du réseau pour garantir que ces réservations sont
respectées.
 Ce modèle est plus strict et complexe, car il nécessite une gestion dynamique de
la réservation des ressources à travers l'ensemble du réseau.
d. Traffic Shaping et Policing :
 Traffic shaping : Cette technique consiste à réguler la vitesse d’envoi des
paquets pour éviter une surcharge du réseau. Elle permet de s'assurer que le trafic
sortant d'un point ne dépasse pas une certaine limite de bande passante.
 Traffic policing : C'est un mécanisme qui permet de limiter ou de rejeter le trafic
excessif qui ne respecte pas les règles de la QoS, en fonction des priorités et des
allocations de ressources.
e. Queueing :
 Les algorithmes de gestion de file d'attente (comme WFQ ou Priority Queuing)
permettent d'assurer que les paquets les plus importants (par exemple, la voix ou
la vidéo) passent en premier dans les files d'attente, afin de garantir des
performances adéquates pour ces applications sensibles au délai.
6.4.4. QoS dans les Applications
Les applications qui bénéficient le plus de QoS sont celles qui nécessitent une bande
passante constante, une latence faible, et une disponibilité élevée, telles que :
 VoIP (Voice over IP) : Le trafic VoIP est particulièrement sensible à la latence et à
la gigue. La QoS garantit que les paquets de voix sont envoyés avec priorité.
 Streaming vidéo : Le streaming en temps réel, comme les vidéos en direct ou les
appels vidéo, nécessite une bande passante constante et une faible latence pour
éviter les interruptions et la mise en mémoire tampon.
 Jeux en ligne : Les jeux multijoueurs en ligne sont sensibles à la latence et à la
gigue. La QoS garantit une faible latence et une gestion du trafic en temps réel.
 Applications critiques d'entreprise : Les applications financières ou de gestion
qui nécessitent une grande fiabilité et des performances constantes.
6.4.5. Conclusion
La Qualité de Service (QoS) est essentielle pour garantir une performance optimale dans
les réseaux modernes. Elle permet de gérer la bande passante, la latence, la gigue et la
perte de paquets en fonction des priorités des applications. Grâce à des mécanismes
comme DiffServ, MPLS, et le traffic shaping, les entreprises et les fournisseurs de services

Note de cours d’Architecture Réseaux Ir Marc BOPEY


peuvent garantir une expérience utilisateur satisfaisante, même dans des réseaux
congestionnés.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


CHAPITRE 7 : COUCHE APPLICATION
La couche application est la couche la plus élevée du modèle OSI (Open Systems
Interconnection) et du modèle TCP/IP. Elle se situe au sommet de ces modèles, juste au-
dessus de la couche transport. Cette couche est directement responsable de l'interaction
entre les utilisateurs (ou applications) et le réseau, en permettant aux logiciels de
communiquer avec d'autres logiciels via le réseau.

7.1. ROLE DE LA COUCHE APPLICATION


La couche application a pour rôle de fournir des services réseau aux applications. Elle
permet aux applications de communiquer entre elles, indépendamment des détails du
transport et de la gestion du réseau sous-jacent. Cette couche sert d'interface entre les
logiciels (applications des utilisateurs) et les services réseau tels que la messagerie, le
transfert de fichiers, ou la navigation web.
Les principales fonctions de la couche application sont :
 Fournir des services : Elle permet aux utilisateurs d’accéder à des services tels
que le web, l'envoi de mails, le transfert de fichiers, les appels VoIP, etc.
 Interaction avec le réseau : C'est le point d'entrée des données dans le réseau et
le point de sortie des données sortantes d'un réseau vers une application.
 Abstraction des détails du réseau : Les utilisateurs et les applications n'ont pas
besoin de se préoccuper des protocoles de transport ou de la gestion du réseau
(tels que TCP, IP, etc.), car tout cela est masqué par la couche application.

7.2. PROTOCOLES COURANTS (HTTP, FTP, DNS, DHCP)


7.2.1 HTTP
Le protocole HTTP (Hypertext Transfer Protocol) est un protocole de communication
client-serveur développé pour le World Wide Web. Il permet l'échange de données entre

Note de cours d’Architecture Réseaux Ir Marc BOPEY


un navigateur web et un serveur, facilitant ainsi la diffusion de pages web et le
fonctionnement des sites internet. HTTP est utilisé pour gérer les liens hypertextes et est
à la base de la plupart des interactions sur Internet depuis 1990. Ce protocole est
également essentiel pour le chargement de divers types de médias, tels que le texte, les
images et les vidéos, et il joue un rôle clé dans les API REST
HISTORIQUE
HTTP a été inventé par Tim Berners-Lee avec les adresses Web et le langage HTML pour
créer le World Wide Web. À cette époque, le File Transfer Protocol (FTP) était déjà
disponible pour transférer des fichiers, mais il ne supportait pas la notion de format de
données telle qu'introduite par Multipurpose Internet Mail Extensions (MIME). La première
version de HTTP était très élémentaire, mais prévoyait déjà le support d'en-têtes MIME
pour décrire les données transmises. Cette première version reste encore partiellement
utilisable de nos jours, connue sous le nom de HTTP/0.9.
En mai 1996, la RFC 1945 décrit HTTP tel que communément implémenté à l'époque et
connu sous le nom de HTTP/1.0. Cette version supporte la gestion de cache et
l'identification.
En janvier 1997, HTTP/1.1 devient finalement standard de l'IETF. Il est décrit dans
la RFC 2068 de l'IETF, puis dans la RFC 2616 en juin 1999. Cette version ajoute le support
du transfert en pipeline (ou pipelinage) et la négociation de type de contenu (format de
données, langue). HTTP/1.1 rend la présence de l'entête Host obligatoire dans les
requêtes afin de supporter l'hébergement mutualisé.
En mars 2012, les travaux à propos de HTTP/2.0 démarrent à l'IETF adoptant SPDY
comme matériel de départ.
En février 2014, la spécification de HTTP 1.1 a été republiée. Elle a été éclatée en
plusieurs RFC et corrigée pour toutes ses imprécisions, RFC 7230 à RFC 7237.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


7.2.2 FTP
File Transfer Protocol (protocole de transfert de fichier), ou FTP, est un protocole de
communication destiné au partage de fichiers sur un réseau TCP/IP. Il permet, depuis un
ordinateur, de copier des fichiers vers un autre ordinateur du réseau, ou encore de
supprimer ou de modifier des fichiers sur cet ordinateur. Ce mécanisme de copie est
souvent utilisé pour alimenter un site web hébergé chez un tiers.
La variante de FTP protégée par les protocoles SSL ou TLS (SSL étant le prédécesseur
de TLS) s'appelle FTPS.
FTP obéit à un modèle client-serveur, c'est-à-dire qu'une des deux parties, le client, envoie
des requêtes auxquelles réagit l'autre, appelé serveur. En pratique, le serveur est un
ordinateur sur lequel fonctionne un logiciel lui-même appelé serveur FTP, qui rend
publique une arborescence de fichiers similaire à un système de fichiers UNIX. Pour
accéder à un serveur FTP, on utilise un logiciel client FTP (possédant une interface
graphique ou en ligne de commande). Il y a plusieurs décennies, les clients FTP n’étaient
que des applications d’interface de ligne de commande (CLI). Ils disposent désormais de
leurs propres interfaces faciles à utiliser et intuitives pour simplifier et faciliter le transfert
de fichiers, qui sont disponibles sous forme d’applications autonomes, de clients web et
de simples extensions de navigateur web.
FTP, qui appartient à la couche application du modèle OSI et du modèle ARPA, utilise une
connexion TCP.
Par convention, deux ports sont attribués (well known ports) pour les connexions FTP : le
port 21 pour les commandes et le port 20 pour les données. Pour le FTPS dit implicite, les
ports conventionnels sont le 990 pour les commandes et le 989 pour les données.
Ce protocole peut fonctionner avec IPv4 et IPv6.
HISTORIQUE
FTP est issu de la RFC 114 créée le 16 avril 1971. Cette spécification fut remplacée par
la RFC 765 en juin 1980. Elle fut elle-même rendue obsolète par la RFC 959 en octobre
1985, version finale de la spécification.
Plusieurs RFC viennent compléter cette spécification, comme la RFC 2228 de juin
1997 pour l'ajout d'extensions de sécurité ou la RFC 2428 de septembre 1998 qui ajoute
la prise en charge du protocole IPv6 et définit un nouveau type de mode passif.
INTEROPERABILITE
Le protocole FTP ne permet pas toujours d'assurer l'interopérabilité entre plates-formes
différentes et régions différentes par une gestion adéquate de l'encodage des noms de
fichiers. Seuls les logiciels serveur et client respectant le standard RFC 2640 en donnent
la garantie, grâce à l'utilisation de l'encodage UTF-8 et accessoirement d'une nouvelle
Note de cours d’Architecture Réseaux Ir Marc BOPEY
commande LANG permettant de choisir la langue des messages retournés par le serveur
lors de la session FTP. L'encodage UTF-8 permet d'encoder les noms des fichiers
provenant de n'importe quel pays, bien qu'un encodage plus spécifique puisse toujours
être utilisé localement par le serveur, la conversion vers l'UTF-8 restant à sa discrétion.
UTILISATION
Pour accéder à un serveur FTP, on utilise un logiciel (client FTP). Ces logiciels existent
avec ligne de commande ou avec une interface graphique. Le standard FTP est si répandu
que ces logiciels sont à présent inclus avec les dernières distributions Windows & Linux.
L'utilisation en ligne de commande, sous Windows comme sous Linux, se fait
généralement au moyen de la commande ftp adresse_du_serveur saisie dans une
console. (ici, ftp est le nom du logiciel, et le paramètre le nom du serveur)
Dans les interfaces graphiques, comme les navigateurs Web, la forme usuelle est utilisée,
à savoir : [Link] Ici, ftp est le nom du protocole, suivi du nom du
serveur.
Sous Windows (Vista et 7), un logiciel client FTP est installé sur la machine, car inclus
dans Windows. On peut y accéder à travers le dossier Ordinateur puis la
commande Ajouter un emplacement réseau.
Le support de FTP est déprécié sur Google Chrome depuis octobre 2020 et sur Mozilla
Firefox depuis juillet 2021.

7.2.3 DNS
Le protocole DNS (Domain Name System) est un système hiérarchique qui permet de
traduire les noms de domaine en adresses IP, facilitant ainsi la localisation des ressources
sur Internet. Il est composé de trois parties principales : le service DNS, le protocole DNS
qui définit la communication entre serveurs et clients, et les zones DNS qui contiennent
les informations nécessaires au bon fonctionnement du système. Le protocole utilise
principalement l'UDP pour les requêtes standards sur le port 53, mais peut également
utiliser le TCP pour les transferts de zones. En résumé, le DNS est essentiel pour le

Note de cours d’Architecture Réseaux Ir Marc BOPEY


fonctionnement d'Internet, reliant des noms de domaine familiers à des adresses IP
uniques.

7.2.4 DHCP
Le protocole DHCP, ou Dynamic Host Configuration Protocol, est un élément essentiel
des réseaux modernes, permettant l’attribution dynamique des adresses IP aux dispositifs
sur un réseau. Comprendre le fonctionnement et la sécurisation de ce protocole est crucial
pour tout professionnel de la cybersécurité. Dans cet article, nous explorerons en détail le
DHCP, de sa configuration à ses implications en matière de sécurité, en passant par des
pratiques recommandées pour optimiser son efficacité et sa sûreté.
[Link] FONCTIONNEMENT DU PROTOCOLE DHCP
Le DHCP fonctionne selon un modèle client-serveur. Lorsqu’un dispositif client se
connecte à un réseau, il envoie une requête DHCP Discover pour solliciter une adresse
IP. Les serveurs DHCP disponibles répondent avec un DHCP Offer, qui comprend une
adresse IP proposée. Le client sélectionne une offre et envoie un DHCP Request pour
demander cette adresse spécifique. Enfin, le serveur confirme avec un DHCP
Acknowledgment.
Ce processus est essentiel pour la gestion automatique des adresses IP et offre des
avantages significatifs en termes de gestion de réseau.
[Link] CONFIGURATION D’UN SERVEUR DHCP
Configurer un serveur DHCP nécessite de suivre plusieurs étapes clés pour assurer une
distribution efficace et sécurisée des adresses IP :
1. Installation du logiciel de serveur DHCP: Sur des systèmes comme Windows
Server ou Linux, installez le rôle ou le paquet DHCP.
2. Configuration de la plage d’adresses: Définissez les plages d’adresses IP que
le serveur peut attribuer aux clients.
3. Paramétrage des options DHCP: Spécifiez les autres configurations réseau,
comme le masque de sous-réseau, la passerelle par défaut, et les serveurs DNS.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


4. Sécurisation de l’accès au serveur: Assurez-vous que seuls les administrateurs
autorisés peuvent modifier la configuration du serveur DHCP.
Pour plus d’informations sur la configuration avancée et les meilleures pratiques, je vous
recommande de consulter le livre du CyberInstitut.
[Link] SECURITE DU PROTOCOLE DHCP
Le DHCP peut être vulnérable à plusieurs types d’attaques, comme le spoofing et les
attaques de déni de service. Il est donc impératif de renforcer la sécurité du protocole
DHCP :
 Authentification: Utilisez des méthodes d’authentification pour vérifier l’identité
des clients DHCP.
 Filtrage d’adresses MAC: Configurez des listes de contrôle d’accès pour limiter
les dispositifs pouvant recevoir des adresses IP.
 Mise à jour et maintenance: Assurez-vous que le logiciel du serveur DHCP est
régulièrement mis à jour pour se protéger contre les vulnérabilités connues.
[Link] Bonnes Pratiques de Sécurité
Pour maximiser la sécurité de votre réseau, intégrez ces bonnes pratiques dans la
gestion de votre serveur DHCP :
 Surveillance régulière: Surveillez les logs du serveur DHCP pour détecter toute
activité suspecte.
 Isolation des serveurs DHCP: Placez les serveurs DHCP dans un réseau séparé
pour limiter l’accès non autorisé.
 Utilisation de VLANs: Utilisez des VLANs pour segmenter le réseau et contrôler
le trafic entre les différents segments.
Pour approfondir vos connaissances et compétences en cybersécurité, pensez à suivre
les formations du CyberInstitut.
Conclusion
Le protocole DHCP joue un rôle critique dans la gestion des réseaux, mais il nécessite
une attention particulière en matière de sécurité pour éviter les exploitations malveillantes.
En suivant les étapes de configuration et les pratiques de sécurité décrites, les
administrateurs peuvent renforcer significativement la sécurité de leurs réseaux.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


CHAPITRE 8 : SECURITE DES RESEAUX
8.1. INTRODUCTION A LA SECURITE DES RESEAUX
La sécurité des réseaux fait référence à l'ensemble des pratiques, technologies et
politiques mises en œuvre pour protéger les infrastructures réseau contre les attaques, les
intrusions et tout accès non autorisé. Elle vise à garantir la confidentialité, l'intégrité, et
la disponibilité des données circulant sur un réseau tout en maintenant un environnement
de travail sécurisé pour les utilisateurs.
Avec l'augmentation des cybermenaces, l'essor des technologies numériques, et la
croissance de l'usage des réseaux (notamment Internet), la sécurité des réseaux est
devenue un domaine central pour la protection des informations sensibles, la préservation
des ressources informatiques et le maintien de la confiance des utilisateurs.
8.1.1. L'IMPORTANCE DE LA SECURITE DES RESEAUX
Les réseaux informatiques sont le fondement de la communication moderne. Cela inclut
les communications internes au sein des entreprises, la connectivité entre sites distants,
et la navigation sur Internet. Chaque organisation, qu'elle soit petite ou grande, doit donc
assurer la sécurité de ses infrastructures réseau pour :
 Protéger les données sensibles (par exemple, les informations bancaires, les
informations personnelles des clients, etc.).
 Assurer la continuité des services en empêchant les attaques comme le déni de
service (DoS), les ransomwares ou les intrusions.
 Garantir la confidentialité et l'intégrité des communications, en empêchant
l'interception ou la falsification des informations transmises sur le réseau.
8.1.2. MENACES ET RISQUES ASSOCIES AUX RESEAUX
Les menaces auxquelles un réseau peut être confronté sont nombreuses et en constante
évolution. Certaines des principales menaces incluent :
 Intrusion non autorisée : Un attaquant peut essayer de pénétrer un réseau pour
voler des informations sensibles ou perturber les services.
 Attaques par déni de service (DoS/DDoS) : Ces attaques visent à rendre un
service ou un réseau inaccessible en surchargeant le serveur avec une quantité
excessive de requêtes.
 Espionnage ou interception de données : Des attaquants peuvent intercepter
des informations sensibles lors de leur transmission, souvent en utilisant des
techniques comme l'écoute clandestine sur un réseau sans fil non sécurisé.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Vulnérabilités logicielles : Les failles dans les systèmes d'exploitation, les
applications ou les protocoles réseau peuvent être exploitées par des attaquants
pour accéder au réseau ou installer des logiciels malveillants.
 Phishing et ingénierie sociale : Ces attaques visent à tromper les utilisateurs pour
qu'ils divulguent des informations sensibles comme des mots de passe ou des
données bancaires.
8.1.3. PRINCIPES FONDAMENTAUX DE LA SECURITE DES RESEAUX
Les objectifs principaux de la sécurité des réseaux sont souvent regroupés sous les
concepts CIA :
 Confidentialité : S'assurer que les informations sensibles ne soient accessibles
qu'aux parties autorisées.
 Intégrité : Garantir que les données ne soient ni modifiées ni altérées sans
autorisation, assurant ainsi leur fiabilité.
 Disponibilité : Assurer que les ressources du réseau (serveurs, applications,
services) sont accessibles et opérationnelles pour les utilisateurs autorisés lorsque
nécessaire.

8.2. MENACES COURANTES (virus, attaques DDoS, phishing)


Les menaces courantes en matière de sécurité des réseaux sont diverses et peuvent
causer des dommages considérables aux systèmes, aux données et aux utilisateurs. Voici
un aperçu des principales menaces que rencontrent les réseaux aujourd'hui :
8.2.1. VIRUS
Un virus est un type de logiciel malveillant (malware) conçu pour infecter un ordinateur ou
un réseau et se propager à d'autres appareils. Les virus peuvent être transmis par des
fichiers infectés, des pièces jointes d'e-mails, des sites Web compromis, ou des dispositifs
de stockage amovibles. Lorsqu'un virus infecte un système, il peut endommager ou altérer
les fichiers, voler des informations sensibles, ou permettre à un attaquant de prendre le
contrôle à distance de l'appareil.
Comment un virus fonctionne :
 Infection : Un virus se propage généralement via des fichiers infectés. Lorsqu'un
utilisateur ouvre un fichier ou un programme contaminé, le virus s'exécute et
commence à infecter le système.
 Propagation : Le virus peut s'envoyer lui-même à d'autres ordinateurs via des e-
mails, des messages instantanés ou des réseaux partagés.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


 Dégâts : Les virus peuvent causer divers types de dommages, allant de la
corruption de données à la suppression de fichiers essentiels pour le bon
fonctionnement du système. Certains peuvent également espionner les utilisateurs
et voler des informations sensibles.
Exemples de virus :
 CIH (Chernobyl) : Un virus très destructeur qui a infecté les ordinateurs Windows
et a provoqué la perte de données.
 ILOVEYOU : Un virus de type "ver" qui s'est propagé par e-mail et a causé des
millions de dollars de dégâts en effaçant des fichiers sur des ordinateurs infectés.

8.2.2. Attaques par Déni de Service (DoS) et Attaques Distribuées par Déni de
Service (DDoS)
Les attaques par déni de service (DoS) et les attaques distribuées par déni de service
(DDoS) sont des tentatives de rendre un service en ligne, un site Web, ou un réseau
inutilisable en l'inondant de trafic indésirable.
a. Attaque DoS
Dans une attaque DoS, l'attaquant envoie une quantité massive de requêtes ou de trafic
vers un serveur, une application ou un réseau. Cela surcharge le système cible et le rend
incapable de répondre aux demandes légitimes des utilisateurs. En conséquence, le
service devient lent, indisponible, ou même complètement hors ligne.
b. Attaque DDoS
Une attaque DDoS (Distributed Denial of Service) est une version plus sophistiquée de
l'attaque DoS. Dans une attaque DDoS, l'attaquant utilise un réseau de plusieurs machines
compromises (souvent appelées un botnet) pour générer du trafic simultanément à partir
de nombreuses sources différentes. Cela rend l'attaque plus difficile à contrer car il est
plus difficile de bloquer le trafic provenant de multiples adresses IP. Ces attaques peuvent
perturber des services en ligne et rendre des sites Web ou des plateformes inutilisables
pendant des heures, voire des jours.
Impact des attaques DDoS :
 Perturbation des services : Les entreprises de commerce en ligne, les banques,
et les services cloud peuvent être gravement affectées.
 Dégâts financiers : L'indisponibilité d'un service peut entraîner une perte de
revenus, une perte de confiance des utilisateurs, et des coûts de récupération.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


8.2.3. PHISHING
Le phishing est une méthode d'escroquerie en ligne dans laquelle un attaquant tente de
tromper une personne pour qu'elle fournisse des informations sensibles, telles que des
mots de passe, des informations de carte bancaire, ou des données personnelles. Cela se
fait généralement par des messages frauduleux qui semblent provenir de sources fiables,
telles que des entreprises, des institutions financières, ou des amis.
Comment le phishing fonctionne :
 E-mails frauduleux : Un attaquant envoie un e-mail apparemment légitime,
souvent avec un lien vers un site Web frauduleux qui ressemble à un site légitime.
Le message peut dire qu'il y a un problème avec le compte de l'utilisateur et qu'il
doit se connecter rapidement pour le résoudre.
 Sites Web falsifiés : Le lien dans l'e-mail mène souvent à un site Web qui imite un
site officiel (par exemple, une banque ou un service de paiement), où la victime est
invitée à entrer ses informations personnelles.
 Collecte d'informations : Une fois que l'utilisateur saisit ses informations sur le
site frauduleux, l'attaquant récupère ces données et peut les utiliser pour
commettre des fraudes, voler de l'argent, ou compromettre l'identité de la victime.
Exemples de phishing :
 Phishing par e-mail : Un utilisateur reçoit un e-mail prétendant provenir de son
fournisseur d'e-mail, lui demandant de réinitialiser son mot de passe via un lien
frauduleux.
 Phishing via les réseaux sociaux : Un attaquant envoie un message sur un
réseau social en imitant un ami ou un collègue pour inciter l'utilisateur à cliquer sur
un lien malveillant.
Conséquences du phishing :
 Vol d'identifiants : L'attaquant peut accéder aux comptes bancaires, e-mails, ou
réseaux sociaux de la victime.
 Vol d'argent : En utilisant les informations bancaires obtenues par phishing,
l'attaquant peut vider le compte de la victime.
 Vol d'identité : Les données collectées par phishing peuvent être utilisées pour
commettre une fraude d'identité, créant ainsi des problèmes légaux pour la victime.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


8.2.4. AUTRES MENACES COURANTES
 Ransomware : Un type de logiciel malveillant qui bloque l'accès à un système ou
à des fichiers et exige une rançon pour le déverrouiller. Les ransomwares sont
souvent diffusés par des e-mails de phishing ou via des vulnérabilités logicielles.
 Spyware et Adware : Des logiciels qui espionnent l'activité de l'utilisateur, volent
des informations personnelles, ou affichent des publicités non sollicitées.
 Attaques par injection SQL : Des attaques qui exploitent les vulnérabilités dans
les bases de données des sites Web en envoyant des requêtes malveillantes,
permettant aux attaquants d’accéder aux informations sensibles.

8.2.5 Conclusion
Les menaces de sécurité des réseaux sont de plus en plus complexes et peuvent affecter
à la fois les utilisateurs individuels et les entreprises. Les virus, les attaques DDoS, et le
phishing sont parmi les attaques les plus courantes, mais il existe de nombreuses autres
menaces qui nécessitent une vigilance constante. Il est essentiel d'adopter des stratégies
de sécurité solides, telles que l'utilisation de pare-feu, de logiciels antivirus, de mises à
jour régulières et de la sensibilisation des utilisateurs pour se protéger contre ces
menaces.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


8.3. MECANISMES DE SECURITE (PARE-FEU, VPN, CHIFFREMENT)
Les mécanismes de sécurité des réseaux sont essentiels pour protéger les systèmes, les
données et les utilisateurs contre les attaques et les menaces. Parmi les principales
solutions de sécurité utilisées pour renforcer la protection des réseaux, on trouve le pare-
feu, le VPN et le chiffrement. Chacun de ces mécanismes joue un rôle clé dans la
sécurisation des communications et de l'infrastructure réseau.
8.3.1. PARE-FEU (Firewall)
Le pare-feu est l'un des mécanismes de sécurité les plus utilisés pour protéger les réseaux
et les systèmes contre les connexions non autorisées et les attaques externes. Il
fonctionne en filtrant le trafic réseau entrant et sortant en fonction de règles spécifiques
définies par l'administrateur du réseau.
Fonctionnement du pare-feu :
Le pare-feu analyse le trafic réseau (paquets de données) et applique des règles de filtrage
pour décider si ce trafic doit être autorisé ou bloqué. Les règles peuvent être basées sur
plusieurs critères, tels que :
 Adresse IP source ou destination : Le pare-feu peut autoriser ou bloquer le trafic
en fonction des adresses IP spécifiques.
 Port source ou destination : Certaines applications ou services utilisent des ports
spécifiques. Le pare-feu peut permettre ou interdire l'accès à ces ports.
 Protocole : Le pare-feu peut filtrer le trafic en fonction du type de protocole, comme
HTTP, FTP, ou DNS.
 État de la connexion : Certains pare-feu utilisent des mécanismes de filtrage
basés sur l'état des connexions pour permettre ou bloquer certains types de trafic.
Types de pare-feu :
 Pare-feu de filtrage de paquets (Packet Filtering Firewall) : Le pare-feu examine
chaque paquet de données et le compare avec les règles de filtrage pour
déterminer s'il doit être autorisé ou rejeté.
 Pare-feu à état (Stateful Firewall) : Ce type de pare-feu garde une trace de l'état
de chaque connexion réseau et prend des décisions basées sur l'ensemble de la
session (par exemple, autoriser seulement le trafic lié à une session ouverte).
 Pare-feu de nouvelle génération (NGFW - Next Generation Firewall) : Ces pare-
feu offrent des fonctionnalités supplémentaires, telles que l'inspection en

Note de cours d’Architecture Réseaux Ir Marc BOPEY


profondeur des paquets (DPI), la prévention des intrusions (IPS), et l'intégration
avec des systèmes de gestion des événements de sécurité (SIEM).
Avantages du pare-feu :
 Contrôle d'accès : Permet de contrôler quel trafic est autorisé à entrer ou sortir
d'un réseau.
 Protection contre les attaques externes : Protège les systèmes internes contre
les tentatives d'intrusion et les attaques par déni de service (DoS/DDoS).
 Isolation des segments de réseau : Il est possible de segmenter le réseau en
différentes zones de sécurité, comme le réseau interne, la zone démilitarisée (DMZ)
et le réseau externe.

8.3.2. VPN (Virtual Private Network)


Un VPN (Réseau Privé Virtuel) permet de créer une connexion sécurisée et chiffrée entre
un utilisateur ou un appareil et un réseau privé, généralement via un réseau public comme
Internet. Le VPN permet de protéger la confidentialité des données échangées, d'assurer
l'intégrité des communications et de masquer l'adresse IP réelle de l'utilisateur.
Fonctionnement du VPN :
Le VPN fonctionne en "tunnelisant" le trafic Internet de l'utilisateur à travers une connexion
sécurisée, ce qui empêche les tiers (comme les pirates informatiques ou les fournisseurs
d'accès Internet) de voir ou de modifier les données échangées. Les données sont
chiffrées avant d'être envoyées à travers le tunnel sécurisé, ce qui les rend illisibles en cas
d'interception.
Les principales étapes du fonctionnement d'un VPN sont les suivantes :
1. Connexion au serveur VPN : L'utilisateur se connecte à un serveur VPN distant.
2. Chiffrement des données : Les données de l'utilisateur sont chiffrées avant d'être
envoyées sur Internet.
3. Transmission sécurisée : Les données sont transmises via un tunnel sécurisé
(généralement en utilisant des protocoles de chiffrement comme IPsec, SSL/TLS,
ou OpenVPN).
4. Accès au réseau privé : Une fois que les données arrivent au serveur VPN, elles
sont déchiffrées et peuvent accéder aux ressources internes du réseau privé.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Types de VPN :
 VPN site-à-site : Connecte deux réseaux locaux distants via un VPN sécurisé. Il
est couramment utilisé pour connecter les différents bureaux d'une entreprise.
 VPN accès à distance : Permet aux utilisateurs individuels de se connecter à un
réseau privé via un réseau public (comme Internet). Cela est souvent utilisé par les
employés travaillant à distance ou en télétravail.
Avantages du VPN :
 Confidentialité des données : Les données sont chiffrées, empêchant les
attaquants d'intercepter ou de lire les informations échangées.
 Accès sécurisé à distance : Permet aux utilisateurs d'accéder à un réseau interne
de manière sécurisée, peu importe où ils se trouvent.
 Masquage de l'adresse IP : En masquant l'adresse IP réelle de l'utilisateur, le VPN
permet de maintenir l'anonymat et de contourner la censure géographique (accéder
à des contenus restreints par région).

8.3.3. CHIFFREMENT
Le chiffrement est un processus qui consiste à convertir des données lisibles (en texte
clair) en un format illisible (texte chiffré) à l'aide d'un algorithme et d'une clé de chiffrement.
Le but du chiffrement est de protéger la confidentialité des informations et de garantir que
seules les parties autorisées puissent accéder et lire les données.
Types de chiffrement :
 Chiffrement symétrique : Dans ce type de chiffrement, la même clé est utilisée
pour chiffrer et déchiffrer les données. Il est rapide et efficace, mais le principal
inconvénient est que la clé doit être partagée de manière sécurisée entre
l'expéditeur et le destinataire. Exemple d'algorithmes : AES (Advanced
Encryption Standard), DES (Data Encryption Standard).
 Chiffrement asymétrique : Aussi appelé chiffrement à clé publique, ce type de
chiffrement utilise une paire de clés : une clé publique pour chiffrer les données et
une clé privée pour les déchiffrer. Il est plus sécurisé que le chiffrement symétrique,
mais plus lent. Exemple d'algorithmes : RSA, ECC (Elliptic Curve Cryptography).
 Chiffrement hybride : Combine les avantages des deux types de chiffrement, en
utilisant le chiffrement symétrique pour la transmission des données et le
chiffrement asymétrique pour échanger de manière sécurisée les clés symétriques.
Exemple : TLS/SSL pour les connexions HTTPS.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Protocoles de chiffrement courants :
 SSL/TLS : Utilisé pour sécuriser les communications sur Internet, notamment dans
les transactions financières et les échanges de données sensibles via des sites
HTTPS.
 IPsec : Utilisé dans les réseaux privés virtuels (VPN) pour sécuriser les
communications entre les sites ou les utilisateurs distants.
 PGP (Pretty Good Privacy) et GPG (GNU Privacy Guard) : Utilisés pour sécuriser
les courriers électroniques, en chiffrant les messages et en garantissant leur
intégrité.
Avantages du chiffrement :
 Confidentialité : Assure que seules les parties autorisées peuvent accéder aux
informations sensibles.
 Intégrité : Le chiffrement peut être couplé avec des mécanismes de vérification
pour s'assurer que les données n'ont pas été modifiées ou altérées.
 Authenticité : Le chiffrement avec des clés publiques et privées peut garantir
l'authenticité de l'expéditeur des données.

CONCLUSION
Les mécanismes de sécurité des réseaux tels que le pare-feu, le VPN et le chiffrement
sont des composants essentiels pour protéger les informations et les systèmes contre les
cybermenaces. Chaque technologie joue un rôle spécifique :
 Le pare-feu protège le réseau contre les connexions non autorisées et les
attaques.
 Le VPN sécurise les connexions à distance et garantit la confidentialité des
données échangées.
 Le chiffrement protège la confidentialité et l'intégrité des données, qu'elles soient
stockées ou en transit.
Une mise en œuvre adéquate de ces mécanismes, combinée à des politiques de sécurité
solides, permet de garantir une infrastructure réseau sûre et résiliente face aux menaces
potentielles.

Note de cours d’Architecture Réseaux Ir Marc BOPEY


Note de cours d’Architecture Réseaux Ir Marc BOPEY

Vous aimerez peut-être aussi