Routing :
Router : Forward traffic between subnets, between an internal and
external network, or between two external networks. Each subnet or
external network is going to be its own broadcast domain.
Fonctionnement simple du routing :
Imaginons que PC1 veux envoyer un fichier à PC2 (et ne connait pas son
adresses MAC)
PC1 va envoyer une ARP Request à SW1, or SW1 ne connait pas PC2 (car il
n’est pas sur son réseau). SW1 va donc envoyer une ARP Reply, et PC1 va
envoyer des frames à sa default gateway (R1) pour qu’il puisse
communiquer avec R2 (couche 3). PC1 va donc envoyer des data frames à
R1 (couche Data link) et R1 va rajouter l’en-tête IP pour envoyer le paquet
de donnée (couche 3). R2 va recevoir le paquet de donnée et va
décapsuler l’en-tête IP et envoyer les data frames à PC2. Le processus va
s’inverser pour que PC1 reçoive l’adresse MAC de PC2.
Routing table : Helps determine which route entry is the best fit for the
network. The router use routing table such as switch use MAC address
table.
The router will use ARP cach for associate IP addresses with MAC
addresses.
Sources that Router uses :
- Directly Connected Route : Learned by physical connection between
routers
- Static Route : Manually configured by an administrator ; Default
Static Route (0.0.0.0/0)
- Dynamic Route : Learned by exchanging information between
routers
Routing Protocols :
Les protocoles de routage sont essentiels pour le bon fonctionnement
des réseaux en permettant aux routeurs d'échanger des informations sur
la manière de diriger le trafic entre différents réseaux. Ces protocoles sont
classés en deux grandes catégories : protocoles de routage interne
(IGP - Interior Gateway Protocol) et protocoles de routage externe
(EGP - Exterior Gateway Protocol).
1. Protocoles de routage interne (IGP - Interior Gateway Protocol)
Les protocoles IGP sont utilisés pour le routage au sein d'un système
autonome (AS - Autonomous System), c'est-à-dire une organisation ou un
réseau sous un contrôle administratif unique (par exemple, un fournisseur
de services Internet ou un réseau d'entreprise). Les protocoles IGP gèrent
la communication et le routage entre les routeurs d'un réseau unique.
Exemples de protocoles IGP :
RIP (Routing Information Protocol) :
o Utilise l'algorithme de distance vectorielle.
o Simple à configurer mais limité par le nombre de sauts (15
max).
o Propage les tables de routage à intervalles réguliers.
OSPF (Open Shortest Path First) :
o Utilise l'algorithme d'état de lien (link-state).
o Plus complexe et évolutif que RIP.
o Calcule les chemins les plus courts à l'aide de l'algorithme de
Dijkstra.
o Convient bien aux grands réseaux.
IS-IS (Intermediate System to Intermediate System) :
o Similaire à OSPF, il utilise également l'algorithme d'état de
lien.
o Souvent utilisé dans les grands réseaux de fournisseurs de
services.
EIGRP (Enhanced Interior Gateway Routing Protocol) :
o Protocole hybride (combinaison de distance vectorielle et
d'état de lien).
o Protocole Cisco propriétaire (historiquement) qui offre des
avantages en termes de rapidité de convergence et de
fiabilité.
Fonctionnement des protocoles IGP :
Chaque routeur dans un réseau IGP échange des informations de routage
avec ses voisins pour construire une vue globale du réseau. Ces
protocoles doivent converger rapidement en cas de modification de la
topologie (panne de routeur, nouveau lien, etc.) et garantir une circulation
fluide des paquets dans le réseau interne.
2. Protocoles de routage externe (EGP - Exterior Gateway
Protocol)
Les protocoles EGP sont utilisés pour échanger des informations de
routage entre des systèmes autonomes. Ils sont essentiels pour le
routage entre les réseaux de différentes organisations, notamment sur
Internet.
Exemple de protocole EGP :
BGP (Border Gateway Protocol) :
o Le protocole de routage utilisé sur Internet.
o Permet de gérer le routage entre systèmes autonomes (AS).
o Utilise un algorithme basé sur des chemins vectoriels (path-
vector), où chaque chemin est représenté par une liste des AS
traversés.
o BGP prend en compte des politiques de routage complexes
(basées sur des critères comme les coûts, les relations
commerciales entre AS, etc.), et pas seulement la distance.
o Fonctionne bien dans les environnements larges et distribués
comme Internet.
Fonctionnement de BGP :
Les routeurs BGP échangent des informations de routage avec leurs pairs
BGP situés dans d'autres AS. Ces échanges permettent aux routeurs de
construire une vue globale d'Internet et de choisir les meilleurs chemins
en fonction de diverses politiques de routage. Contrairement aux
protocoles IGP, BGP ne se base pas uniquement sur le nombre de sauts,
mais sur des critères plus complexes comme les préférences
commerciales et politiques.
Différences clés entre IGP et EGP :
Portée :
o IGP est utilisé au sein d'un même système autonome.
o EGP est utilisé entre des systèmes autonomes.
Complexité :
o Les protocoles IGP (comme RIP ou OSPF) sont généralement
plus simples et conçus pour une convergence rapide dans des
réseaux plus petits et homogènes.
o Les protocoles EGP (comme BGP) sont plus complexes car ils
doivent gérer des politiques de routage interdomaines et une
grande échelle.
Critères de routage :
o Les IGP utilisent souvent des critères simples (nombre de
sauts, coûts de lien).
o BGP, en tant qu'EGP, se base sur des critères politiques et
commerciaux pour le routage inter-AS.
En résumé :
Les protocoles IGP sont utilisés pour le routage au sein d'un
réseau unique (système autonome), tels que OSPF, RIP, et EIGRP.
Les protocoles EGP, principalement BGP, sont utilisés pour le
routage entre réseaux ou systèmes autonomes sur Internet. Ils
permettent une gestion plus complexe des routes à travers des
réseaux distribués à grande échelle.
Fonctionnement du routage par distance vectorielle :
1. Vecteur de distance : Chaque routeur maintient une table de
routage contenant des informations sur toutes les destinations
réseau connues. Ces informations sont sous la forme de paires :
o Distance (nombre de sauts jusqu'à la destination)
o Prochain routeur à utiliser pour atteindre cette destination
(appelé next-hop).
2. Échanges d'informations : Périodiquement, chaque routeur
envoie une copie de sa table de routage à ses voisins immédiats.
Les voisins ajoutent un saut supplémentaire à la distance reçue pour
chaque destination et ajustent leur propre table si un chemin plus
court est trouvé.
3. Mise à jour des routes : Chaque routeur compare ses propres
informations avec celles reçues de ses voisins. Si un chemin plus
court est trouvé (avec une distance plus petite), il met à jour sa
table de routage avec ce nouveau chemin.
Exemple :
Imagine un réseau de 3 routeurs, A, B et C :
A connaît une route vers un réseau X avec une distance de 2 sauts.
B et C ne connaissent pas encore la route vers X.
Si A partage sa table avec B, B apprendra qu'il peut atteindre X en
passant par A, avec une distance de 3 sauts (un saut de B à A, puis deux
sauts d'A vers X). B mettra alors à jour sa propre table de routage.
Avantages du protocole Distance Vector :
Simplicité : facile à mettre en œuvre et à comprendre.
Chaque routeur ne communique qu'avec ses voisins directs, ce qui
réduit la complexité.
Inconvénients :
Convergence lente : les modifications du réseau (comme une
panne de routeur) peuvent prendre du temps à être propagées, ce
qui peut entraîner des boucles de routage ou des routes obsolètes.
Problème du comptage à l’infini : lors de la défaillance d’un lien,
la distance vers une destination peut augmenter indéfiniment à
cause de mises à jour incorrectes entre les routeurs voisins (souvent
limité à 16 sauts dans certains protocoles comme RIP).
Protocoles utilisant Distance Vector :
RIP (Routing Information Protocol) : l'un des plus célèbres
protocoles utilisant l'algorithme de distance vectorielle, mais limité
par le nombre maximal de sauts à 15.
En résumé, le routage par distance vectorielle repose sur l'échange
périodique d'informations entre routeurs voisins afin de déterminer le
chemin le plus court pour atteindre un réseau.
Le routage par état de lien (link-state routing) est un algorithme de
routage utilisé pour déterminer le meilleur chemin à travers un réseau en
se basant sur une vue complète de la topologie du réseau. Contrairement
au routage par vecteur de distance (distance vector), où les routeurs
n'échangent que des informations sur les distances vers les réseaux, les
routeurs qui utilisent l'état de lien partagent des informations détaillées
sur les états de leurs liens (connectivité, coût des liens, etc.) avec tous
les autres routeurs du réseau.
Fonctionnement du routage par état de lien :
Le routage par état de lien suit plusieurs étapes clés :
1. Découverte des voisins :
Chaque routeur dans le réseau détecte ses voisins directs, c'est-à-dire les
routeurs directement connectés via un lien physique (par exemple, un
câble Ethernet). Pour cela, le routeur envoie un message Hello sur
chacune de ses interfaces pour découvrir qui est connecté à l’autre bout
du lien.
2. Mesure du coût des liens :
Une fois les voisins découverts, le routeur mesure le coût de chaque lien
vers ses voisins. Le coût peut être basé sur différents facteurs, tels que la
bande passante, la latence ou la charge du lien. Par exemple, un lien à
haut débit (comme une connexion en fibre optique) aura généralement un
coût plus faible qu'un lien à faible débit.
3. Diffusion des informations sur l'état des liens :
Chaque routeur génère un message appelé LSA (Link State
Advertisement), qui contient des informations sur les liens de ce routeur
:
Quels sont ses voisins.
Quels sont les coûts de chaque lien.
Ce message LSA est diffusé à tous les autres routeurs du réseau, via un
processus appelé inondation (flooding). Chaque routeur stocke les LSAs
reçus de tous les autres routeurs dans une base de données de
topologie.
4. Construction d'une vue complète du réseau :
À partir des informations reçues (toutes les LSAs des autres routeurs),
chaque routeur peut construire une vue complète de la topologie du
réseau. Cela signifie que chaque routeur connaît exactement qui est
connecté à qui et le coût de chaque lien. Cela leur donne une carte
précise du réseau.
5. Calcul des meilleurs chemins :
Une fois que chaque routeur a la topologie complète, il utilise un
algorithme, souvent l'algorithme de Dijkstra, pour calculer le plus
court chemin vers chaque destination dans le réseau. L'algorithme
détermine le chemin avec le coût total le plus bas (la somme des coûts
des liens) pour atteindre chaque routeur ou sous-réseau.
Chaque routeur utilise ensuite ces informations pour remplir sa table de
routage, qui lui indique le prochain saut (next-hop) à utiliser pour
atteindre chaque destination.
6. Réaction aux changements dans le réseau :
Lorsque la topologie du réseau change (par exemple, lorsqu'un lien tombe
en panne ou qu'un nouveau routeur est ajouté), le routeur affecté génère
immédiatement un nouveau LSA pour informer les autres routeurs du
changement. Le LSA est inondé dans tout le réseau, et chaque routeur
met à jour sa base de données de topologie et recalcule ses tables de
routage en conséquence. Ce mécanisme permet une convergence rapide
et évite les boucles de routage.
Exemple d'algorithmes de routage utilisant l'état de lien :
1. OSPF (Open Shortest Path First) :
o L'un des protocoles de routage IGP les plus populaires.
o Utilise l'algorithme d'état de lien et calcule les chemins les
plus courts avec l'algorithme de Dijkstra.
o Convient aux grands réseaux et est largement utilisé dans les
entreprises et les réseaux ISP.
2. IS-IS (Intermediate System to Intermediate System) :
o Utilise également l'état de lien et est similaire à OSPF dans sa
fonction.
o Initialement conçu pour les réseaux OSI, mais largement
utilisé dans les réseaux IP, notamment par les fournisseurs de
services.
Comparaison avec le routage par distance vectorielle :
Dans le routage par état de lien, chaque routeur connaît la
topologie complète du réseau et calcule ses propres chemins, ce qui
conduit à une convergence plus rapide et à des chemins plus
optimaux.
Dans le routage par distance vectorielle, les routeurs échangent
des informations de distance uniquement avec leurs voisins, ce qui
peut conduire à des boucles de routage et une convergence plus
lente.
Avantages du routage par état de lien :
Convergence rapide : En cas de changement dans la topologie,
les LSAs sont rapidement diffusés et les chemins sont recalculés
rapidement.
Précision : Chaque routeur dispose d'une vue complète et précise
du réseau, ce qui permet de choisir des chemins optimaux.
Pas de boucles : Grâce à la connaissance complète de la
topologie, le risque de créer des boucles de routage est réduit.
Inconvénients :
Complexité : Les protocoles d'état de lien sont plus complexes à
mettre en œuvre et nécessitent plus de ressources (mémoire et
CPU) pour maintenir la base de données de topologie et exécuter
l'algorithme de Dijkstra.
Scalabilité : Dans de très grands réseaux, la diffusion des LSAs
peut générer un trafic réseau important.
En résumé :
Le routage par état de lien permet à chaque routeur d'avoir une vue
globale du réseau, en partageant des informations sur l'état de chaque
lien avec tous les autres routeurs. Cela permet de calculer les chemins
optimaux à travers le réseau, assurant ainsi une meilleure performance,
une convergence rapide et une fiabilité accrue par rapport aux méthodes
de routage par vecteur de distance.
Le PAT (Port Address Translation), aussi appelé NAT surchargé ou
NAT avec translation de ports, est une technique utilisée pour
permettre à plusieurs dispositifs d'un réseau local (réseau privé) de
partager une seule adresse IP publique pour accéder à Internet. Il fait
partie des mécanismes de NAT (Network Address Translation), mais
avec une particularité : il traduit à la fois les adresses IP et les numéros
de ports.
Fonctionnement du PAT :
Le PAT permet à un routeur ou à un pare-feu de mapper plusieurs
adresses IP privées (des ordinateurs ou des périphériques du réseau
interne) à une seule adresse IP publique. Chaque périphérique se voit
assigner un port différent pour distinguer les connexions entre eux,
même si l'adresse IP publique est la même.
Voici comment cela fonctionne :
1. Adresse IP privée : Chaque machine dans un réseau local utilise
une adresse IP privée (par exemple, 192.168.1.100,
192.168.1.101, etc.).
2. Adresse IP publique partagée : Le réseau possède une seule
adresse IP publique (par exemple, 203.0.113.1) attribuée par un
fournisseur d'accès à Internet (FAI). Cette adresse publique est
utilisée pour la communication avec des serveurs sur Internet.
3. Translation de port : Lorsqu'une machine à l'intérieur du réseau
local envoie une requête vers Internet, le routeur ou pare-feu
effectue les étapes suivantes :
o Il traduit l'adresse IP privée de l'appareil en adresse IP
publique.
o Il assigne également un numéro de port unique pour
identifier chaque session de communication. Par exemple, la
machine avec l'adresse 192.168.1.100 utilisant le port 12345
sera traduite en 203.0.113.1:56789.
o Le routeur conserve un tableau de correspondance entre les
adresses IP et ports privés et l'IP publique et le port utilisés
pour chaque session.
4. Réponse des serveurs : Lorsque le serveur Internet répond à la
requête, le routeur utilise la table de correspondance pour renvoyer
la réponse à l'appareil approprié sur le réseau local, en mappant
l'adresse IP publique et le port de retour vers l'adresse IP privée et
le port d'origine.
Exemple :
Supposons qu'un réseau local a deux ordinateurs :
Ordinateur A : 192.168.1.100
Ordinateur B : 192.168.1.101
Ces deux ordinateurs veulent accéder à Internet en utilisant une seule
adresse IP publique (par exemple, 203.0.113.1). Le routeur va traduire les
connexions comme suit :
Ordinateur A envoie une requête depuis l'adresse
192.168.1.100:12345. Le routeur traduit cela en 203.0.113.1:56789.
Ordinateur B envoie une requête depuis l'adresse
192.168.1.101:12345. Le routeur traduit cela en 203.0.113.1:56790.
Lorsqu'une réponse arrive sur l'adresse publique 203.0.113.1:56789, le
routeur sait qu'il doit l'envoyer à l'ordinateur A (192.168.1.100:12345). Si
la réponse est destinée au port 56790, elle sera renvoyée à l'ordinateur B.
Avantages du PAT :
1. Économie d'adresses IP : Le PAT permet à plusieurs appareils de
partager une seule adresse IP publique, ce qui est particulièrement
important avec l'épuisement des adresses IPv4.
2. Sécurité : Le PAT masque les adresses IP internes, ce qui rend plus
difficile pour les attaquants extérieurs d'identifier les dispositifs sur
le réseau interne.
3. Gestion efficace des connexions : Le PAT permet à un grand
nombre de connexions d'être gérées simultanément avec une seule
adresse IP publique.
Inconvénients du PAT :
1. Limitation des connexions : Comme le PAT repose sur les
numéros de ports pour identifier les connexions, il y a une limite au
nombre de connexions simultanées que le PAT peut gérer pour une
seule adresse IP publique (environ 65 535 connexions, puisque les
ports vont de 0 à 65535).
2. Problèmes avec certaines applications : Certaines applications,
notamment celles qui nécessitent des connexions entrantes directes
(comme les serveurs de jeu ou certaines applications peer-to-peer),
peuvent rencontrer des difficultés avec le PAT, car le routeur doit
gérer la traduction des ports pour ces connexions entrantes.
Différence entre NAT et PAT :
NAT (Network Address Translation) standard fait la
correspondance entre une adresse IP privée et une adresse IP
publique, sans modifier les numéros de port.
PAT (Port Address Translation) ajoute la translation des
numéros de port en plus de l'adresse IP. Cela permet à plusieurs
machines d'utiliser une seule adresse IP publique en utilisant des
ports différents pour chaque connexion.
En résumé :
Le PAT (Port Address Translation) est une forme avancée de NAT qui
permet à plusieurs dispositifs d'un réseau local de partager une seule
adresse IP publique en utilisant des numéros de ports uniques pour
identifier chaque connexion. Il est couramment utilisé dans les réseaux
domestiques et d'entreprise pour permettre l'accès Internet avec un
nombre limité d'adresses IP publiques tout en offrant une sécurité de base
en masquant les adresses IP internes.
Le Routing Redundancy Protocol fait référence à une catégorie de protocoles qui
permettent d'assurer la redondance et la disponibilité des routes dans un réseau. Ces
protocoles sont conçus pour garantir qu'en cas de défaillance d'un routeur ou d'une liaison
réseau, un autre routeur peut automatiquement prendre le relais sans interruption notable du
service. Ces protocoles sont particulièrement utilisés pour améliorer la tolérance aux pannes
dans les réseaux critiques.
Voici un aperçu des principaux protocoles de redondance de routage utilisés dans les
réseaux IP :
1. HSRP (Hot Standby Router Protocol)
Protocole propriétaire de Cisco.
Permet de créer un groupe de routeurs avec un routeur actif et un routeur en veille
(standby).
Si le routeur actif tombe en panne, le routeur standby prend automatiquement le relais
pour acheminer le trafic.
Les utilisateurs et les périphériques du réseau n'ont pas besoin de changer de
configuration, car ils continuent d'utiliser la même adresse IP virtuelle fournie par le
groupe HSRP.
Fonctionnement :
Les routeurs du groupe HSRP partagent une adresse IP virtuelle (VIP). Le routeur
actif répond aux requêtes ARP pour cette adresse IP.
Si le routeur actif échoue, le routeur standby détecte la panne (grâce à un système de
"heartbeat" ou messages Hello) et devient le nouveau routeur actif.
Le basculement est transparent pour les utilisateurs, et le service continue sans
interruption majeure.
Avantage :
Fournit une redondance automatique pour les passerelles par défaut dans un réseau.
Haute disponibilité sans configuration complexe côté client.
Inconvénient :
Protocole propriétaire, donc limité aux environnements utilisant des équipements
Cisco.
2. VRRP (Virtual Router Redundancy Protocol)
Protocole standard ouvert (RFC 5798), similaire à HSRP mais interopérable avec
des équipements de différents fournisseurs.
Fonctionne de manière similaire à HSRP : un routeur maître et un ou plusieurs
routeurs de secours.
Un adresse IP virtuelle est partagée par tous les routeurs dans le groupe VRRP. Si le
routeur maître échoue, un des routeurs de secours devient maître.
Fonctionnement :
Un routeur est élu comme maître dans le groupe VRRP et gère la route par défaut en
répondant aux requêtes ARP pour l'adresse IP virtuelle.
Les autres routeurs dans le groupe sont en mode veille. Si le routeur maître échoue, un
routeur de secours prend le relais, devenant ainsi le nouveau maître.
Avantage :
Protocole standard ouvert, ce qui le rend interopérable avec plusieurs fournisseurs
d'équipements réseau.
Redondance efficace avec basculement automatique.
Inconvénient :
Le protocole ne permet pas une répartition de charge dynamique comme GLBP (voir
plus bas).
3. GLBP (Gateway Load Balancing Protocol)
Protocole propriétaire de Cisco qui, en plus de fournir de la redondance, permet
également la répartition de charge entre plusieurs routeurs.
Contrairement à HSRP et VRRP, où un seul routeur est actif et les autres sont en
veille, GLBP permet à plusieurs routeurs de partager le trafic simultanément.
Fonctionnement :
GLBP utilise un routeur maître pour gérer la distribution des adresses IP aux clients,
mais tous les routeurs du groupe participent au routage du trafic.
Chaque routeur se voit attribuer une part du trafic en fonction d'un algorithme de
répartition de charge.
En cas de défaillance d'un routeur, les autres routeurs prennent en charge sa portion
du trafic.
Avantage :
Permet une utilisation plus efficace des ressources en répartissant la charge sur
plusieurs routeurs.
Redondance et tolérance aux pannes sans perte de service.
Inconvénient :
Propriétaire de Cisco, donc limité aux environnements utilisant des équipements
Cisco.
Un peu plus complexe à configurer que HSRP ou VRRP.
4. CARP (Common Address Redundancy Protocol)
Protocole open-source qui remplit une fonction similaire à VRRP et HSRP, mais est
conçu pour les environnements open-source (comme les systèmes BSD).
CARP permet à plusieurs routeurs de partager une adresse IP virtuelle et d'assurer la
redondance en cas de panne d'un routeur.
Fonctionnement :
Comme HSRP et VRRP, CARP fonctionne avec un routeur maître et un ou plusieurs
routeurs en attente.
En cas de panne du maître, un routeur en attente prend le relais, fournissant ainsi une
redondance.
Avantage :
Gratuit et open-source, donc aucune restriction liée à un fournisseur particulier.
Utilisé principalement dans les environnements open-source et BSD.
Inconvénient :
Moins couramment utilisé que VRRP ou HSRP, donc moins de support dans les
environnements commerciaux.
Comparaison des protocoles :
Propriétaire ou Répartition de Utilisé principalement
Protocole Redondance
ouvert charge par
HSRP Propriétaire (Cisco) Oui Non Réseaux Cisco
Standard ouvert Environnements multi-
VRRP Oui Non
(RFC) vendeurs
GLBP Propriétaire (Cisco) Oui Oui Réseaux Cisco
Environnements open-
CARP Open-source Oui Non
source
En résumé :
Les protocoles de redondance de routage (HSRP, VRRP, GLBP, CARP) sont utilisés pour
garantir que les réseaux continuent de fonctionner de manière fiable, même en cas de
défaillance d'un routeur ou d'une passerelle. Ils permettent aux routeurs de partager une
adresse IP virtuelle pour assurer la continuité du service et, dans certains cas comme GLBP,
de répartir également la charge entre plusieurs routeurs actifs. Le choix du protocole dépend
souvent de l'infrastructure réseau (Cisco ou multi-fournisseurs) et des besoins en redondance
et répartition de charge.
Le multicast routing est une technique de routage qui permet à un expéditeur (ou plusieurs)
d'envoyer des données à un groupe spécifique de récepteurs sur un réseau, plutôt qu'à tous
les hôtes (comme le broadcast) ou à un seul (comme l'unicast). Cette méthode est plus
efficace pour la distribution de contenu à plusieurs récepteurs, comme la diffusion de flux
vidéo, les conférences en ligne ou les mises à jour logicielles.
Concepts clés du multicast :
1. Adresses multicast : Les adresses IP multicast sont des adresses de classe D,
comprises entre 224.0.0.0 et 239.255.255.255. Les membres d’un groupe multicast
utilisent ces adresses pour s’identifier. Contrairement à unicast (une seule destination)
ou broadcast (tous les hôtes), multicast est destiné à un groupe spécifique de
récepteurs.
2. Groupes multicast : Un groupe multicast est défini par une adresse IP multicast. Tout
hôte souhaitant recevoir des données multicast peut rejoindre un groupe multicast, et
peut également le quitter à tout moment. Les membres du groupe peuvent être
dispersés à travers différents segments de réseau.
3. Récepteurs dynamiques : Contrairement à unicast où il y a un seul destinataire
clairement défini, dans le multicast, les récepteurs peuvent rejoindre et quitter
dynamiquement le groupe de destinataires sans impacter l’expéditeur.
Fonctionnement du multicast :
Le routage multicast implique une source qui envoie des paquets à un groupe de destinations
(récepteurs) via des routeurs multicast. Les routeurs sont responsables de la distribution des
paquets aux bons récepteurs tout en minimisant la redondance des transmissions.
Étapes de base du multicast :
1. La source envoie un paquet multicast : Un hôte envoie un paquet à une adresse
multicast spécifique (par exemple, 224.1.1.1). Ce paquet n'est pas destiné à une seule
machine, mais à tous les membres du groupe multicast associé à cette adresse.
2. Les récepteurs rejoignent un groupe multicast : Les hôtes souhaitant recevoir ce
paquet multicast doivent d'abord rejoindre le groupe correspondant (via le protocole
IGMP, expliqué plus loin). Une fois membres du groupe, les routeurs multicast
veillent à ce que ces hôtes reçoivent les paquets.
3. Les routeurs multicast acheminent les paquets vers les récepteurs : Les routeurs
multicast construisent une arborescence de distribution pour acheminer
efficacement les paquets de la source vers les récepteurs du groupe. Cette
arborescence est optimisée pour réduire la duplication de paquets dans le réseau.
4. Distribution des paquets : Le paquet multicast est distribué uniquement aux hôtes
membres du groupe via l'arborescence créée. Les routeurs suppriment les chemins
inutiles, c’est-à-dire les segments de réseau qui n'ont pas de membres dans le groupe.
Protocoles utilisés dans le multicast :
1. IGMP (Internet Group Management Protocol)
Fonction : IGMP est utilisé par les hôtes et les routeurs pour gérer l’appartenance à
des groupes multicast au sein d’un même réseau local (LAN). Il permet aux hôtes
d'informer les routeurs de leur volonté de rejoindre ou de quitter un groupe multicast.
Fonctionnement : Lorsqu'un hôte souhaite rejoindre un groupe multicast, il envoie un
message IGMP de "Join" au routeur local. Le routeur écoute ces messages et
transmet les paquets multicast uniquement sur les interfaces qui ont des membres du
groupe multicast.
Versions : IGMP a plusieurs versions :
o IGMPv1 : Basique, permet aux hôtes de rejoindre un groupe.
o IGMPv2 : Ajoute des messages "Leave" pour quitter un groupe.
o IGMPv3 : Permet une meilleure gestion des flux en autorisant les hôtes à
spécifier la source des flux multicast qu'ils souhaitent recevoir (filtrage de
source).
2. PIM (Protocol Independent Multicast)
Fonction : PIM est un protocole de routage multicast qui permet de construire des
arborescences de distribution pour acheminer efficacement le trafic multicast. Il est
"indépendant" car il fonctionne avec n'importe quel protocole de routage unicast sous-
jacent.
Modes : PIM a deux principaux modes de fonctionnement :
o PIM Dense Mode (PIM-DM) : Utilisé pour les réseaux où les membres des
groupes multicast sont répartis de manière dense. Dans ce mode, le routage
multicast diffuse initialement les paquets à tous les routeurs, puis supprime les
liens sans membres du groupe. C’est une approche flood and prune.
o PIM Sparse Mode (PIM-SM) : Conçu pour les réseaux où les membres
multicast sont dispersés. Il ne diffuse pas immédiatement les paquets multicast
sur tout le réseau. Au lieu de cela, il utilise un Rendez-vous Point (RP) où les
membres multicast peuvent se connecter pour recevoir les flux multicast.
o PIM-SSM (Source-Specific Multicast) : Une variante où les récepteurs
peuvent spécifier la source du trafic multicast, améliorant la sécurité et
l’efficacité.
3. MSDP (Multicast Source Discovery Protocol)
Fonction : MSDP est utilisé pour relier plusieurs réseaux multicast entre eux et
permet la découverte des sources multicast dans d'autres domaines. Il est souvent
utilisé avec PIM-SM.
Cas d'usage : Par exemple, dans un réseau avec plusieurs Rendez-vous Points (RP),
MSDP permet à ces RP d'échanger des informations sur les sources multicast pour
permettre une communication efficace entre les groupes.
Modèles de routage multicast :
1. Modèle ASM (Any-Source Multicast) :
Dans ce modèle, n'importe quel hôte peut envoyer des paquets à un groupe multicast,
et tous les récepteurs qui ont rejoint le groupe recevront les paquets.
Utilisé par les protocoles comme PIM-DM et PIM-SM.
Ce modèle est plus flexible mais moins sécurisé, car n'importe qui peut être une
source de flux multicast.
2. Modèle SSM (Source-Specific Multicast) :
Le récepteur spécifie non seulement le groupe multicast qu'il souhaite rejoindre, mais
également la source du flux multicast qu'il veut recevoir.
Ce modèle est plus sécurisé car seul le flux provenant d'une source spécifique est
transmis.
Utilisé par PIM-SSM et IGMPv3.
Avantages du multicast :
1. Efficacité en bande passante : Multicast permet de transmettre un seul flux de
données à de nombreux récepteurs, au lieu d’envoyer une copie à chacun (comme en
unicast). Cela économise de la bande passante, surtout pour des applications de
diffusion à grande échelle (comme la télévision IP ou la diffusion en direct).
2. Réduction de la charge sur les serveurs : En envoyant une seule copie de chaque
paquet aux routeurs, les serveurs multicast peuvent gérer plus de récepteurs avec la
même capacité réseau.
3. Meilleure utilisation des ressources réseau : Les paquets sont dupliqués uniquement
aux endroits nécessaires, réduisant ainsi la consommation inutile des ressources
réseau.
Inconvénients du multicast :
1. Complexité : La gestion et la configuration du routage multicast peuvent être plus
complexes que le routage unicast, nécessitant des protocoles supplémentaires et une
infrastructure réseau compatible.
2. Sécurité : Le modèle ASM peut être moins sécurisé car n'importe quelle source peut
envoyer des données à un groupe multicast. Cela peut poser des problèmes si une
source non autorisée envoie des paquets à un groupe.
3. Compatibilité des équipements : Tous les équipements réseau ne supportent pas le
multicast, en particulier dans les réseaux plus anciens ou ceux qui n'ont pas été conçus
pour prendre en charge le routage multicast.
En résumé :
Le routage multicast est un mécanisme efficace pour diffuser des données à plusieurs
destinataires en même temps, tout en minimisant la duplication des paquets et en optimisant
l'utilisation de la bande passante. Il repose sur des protocoles comme IGMP pour la gestion
des groupes et PIM pour la construction des chemins de distribution. Le multicast est
largement utilisé dans des applications telles que la diffusion vidéo en direct, la gestion de
réseaux IP-TV, et la distribution de contenu à grande échelle.