0% ont trouvé ce document utile (0 vote)
29 vues59 pages

Caractéristiques et Évolution d'Ethernet

Transféré par

nabilsamiha07
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
29 vues59 pages

Caractéristiques et Évolution d'Ethernet

Transféré par

nabilsamiha07
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Chapitre 9 Ethernet Exploration1

9.0 Présentation du chapitre

Jusqu’à présent, chacun des chapitres du cours a porté sur les différentes fonctions des
couches des modèles de protocoles OSI et TCP/IP, ainsi que sur la façon dont ces
protocoles sont utilisés pour prendre en charge les communications réseau. Plusieurs
protocoles importants, comme TCP, UDP et IP, sont souvent évoqués dans le contenu
du cours, car ils sont à la base du fonctionnement de tous les réseaux de petite taille ou
de grande taille, mais aussi d’Internet. Ces protocoles forment les piles de protocole
TCP/IP et, étant donné qu’Internet a été créé à partir de ces protocoles, Ethernet est
désormais la technologie LAN prédominante dans le monde.

L’IETF gère les protocoles et services fonctionnels de la suite de protocoles TCP/IP dans
les couches supérieures. Toutefois, les protocoles et services fonctionnels de la couche
liaison de données et de la couche physique OSI sont décrits par d’autres organismes
(IEEE, ANSI, ITU) ou par des sociétés privées (protocoles propriétaires). Puisqu’Ethernet
est constitué de normes au niveau de ces couches inférieures, on y fait généralement
référence dans le contexte du modèle OSI. Le modèle OSI sépare les fonctionnalités
d’adressage, de tramage et d’accès aux supports entre la couche liaison de données et
les normes de la couche physique des supports. Les normes Ethernet définissent à la
fois les protocoles de la couche 2 et les technologies de la couche 1. Bien que les
spécifications Ethernet prennent en charge différents supports, bandes passantes et
autres variantes de la couche 1 et de la couche 2, le format de trame et le schéma
d’adressage de base sont les mêmes pour toutes les versions d’Ethernet.

Dans ce chapitre, nous nous intéresserons aux caractéristiques et au fonctionnement


d’Ethernet en suivant son évolution depuis la technologie de communication de
données, basée sur des supports partagés et sur la restriction de l’accès aux supports
jusqu’à la technologie de large bande haut débit, bidirectionnelle simultanée moderne.

Objectifs pédagogiques
À l’issue de ce chapitre, vous serez en mesure d’effectuer les tâches suivantes :
 Décrire l’évolution d’Ethernet
 Expliquer les champs de la trame Ethernet
 Décrire la fonction et les caractéristiques de la méthode de contrôle d’accès aux
supports utilisée par le protocole Ethernet
 Décrire les fonctions de la couche physique et de la couche liaison de données
Ethernet
 Comparer les concentrateurs et les commutateurs Ethernet
 Décrire le protocole ARP

1
Chapitre 9 Ethernet Exploration1

9.1 Présentation d’Ethernet


9.1.1 Ethernet : normes et mise en œuvre
Normes IEEE
Le premier réseau local au monde a été la version originale d’Ethernet. Robert Metcalfe
et ses collaborateurs de Xerox l’ont conçu il y a plus de trente ans. La première norme
Ethernet a été publiée en 1980 par un consortium de Digital Equipment Corporation,
Intel et Xerox (DIX). Metcalfe souhaitant qu’Ethernet soit une norme standard dont
tout le monde puisse bénéficier, elle a été publiée en tant que norme ouverte. Les
premiers produits développés respectant la norme Ethernet ont été commercialisés au
début des années 80.
En 1985, le comité de normes de l’IEEE (Institute of Electrical and Electronics Engineers)
pour les réseaux locaux et métropolitains a publié des normes pour les réseaux locaux.
Ces normes commencent par le numéro 802. La norme Ethernet porte le numéro
802.3. LIEEE a voulu faire en sorte que ses normes soient compatibles avec l’ISO
(International Standards Organization) et le modèle OSI. Pour garantir cette
comptabilité, la norme IEEE 802.3 devait répondre aux besoins de la couche 1 et de la
partie inférieure de la couche 2 du modèle OSI. En conséquence, certaines
modifications mineures de la norme Ethernet originale ont été apportées à la 802.3.
Ethernet fonctionne au niveau des deux couches inférieures du modèle OSI, à savoir la
couche liaison de données et la couche physique.

2
Chapitre 9 Ethernet Exploration1

9.1.2 Ethernet : couche 1 et couche 2


Ethernet fonctionne au niveau des deux couches inférieures du modèle OSI. Le modèle
fournit une référence à laquelle Ethernet peut être associé, mais il est en fait mis en
œuvre dans la moitié inférieure de la couche liaison de données, désignée sous le nom
de sous-couche MAC (Media Access Control) et de la couche physique uniquement.
Au niveau de la couche 1, Ethernet est associé aux signaux, aux flux de bits qui
traversent les supports, aux composants physiques qui placent les signaux sur les
supports et à diverses autres technologies. La couche 1 Ethernet joue un rôle clé dans
la mise en œuvre des communications entre les périphériques. Toutefois, chacune des
fonctions de cette couche présente des limitations.
Comme présenté dans la figure, au niveau de la couche 2, Ethernet permet de
contourner ces limitations. Les sous-couches liaison de données contribuent largement
à la compatibilité technologique et à la communication entre périphériques. La sous-
couche MAC est associée aux composants physiques, qui seront utilisés pour
communiquer les informations et préparer les données pour qu’elles soient transmises
sur les supports.
La sous-couche LLC (Logical Link Control) reste relativement indépendante de
l’équipement physique qui sera utilisée pour communiquer.

3
Chapitre 9 Ethernet Exploration1

9.1.3 LLC : connexion aux couches supérieures


Ethernet sépare les fonctions de la couche liaison de données en deux sous-couches
distinctes : la sous-couche LLC (Logical Link Control) et la sous-couche MAC (Media
Access Control). Dans le modèle OSI, les fonctions décrites pour la couche liaison de
données sont attribuées aux sous-couches LLC et MAC. L’utilisation de ces sous-
couches contribue à garantir la compatibilité entre divers périphériques finaux.
Pour Ethernet, la norme IEEE 802.2 décrit les fonctions de la sous-couche LLC et la
norme 802.3 celles de la sous-couche MAC et de la couche physique. LLC gère la
communication entre les couches supérieures et les logiciels de mise en réseau et entre
les couches inférieures et le matériel. La sous-couche LLC extrait les données des
protocoles réseau, en principe un paquet IPv4, et leur ajoute des informations de
contrôle pour faciliter la transmission du paquet jusqu’au nœud de destination. La
couche 2 communique avec les couches supérieures via LLC.
La mise en œuvre LLC se fait au niveau logiciel et est indépendante de l’équipement
physique. Dans un ordinateur, LLC est en quelque sorte le logiciel du pilote de la carte
réseau. Le pilote de la carte réseau est un programme qui interagit directement avec le
matériel de la carte réseau pour transmettre les données entre les supports et la sous-
couche MAC.
[Link]
[Link]
[Link]

4
Chapitre 9 Ethernet Exploration1

9.1.4 MAC : transmission des données jusqu’aux supports


MAC correspond à la sous-couche Ethernet inférieure de la couche liaison de données.
MAC est mis en œuvre au niveau du matériel, généralement sur la carte réseau.
La sous-couche MAC d’Ethernet a deux fonctions principales :
 Encapsulation des données
 Contrôle de l’accès aux supports
Encapsulation des données : Elle assure trois fonctions de base :
 la délimitation des trames,
 l’adressage,
 la détection d’erreurs.
L’encapsulation des données consiste à assembler les trames avant de les transmettre
et à les analyser lorsqu’elles sont reçues. Lorsqu’elle assemble une trame, la couche
MAC ajoute un en-tête et un code de fin à l’unité de données de protocole de la
couche 3. L’utilisation de trames facilite la transmission des bits lors de leur placement
sur le support et facilite le regroupement des bits sur le nœud récepteur.
Le processus de tramage fournit des délimiteurs importants utilisés pour identifier un
groupe de bits qui composent une trame. Ce processus permet la synchronisation entre
les nœuds de transmission et ceux de réception.
L’encapsulation fournit également un adressage pour la couche liaison de données.
Chaque en-tête Ethernet ajouté à la trame contient l’adresse physique (adresse MAC)
qui permet à une trame d’être remise au nœud de destination.
L’encapsulation de données permet également de détecter d’éventuelles erreurs.
Chaque trame Ethernet contient un code de fin avec un contrôle de redondance
cyclique (CRC, Cyclic Redundancy Check) du contenu des trames. Après réception d’une
trame, le nœud récepteur crée un CRC pour le comparer à celui de la trame. Si ces deux
calculs de CRC correspondent, cela signifie probablement que la trame a été reçue sans
erreur.
Contrôle de l’accès aux supports
La sous-couche MAC contrôle le placement des trames sur les supports, ainsi que leur
retrait. Elle gère le contrôle de l’accès aux supports. En particulier, elle initialise la
transmission des trames et permet leur restauration après un échec de transmission dû
à des collisions.

5
Chapitre 9 Ethernet Exploration1

Topologie logique
La topologie logique sous-jacente d’Ethernet est un bus prenant en charge un accès
multiple. Cela implique que tous les nœuds (périphériques) de ce segment de réseau
partagent le même support. De plus, tous ces nœuds reçoivent l’ensemble des trames
transmises par n’importe quel nœud appartenant à ce segment.
Dans la mesure où les nœuds reçoivent toutes les trames, chaque nœud doit
déterminer si une trame doit être acceptée et traitée par ce nœud. Cela nécessite
l’examen de l’adressage de la trame fourni par l’adresse MAC.

Ethernet détermine comment les nœuds se partagent l’accès au support. La méthode


de contrôle de l’accès aux supports, pour Ethernet classique, est un accès avec
détection des collisions appelé CSMA/CD (Carrier Sense Multiple Access with Collision
Detection, détection de porteuse avec accès multiple). Cette méthode sera décrite plus
loin dans ce chapitre.
[Link]

9.1.5 Mises en œuvre physiques d’Ethernet


La plus grande partie du trafic sur Internet débute et aboutit sur des connexions
Ethernet. Depuis son introduction dans les années 70, Ethernet a dû évoluer pour
pouvoir répondre à la demande grandissante des réseaux LAN haut débit. Lorsque les
supports à fibres optiques sont apparus, Ethernet s’est adapté à cette nouvelle
technologie pour tirer parti de la très large bande et du faible taux d’erreur offert par
les fibres. Aujourd’hui, le même protocole qui transportait des données à 3 Mbits/s
peut le faire à 10 Gbits/s.
Le succès d’Ethernet est dû aux facteurs suivants :
 Simplicité et facilité de maintenance
 Possibilité d’incorporer de nouvelles technologies
 Fiabilité
 Coûts minimes d’installation et de mise à niveau
L’introduction de Gigabit Ethernet a amélioré la technologie LAN initiale pour atteindre
des distances qui font d’Ethernet une référence en matière de réseau métropolitain et
de réseau étendu.
En tant que technologie associée à la couche physique, Ethernet définit et met en
œuvre les schémas de codage et de décodage qui permettent de transporter les bits de

6
Chapitre 9 Ethernet Exploration1

trame sous la forme de signaux, le long du support. Les périphériques Ethernet utilisent
différents types de câble et de connecteur.
Dans les réseaux modernes, Ethernet utilise les câbles de cuivre à paires torsadées non
blindées et les fibres optiques pour interconnecter les périphériques réseau via des
périphériques intermédiaires tels que les concentrateurs et les commutateurs. Avec
tous les types de support qu’Ethernet prend en charge, la structure de trame Ethernet
reste la même, quelle que soit le type de mise en œuvre physique d’Ethernet. C’est
pour cette raison que cette technologie est très évolutive et permet de répondre aux
besoins des réseaux modernes.

9.2 Ethernet : la communication via le réseau local (LAN)


8.2.1 L’histoire d’Ethernet
Les bases de la technologie Ethernet sont apparues dans les années 70, avec un
programme appelé Alohanet. Il s’agissait d’un réseau radio numérique conçu pour
transmettre les informations via une fréquence radio partagée entre les îles
hawaïennes.
Avec Alohanet, toutes les stations devaient suivre un protocole selon lequel une
transmission sans reçu devait être retransmise après un court délai. Des techniques
similaires permettant d’utiliser un support partagé ont été appliquées plus tard à la
technologie filaire, sous la forme d’Ethernet.
Ethernet a été développé dans l’objectif d’accueillir plusieurs ordinateurs
interconnectés sur une topologie de bus partagée.
La première version d’Ethernet incorporait une méthode de contrôle de l’accès aux
supports appelée CSMA/CD (Carrier Sense Multiple Access with Collision Detection).

7
Chapitre 9 Ethernet Exploration1

Cette méthode d’accès a permis de résoudre les problèmes liés à la communication de


plusieurs périphériques sur un support physique partagé.

Les premiers supports Ethernet


Les premières versions d’Ethernet font appel aux câbles coaxiaux pour connecter les
ordinateurs à une topologie de bus. Chaque ordinateur est directement connecté au
réseau fédérateur. Ces premières versions d’Ethernet s’appelaient Thicknet, (10BASE5)
et Thinnet (10BASE2).
10BASE5 ou Thicknet reposait sur un câble coaxial épais prenant en charge des
distances de câblage de 500 mètres au maximum, avant que le signal ne nécessite un
répéteur. 10BASE2 ou Thinnet utilise un câble coaxial plus mince et plus souple que
Thicknet et prend en charge des distances de câblage de 185 mètres.
La migration de la mise en œuvre initiale d’Ethernet vers des mises en œuvre actuelles
et futures est possible grâce à la structure quasiment inchangée du tramage de la
couche 2. Les supports physiques, l’accès aux supports et leur contrôle évoluent de
façon permanente. En revanche, l’en-tête et le code de fin Ethernet n’ont quasiment
pas changé.
Les premières mises en œuvre d’Ethernet ont été déployées dans un environnement
LAN à faible bande passante, dans lequel l’accès aux supports partagés était géré par la
méthode CSMA, et plus tard CSMA/CD. Ethernet reposait non seulement sur une
topologie de bus logique au niveau de la couche liaison de données, mais aussi sur une
topologie de bus physique. Cette dernière est devenue problématique avec l’expansion
des réseaux locaux et les demandes de services LAN, devenant de plus en plus
nombreuses sur l’infrastructure.
Les câbles coaxiaux épais et les supports coaxiaux fins ont été remplacés par les
premières catégories câbles à paires torsadées non blindées. Comparés aux câbles

8
Chapitre 9 Ethernet Exploration1

coaxiaux, les câbles à paires torsadées non blindées sont plus maniables, plus légers et
moins chers.
Une topologie en étoile avec des concentrateurs a supplanté la topologie initiale. Les
concentrateurs concentrent les connexions. En d’autres termes, ils rassemblent un
groupe de nœuds et permettent au réseau de les interpréter en tant qu’unité unique.
Lorsqu’une trame parvient sur un port, elle est copiée sur les autres ports pour que
tous les segments du réseau LAN reçoivent cette trame. L’utilisation d’un concentrateur
dans cette topologie de bus a permis d’améliorer la fiabilité des réseaux car, même si
l’un des câbles est défectueux, le réseau continue à fonctionner. Toutefois, la répétition
de la trame sur tous les ports n’a pas résolu les problèmes de collisions. Plus loin dans
ce chapitre, nous verrons comment les problèmes de collisions dans les réseaux
Ethernet sont gérés par l’introduction des commutateurs.

9.2.2 Gestion des collisions Ethernet


Ethernet hérité
En règle générale, dans les réseaux 10BASE-T, le point central du segment de réseau
était le concentrateur. Ce point servait donc de support partagé. Le support étant
partagé, une seule station à la fois pouvait effectuer une transmission. Cette
transmission est dite bidirectionnelle non simultanée.
Au fur et à mesure que des périphériques étaient ajoutés à un réseau Ethernet, le
nombre de collisions de trame augmentaient considérablement. Durant des périodes
de faible activité de communication, les quelques collisions qui surviennent sont gérées
par CSMA/CD, sans conséquence majeure sur les performances. En revanche, lorsque
le nombre de périphériques et le trafic de données subséquent augmentent, le nombre
important de collisions peut avoir des effets négatifs pour les utilisateurs.
C’est un peu comme lorsque nous quittons la maison pour partir au travail tôt le matin,
les routes sont bien dégagées. Par contre, plus la circulation augmente sur les routes,
plus il y a de risques d’accidents et plus le trafic s’en trouve ralenti.
9
Chapitre 9 Ethernet Exploration1
Ethernet moderne
L’introduction des commutateurs dans les réseaux Ethernet a supplanté l’utilisation des
concentrateurs et permis d’améliorer considérablement les performances LAN. Les
commutateurs ont été introduits en même temps qu’Ethernet 100BASE-TX. Ils
permettent de contrôler le flux de données en isolant chaque port et en envoyant une
trame uniquement à sa destination (si elle est connue), plutôt qu’en envoyant chaque
trame à chaque périphérique.
Le commutateur réduit le nombre de périphériques recevant chaque trame, ce qui
permet de minimiser les risques de collisions. Par la suite, l’introduction des
communications bidirectionnelles simultanées, dont la connexion transporte à la fois
des signaux transmis et reçus), a permis de développer Gigabit Ethernet et de le
dépasser.

9.2.9 Gigabit Ethernet et ses suites


Les applications qui traversent quotidiennement les liaisons de réseau parviennent à
surcharger les réseaux les plus robustes. Par exemple, l’utilisation grandissante des
services voix sur IP (VoIP) et multimédia nécessite des connexions plus rapides
qu’Ethernet 100 Mbits/s.
Gigabit Ethernet est utilisé pour décrire les mises en œuvre Ethernet qui fournissent
une bande passante de 1 000 Mbits/s (1 Gbit/s) ou d’un débit supérieur. Cette avancée
repose sur les technologies de transmission bidirectionnelle simultanée, ainsi que sur
les technologies de support UTP et à fibres optiques de l’Ethernet hérité.
L’amélioration des performances réseau est considérable lorsque le débit potentiel
passe de 100 Mbits/s à 1 Gbit/s et plus.
La mise à niveau vers Gigabit Ethernet n’implique pas toujours le remplacement
complet de l’infrastructure réseau existante, en termes de câbles et de commutateurs.
Certains des équipements et des câbles installés dans les réseaux bien conçus existants
peuvent fonctionner normalement avec des débits plus élevés, en subissant une mise à
niveau minimale. Cela présente l’avantage de réduire le coût total de possession du
réseau.
10
Chapitre 9 Ethernet Exploration1

Ethernet au-delà du LAN


Les distances de câblage plus grandes, rendues possibles grâce aux câbles à fibres
optiques des réseaux Ethernet, font qu’il est aujourd’hui difficile de distinguer un
réseau local d’un réseau étendu. À l’origine, la mise en œuvre d’Ethernet était limitée
par les systèmes de câblage LAN à un bâtiment à la fois, puis elle a été étendue entre
plusieurs bâtiments. Aujourd’hui, cette mise en œuvre est possible pour toute une ville,
c’est ce que l’on appelle le réseau métropolitain ou MAN (Metropolitan Area Network).

11
Chapitre 9 Ethernet Exploration1

9.3 Trame Ethernet


9.3.1 La trame : encapsulation du paquet
La structure de trame Ethernet ajoute des en-tête et des codes de fin à l’unité de
données de protocole de la couche 3 pour encapsuler le message envoyé.
L’en-tête et le code de fin Ethernet comportent plusieurs parties d’informations dont
se sert le protocole Ethernet. Chaque section de la trame est appelée un champ. On
distingue deux types de tramage Ethernet : la spécification IEEE 802.3 (d’origine) et
IEEE 802.3 (Ethernet) révisée.
Les différences entre les deux types de tramage sont minimes. Il s’agit notamment de
l’ajout d’un délimiteur de début de trame (SFD) et d’une petite modification apportée
au champ Type de manière à inclure la longueur, comme l’indique la figure.
Taille d’une trame Ethernet
La norme Ethernet initiale prévoyait une taille de trame minimale de 64 octets et
maximale de 1 518 octets. Cela comprenait tous les octets du champ Adresse MAC de
destination jusqu’au champ Séquence de contrôle de trame. Les champs Préambule et
Délimiteur de début de trame n’étaient pas inclus dans la description de la taille d’une
trame. La norme IEEE 802.3ac, publiée en 1998, a fixé la taille de trame maximale
autorisée à 1 522 octets. La taille de trame a évolué de manière à prendre en charge
une technologie appelée VLAN (Virtual Local Area Network, réseau local virtuel). Ces
réseaux virtuels privés, créés dans un réseau commuté, font l’objet d’un autre chapitre
du cours.
Si la taille d’une trame transmise est inférieure à la taille minimale ou supérieure à la
taille maximale, le périphérique récepteur abandonne la trame. Les trames
abandonnées sont souvent le résultat de collisions ou d’autres signaux rejetés et donc
traités comme étant non valides.

12
Chapitre 9 Ethernet Exploration1

Champs Préambule et Délimiteur de début de trame


Les champs Préambule, de 7 octets, et Délimiteur de début de trame, de 1 octet,
permettent une synchronisation entre les périphériques d’envoi et de réception. Les
huit premiers octets de la trame préparent les nœuds de réception à recevoir. Les
quelques premiers octets indiquent essentiellement aux récepteurs de se préparer à
recevoir une nouvelle trame.
Champ Adresse MAC de destination
Ce champ de 6 octets identifie l’adresse de la destination. Comme nous l’avons vu
précédemment, cette adresse est utilisée par la couche 2 pour aider les périphériques à
déterminer si une trame leur est adressée. L’adresse de la trame est comparée à
l’adresse MAC du périphérique. Si les deux correspondent, le périphérique accepte la
trame.
Champ Adresse MAC source
Ce champ de 6 octets permet d’identifier l’interface ou la carte réseau émettrice de la
trame. Les commutateurs utilisent également cette adresse pour les ajouter à leurs
tables de recherche. Ce chapitre décrit le rôle des commutateurs dans l’une des
sections suivantes.
Champ Longueur/Type
Ce champ de 2 octets définit la longueur exacte du champ de données de la trame.
Cette longueur est ensuite utilisée dans la séquence de contrôle de trame, pour
garantir la réception du message. Une longueur ou un type peut être entré dans ce
champ. Toutefois, seul l’un ou l’autre peut être utilisé dans une mise en œuvre donnée.
Si le champ a pour objectif de désigner un type, le champ Type décrit le protocole mis
en œuvre.
Le champ Longueur/Type comportait uniquement la longueur dans les premières
versions d’IEEE et uniquement le type dans la version DIX. Étant très courantes, ces
deux utilisations du champ ont été officiellement combinées dans l’une des dernières
versions d’IEEE. Le champ Type d’Ethernet II est incorporé dans la définition de trame
802.3 actuelle. Ethernet II est le format de trame Ethernet utilisé dans les réseaux
TCP/IP. Lorsqu’un nœud reçoit une trame, il doit examine le champ Longueur/Type
pour déterminer le protocole de couche supérieure présent. Si la valeur de deux octets
est supérieure ou égale à l’hexadécimal 0x600 ou au décimal 1 536, le contenu du
champ de données est décodé selon le protocole indiqué.
Champs Données et Remplissage
Ces deux champs de 46 - 1 500 octets contiennent les données encapsulées d’une
couche supérieure qui est une unité de données de protocole de couche 3 c’est-à-dire
un paquet IPv4. La longueur minimale de la trame est fixée à 64 octets. Si un petit
paquet est encapsulé, le champ Pad est utilisé pour augmenter la taille de la trame
pour qu’elle atteigne la valeur minimale.

13
Chapitre 9 Ethernet Exploration1

Préambule : préambule de trame à 7 octets


Début du délimiteur de trame : début du délimiteur de trame 1 octet
Adresse de destination : adresse MAC de destination à 6 octets
Adresse source : Adresse MAC source à 6 octets
Longueur/Type : longueur de trame à 2 octets ou type de protocole encapsulé
En-tête et données 802.2 : données de 46 à 1500 octets (paquet encapsulé) plus
remplissage, le cas échéant
Séquence de contrôle de trame : à 4 octets (somme de contrôle CRC)
Champ Séquence de contrôle de trame
Ce champ de 4 octets permet de détecter les erreurs d’une trame. Il utilise le contrôle
de redondance cyclique (CRC, Cyclic Redundancy Check). Le périphérique d’envoi inclut
les résultats d’un CRC dans le champ FCS de la trame.
Le périphérique de réception reçoit la trame et génère un CRC pour détecter les
erreurs. Si les calculs correspondent, aucune erreur ne se produit. Les calculs non
rapprochés indiquent que les données ont changé et que la trame est abandonnée. Si
les données sont modifiées, cela peut perturber les signaux électriques qui
représentent les bits.

9.3.2 Adresse MAC Ethernet


À l’origine, Ethernet a été mis en œuvre avec une topologie de bus. Chaque
périphérique réseau se connectait au même support partagé. Dans les réseaux de
petite taille ou à faible trafic, il s’agissait d’un déploiement acceptable. Néanmoins, il
restait le problème de l’identification de chacun des périphériques. Le signal pouvait
14
Chapitre 9 Ethernet Exploration1
être envoyé à chaque périphérique, mais comment identifier un périphérique s’il
constituait la destination du message ?
Un identifiant unique appelé adresse MAC (Media Access Control) a été créé pour
pouvoir déterminer les adresses source et de destination sur un réseau Ethernet.
Indépendamment de la variante Ethernet utilisée, la convention d’appellation
fournissait une méthode pour identifier les périphériques à un niveau inférieur du
modèle OSI.
Si vous vous en souvenez, l’adressage MAC est ajouté dans l’unité de données de
protocole de la couche 2. Une adresse MAC Ethernet est une valeur binaire de 48 bits
exprimées sur 12 chiffres hexadécimaux.

Structure de l’adresse MAC


La valeur de l’adresse MAC est un résultat direct des règles mises en application par
l’IEEE auprès des revendeurs pour garantir l’attribution d’adresses uniques à chaque
périphérique Ethernet, et ce, à l’échelle mondiale. Les règles établies par l’IEEE exigent
de chaque revendeur de périphérique Ethernet qu’il s’enregistre auprès de l’IEEE.
L’IEEE attribue au revendeur un code de 3 octets appelé OUI (Organizationally Unique
Identifier, Identifiant unique d’organisation).
L’IEEE demande aux revendeurs de suivre deux règles simples :
Toutes les adresses MAC attribuées à une carte réseau ou à un autre périphérique
Ethernet doivent utiliser, comme 3 premiers octets, l’identifiant OUI attribué au
revendeur correspondant.
Toutes les adresses MAC qui ont le même identifiant OUI doivent recevoir une valeur
unique (référence du revendeur ou numéro de série) dans les 3 derniers octets.
L’adresse MAC est souvent dite rémanente car elle est stockée dans la mémoire morte
de la carte réseau. Cela signifie que l’adresse est codée dans la puce de mémoire morte
(ROM) de façon définitive et qu’elle ne peut pas être modifiée à l’aide d’un logiciel.
Toutefois, lorsque l’ordinateur démarre, la carte réseau copie l’adresse dans la
mémoire vive (RAM). Si l’on examine les trames, c’est l’adresse stockée dans la
15
Chapitre 9 Ethernet Exploration1
mémoire vive (RAM) qui est utilisée comme adresse source à comparer à l’adresse de
destination. L’adresse MAC est utilisée par la carte réseau pour déterminer si un
message doit être transmis aux couches supérieures en vue de son traitement.
Périphériques réseau
Lorsque le périphérique source transmet le message à un réseau Ethernet, les
informations d’en-tête de l’adresse MAC de destination y sont jointes. Le périphérique
source envoie les données sur le réseau. Chaque carte réseau du réseau accède aux
informations pour déterminer si l’adresse MAC correspond à son adresse physique. En
l’absence de correspondance, la carte réseau ignore la trame. Lorsque la trame atteint
la destination dans laquelle l’adresse MAC de la carte réseau correspond à l’adresse

MAC de destination de la trame, la carte réseau transmet la trame jusqu’aux couches


OSI, dans laquelle se produit le décapsulage.
Tous les périphériques connectés à un réseau LAN Ethernet ont des interfaces
comportant une adresse MAC. Les fabricants de matériel et de logiciels peuvent
représenter l’adresse MAC dans des formats hexadécimaux différents. Les formats
d’adresse peuvent être similaires à 00-05-9A-3C-78-00, [Link] ou à
0005.9A3C.7800. Les adresses MAC sont attribuées à des postes de travail, des
serveurs, des imprimantes, des commutateurs et des routeurs. Tous ces périphériques
doivent envoyer et/ou recevoir des données sur le réseau.

9.3.3 Numérotation hexadécimale et adressage


Numérotation hexadécimale
Ce type de numérotation est un moyen pratique de représenter des valeurs binaires. Le
système de numérotation décimale est en base dix, le système binaire en base deux et
le système hexadécimal est en base seize.
16
Chapitre 9 Ethernet Exploration1
Ce dernier utilise les chiffres compris entre 0 et 9 et les lettres de A à F. La figure
présente les valeurs hexadécimales, décimales et binaires équivalentes pour les
nombres binaires de 0000 à 1111. Pour l’utilisateur, il est plus facile d’exprimer une
valeur sous la forme d’un seul chiffre hexadécimal plutôt qu’avec quatre octets.
Comprendre le format binaire
Sachant que 8 bits (un octet) est un regroupement binaire courant, la plage binaire de
00000000 à 11111111 correspond, dans le format hexadécimal, à la plage 00 FF. Les
zéros de gauche sont toujours affichés pour compléter la représentation de 8 bits. Par
exemple, la valeur binaire 0000 1010 correspond à 0A au format hexadécimal.

Représentation de valeurs hexadécimales


Remarque : il est important de distinguer les valeurs hexadécimales des valeurs
décimales en ce qui concerne les caractères 0 à 9, comme l’indique la figure.

Le format hexadécimal est habituellement représenté avec du texte par la valeur


précédée de 0x (par exemple 0x73) ou un exposant 16. Moins souvent, il peut être suivi
de la lettre H, par exemple 73H. Toutefois, dans la mesure où le texte sous forme
d’exposant n’est pas reconnu dans les environnements de ligne de commande ou de
programmation, la représentation technique hexadécimale est précédée d’un 0x. Par
conséquent, les exemples ci-dessus doivent correspondre respectivement à 0x0A et
0x73.
Le format hexadécimal permet de représenter les adresses MAC Ethernet et les
adresses IPv6. Vous avez déjà rencontré le format hexadécimal dans le volet Packets
Byte de Wireshark où il est utilisé pour représenter les valeurs binaires des trames et
des paquets.
Conversions hexadécimales
Les conversions numériques entre des valeurs décimales et hexadécimales sont très
simples, bien que la division ou la multiplication par 16 ne soit pas toujours très
commode. Lorsque de telles conversions sont nécessaires, il est habituellement plus
simple de convertir la valeur décimale ou hexadécimale en valeur binaire, puis de
convertir cette dernière en valeur décimale ou hexadécimale, selon le cas.
Avec un peu de pratique, il est possible de reconnaître les configurations binaires qui
correspondent aux valeurs décimales et hexadécimales. La figure représente ces
configurations pour des valeurs de 8 bits données.

17
Chapitre 9 Ethernet Exploration1

Affichage de l’adresse MAC


Pour visualiser l’adresse MAC de votre ordinateur, utilisez la commande ipconfig /all ou
ifconfig. Dans le schéma, vous pouvez voir l’adresse MAC de cet ordinateur. Si vous
avez accès à la ligne de commande, vous pouvez déterminer celle de votre propre
ordinateur.
Vous pouvez également rechercher l’identifiant OUI de l’adresse MAC pour déterminer
le fabricant de votre carte réseau.

18
Chapitre 9 Ethernet Exploration1

9.3.4 Autre couche d’adressage


Couche liaison de données
L’adressage physique de la couche liaison de données OSI (couche 2), mis en œuvre
sous la forme d’une adresse MAC Ethernet, permet de transporter la trame sur les
supports locaux. Bien que les adresses d’hôte soient uniques, les adresses physiques ne
sont pas organisées au sein d’une hiérarchie. Elles sont associées à un périphérique
particulier, quel que soit son emplacement ou le réseau auquel il est connecté.
Les adresses de la couche 2 n’ont pas de signification en dehors des supports réseau
locaux. Avant d’atteindre sa destination, il arrive qu’un paquet doive traverser plusieurs
technologies de liaison de données dans les réseaux locaux et étendus. De ce fait, un
périphérique source ne connaît pas la technologie utilisée dans les réseaux
intermédiaires et de destination ni dans les structures d’adressage et de tramage de la
couche 2.
Couche réseau
Les adresses de la couche réseau (couche 3), telles que les adresses IPv4, fournissent
un adressage logique omniprésent, compris à la fois par la source et la destination.
Pour atteindre sa destination finale, un paquet transporte l’adresse de la couche 3 de
destination depuis sa source. Toutefois, lorsqu’elle est mise en trame par les différents
protocoles de couche liaison de données rencontrées, l’adresse de la couche 2 qu’il
reçoit chaque fois s’applique uniquement à la partie locale du trajet et à ses supports.
En d’autres termes :
L’adresse de la couche réseau permet l’acheminement du paquet jusqu’à sa
destination.
L’adresse de la couche liaison de données permet l’acheminement du paquet par les
supports locaux sur chaque segment du réseau.

19
Chapitre 9 Ethernet Exploration1

49.3.5 Monodiffusion, multidiffusion et diffusion Ethernet


Avec Ethernet, des adresses MAC différentes sont utilisées pour la monodiffusion, la
multidiffusion et la diffusion sur la couche 2.
Monodiffusion
Adresse MAC de monodiffusion utilisée lorsqu’une trame est envoyée à partir d’un seul
périphérique de transmission, à un seul périphérique de destination.
Dans l’exemple de la figure, un hôte avec l’adresse IP [Link] (source) demande
une page Web au serveur dont l’adresse IP est [Link]. Pour qu’un paquet
monodiffusion soit envoyé et reçu, une adresse IP de destination doit figurer dans l’en-
tête du paquet IP. Une adresse MAC de destination correspondante doit également
être présente dans l’en-tête de la trame Ethernet. L’adresse IP et l’adresse MAC sont
combinées pour transmettre les données à un hôte de destination particulier.

20
Chapitre 9 Ethernet Exploration1

Diffusion
Avec la diffusion, le paquet contient une adresse IP de destination qui ne contient que
des uns (1) dans la partie hôte. Cette numérotation implique que tous les hôtes sur le
réseau local (domaine de diffusion) recevront le paquet et le traiteront. De nombreux
protocoles réseau dont DCHP et ARP utilisent les diffusions. La façon dont le protocole
ARP utilise les diffusions pour mapper les adresses de la couche 2 et de la couche 3 est
décrite plus loin dans ce chapitre.
Comme le montre la figure, l’adresse IP de diffusion d’un réseau requiert une adresse
MAC de diffusion correspondante dans la trame Ethernet. Sur les réseaux Ethernet,
l’adresse MAC de diffusion comporte 48 uns (1), affichés au format hexadécimal FF-FF-
FF-FF-FF-FF.

21
Chapitre 9 Ethernet Exploration1

Multidiffusion
Rappelez-vous que les adresses multidiffusion permettent à un périphérique source
d’envoyer un paquet à un groupe de périphériques. Les périphériques qui font partie
d’un groupe multidiffusion se voient affecter une adresse IP de groupe multidiffusion.
La plage d’adresses multidiffusion s’étend de [Link] à [Link]. Dans la
mesure où les adresses multidiffusion représentent un groupe d’adresses (parfois
appelé groupe d’hôtes), elles ne peuvent s’utiliser que dans la destination d’un paquet.
La source doit toujours avoir une adresse monodiffusion.
Les adresses multidiffusion conviennent, par exemple, dans des situations de jeu à
distance où plusieurs joueurs sont connectés à distance mais jouent au même jeu, et
d’apprentissage à distance via des conférences vidéo, où plusieurs participants sont
connectés au même cours.
22
Chapitre 9 Ethernet Exploration1

Comme avec les adresses monodiffusion et de diffusion, l’adresse IP multidiffusion


nécessite une adresse MAC multidiffusion correspondante pour remettre les trames sur
un réseau local. L’adresse MAC multidiffusion est une valeur spécifique, qui commence
par 01-00-5E au format hexadécimal. La valeur se termine en convertissant les 23 bits
de droite de l’adresse du groupe multidiffusion IP en 6 caractères hexadécimaux de
l’adresse Ethernet. Le bit restant de l’adresse MAC est toujours un 0.

Le schéma illustre un exemple d’adresse hexadécimale 01-00-5E-00-00-0A. Chaque


caractère hexadécimal correspond à 4 bits.
[Link]
[Link]
central/guide/[Link]
[Link]

23
Chapitre 9 Ethernet Exploration1

9.4 Contrôle de l’accès aux supports Ethernet


9.4.1 Contrôle de l’accès aux supports avec Ethernet
Dans un environnement de supports partagés, tous les périphériques ont un accès
garanti aux supports, mais leurs droits correspondants ne sont pas prioritaires. Si
plusieurs périphériques transmettent des données simultanément, les signaux
physiques entrent en collision, et le réseau doit reprendre pour que la communication
soit de nouveau possible.
Les collisions sont le prix que doit payer Ethernet pour la simplicité de chaque
transmission.
Ethernet utilise la méthode d’accès CSMA/CD pour détecter et traiter les collisions, puis
gérer la reprise de la communication.
Puisque tous les ordinateurs prenant en charge Ethernet envoient leurs messages via
les mêmes supports, un schéma de coordination distribuée est utilisé pour détecter
l’activité électrique des câbles. Un périphérique peut ensuite déterminer le moment
auquel il peut transmettre les données. Lorsqu’un périphérique ne détecte qu’aucun
autre ordinateur n’envoie de trame ou de signal porteur, le périphérique transmet les
éventuelles données à envoyer.

24
Chapitre 9 Ethernet Exploration1

9.4.2 CSMA/CD : processus


Détection de signal porteur
Avec la méthode d’accès CSMA/CD, tous les périphériques réseau qui ont des messages
à envoyer doivent les écouter avant de les transmettre.
Si un périphérique détecte un signal provenant d’un autre périphérique, il attend un
certain temps avant d’essayer de transmettre un message.
Si aucun trafic n’est détecté, le périphérique transmet son message. Lorsque la
transmission a lieu, le périphérique continue à écouter le trafic ou les collisions
survenant sur le réseau local. Une fois le message envoyé, le périphérique se remet en
mode d’écoute par défaut.
Accès multiple
Si la distance entre les périphériques est telle que la latence des signaux de l’un des
périphériques implique que les signaux ne seront pas détectés par un deuxième
périphérique, ce dernier peut, lui aussi, commencer à transmettre son message. Le
support a maintenant deux périphériques qui transmettent simultanément leurs
signaux. Leurs messages seront propagés via les supports, jusqu’à ce qu’ils se
rencontrent. À ce stade, les signaux se mélangent, et les messages sont détruits. Bien
que les messages soient endommagés, les signaux restants désordonnés continuent à
se propager sur les supports.
Détection des collisions
Lorsqu’un périphérique est en mode d’écoute, il peut détecter la survenance d’une
collision sur les supports partagés. La détection d’une collision est rendue possible car
tous les périphériques peuvent déterminer si l’amplitude des signaux dépasse le niveau
normal.
Une fois qu’une collision survient, les autres périphériques en mode d’écoute (ainsi que
les périphériques transmetteurs) détectent ce dépassement d’amplitude. Par la suite,
tous les périphériques qui transmettent un message continuent à le transmettre pour
s’assurer que tous les périphériques du réseau détectent la collision.
Signal de congestion et retransmission aléatoire
Dès qu’une collision est détectée par les périphériques transmetteurs, ils envoient un
signal de congestion. Ce signal permet de notifier les autres périphériques de la
collision pour qu’ils invoquent un algorithme d’interruption. Cet algorithme demande à
tous les périphériques de cesser leur transmission pendant un temps qui est aléatoire,
ce qui permet aux signaux de collision de diminuer.
Une fois le délai expiré sur un périphérique, ce dernier se remet en mode d’écoute
avant transmission. Une période de réémission aléatoire garantit que les périphériques
impliqués dans la collision ne tentent pas d’envoyer leur trafic en même temps, ce qui
engendrerait une reproduction de l’ensemble du processus. Toutefois, cela signifie
également qu’un troisième périphérique puisse transmettre ses messages avant que les
deux impliqués dans la collision n’aient une chance de retransmettre leur trafic.

25
Chapitre 9 Ethernet Exploration1

26
Chapitre 9 Ethernet Exploration1

27
Chapitre 9 Ethernet Exploration1

Concentrateurs et domaines de collision


En supposant que des collisions se produiront occasionnellement dans une topologie
de supports partagés, même en appliquant la méthode CSMA/CD, nous devons
examiner les circonstances susceptibles d’accroître le nombre de collisions. Suite à la
croissance rapide d’Internet :
o Davantage de périphériques sont connectés au réseau.
o Les périphériques accèdent aux supports réseau plus souvent.
o Les distances entre les périphériques augmentent.
Souvenez-vous que les concentrateurs ont été créés pour servir de périphériques
réseau intermédiaires, qui permettent à un nombre plus important de nœuds de se
connecter aux supports partagés. Également appelés « répéteurs multiport », les
concentrateurs retransmettent les signaux de données reçus à tous les périphériques
connectés, sauf à celui qui a émis les signaux. Les concentrateurs n’exécutent pas de
fonctions réseau, telles que la direction des données en fonction d’adresses.
Les concentrateurs et les répéteurs sont des périphériques intermédiaires qui
permettent d’augmenter la distance que les câbles Ethernet peuvent atteindre. Dans la
mesure où les concentrateurs fonctionnent sur la couche physique pour s’occuper des
signaux traversant les supports, des collisions peuvent survenir entre les périphériques
qu’ils connectent et à l’intérieur des concentrateurs eux-mêmes.
De plus, l’utilisation de concentrateurs pour fournir un accès réseau à un plus grand
nombre d’utilisateurs réduit les performances pour chaque utilisateur, car la capacité
fixe des supports doit être partagée entre un nombre grandissant de périphériques.
Les périphériques connectés qui accèdent à un support partagé via un concentrateur
ou une série de concentrateurs directement connectés forment ce que l’on appelle un
domaine de collision. Ce dernier est également désigné sous le nom de segment de
réseau. Les concentrateurs et les répéteurs ont donc pour effet d’augmenter la taille du
domaine de collision.
Comme l’indique la figure, l’interconnexion de concentrateurs forment une topologie
physique en forme d'« étoile étendue ». L’étoile étendue peut créer un domaine de
collision considérablement étendu.
Un nombre accru de collisions réduit l’efficacité et l’efficience d’un réseau, jusqu’à ce
que les collisions deviennent une nuisance pour l’utilisateur.

28
Chapitre 9 Ethernet Exploration1

Bien que la méthode d’accès CSMA/CD soit un système de gestion des collisions de
trames, il s’applique à un nombre limité de périphériques et sur des réseaux dont le
trafic est peu important. Ainsi, d’autres mécanismes doivent être mis en œuvre
lorsqu’un très grand nombre d’utilisateurs nécessitent un accès et si les besoins en
accès réseau actif sont plus importants.
Nous verrons que l’utilisation de commutateurs à la place de concentrateurs peut
permettre de résoudre le problème, du moins en partie.
[Link]

9.4.3 Synchronisation Ethernet


Des mises en œuvre plus rapides de la couche physique d’Ethernet ont compliqué la
gestion des collisions.
Latence
Comme nous l’avons précisé, chaque périphérique qui doit transmettre du trafic doit
d’abord « écouter » pour vérifier la présence de transmissions. En l’absence de trafic, il
entame immédiatement la transmission. Le signal électrique qui est transmis met un
certain temps (latence) pour se propager (traverser) le long du câble. Chaque
concentrateur, ou « répéteur », qui se trouve sur le trajet du signal ajoute de la latence
pour acheminer les bits d’un port à l’autre.
Ce délai cumulé augmente la probabilité de survenance de collisions, dans la mesure où
un nœud écouteur peut se mettre à transmettre des signaux alors que le concentrateur
ou le répéteur est déjà en train de traiter le message. Puisque le signal n’avait pas
encore atteint ce nœud alors qu’il était en phase d’écoute, il en a conclu que le support
était disponible. C’est dans ce type de circonstance que des collisions surviennent.

29
Chapitre 9 Ethernet Exploration1

Synchronisation
En communication bidirectionnelle simultanée, en partant du principe qu’aucune
collision ne s’est produite, le périphérique émetteur transmet 64 bits d’informations de
synchronisation, appelées « préambule ».
Le périphérique émetteur achemine ensuite l’intégralité de la trame.
Les mises en œuvre Ethernet à des débits de 10 Mbits/s et inférieurs, sont dites
asynchrones. Dans ce contexte, la communication asynchrone implique que chaque
périphérique récepteur utilise les 8 octets d’informations de synchronisation pour
synchroniser le circuit de réception sur les données entrantes, puis abandonne les
8 octets.
Les mises en œuvre Ethernet à des débits de 100 Mbits/s et supérieurs, sont dites
synchrones. Dans ce contexte, la communication synchrone implique qu’aucune
information de synchronisation n’est nécessaire. Toutefois, pour des raisons de
compatibilité, les champs Preamble (Préambule) et SFD (Start Frame Delimiter,
Délimiteur de début de trame), sont tout de même présents.

Durée de bit
Pour chaque vitesse de support, le placement et la détection d’un bit sur le support
peut prendre un certain temps. Ce temps s’appelle la durée de bit. Sur Ethernet
10 Mbits/s, il faut 100 nanosecondes (ns) pour transmettre un bit au niveau de la
couche MAC. À 100 Mbits/s, il lui faut 10 ns pour procéder à la transmission. À 1 000
Mbits/s, il lui faut seulement 1 ns pour procéder à la transmission.

30
Chapitre 9 Ethernet Exploration1

Selon une estimation approximative, la valeur de 20,32 cm par nanoseconde est


souvent utilisée pour calculer le délai de propagation le long d’un câble UTP. Ainsi, pour
cent mètres de câble à paires torsadées non blindées, il faut 5 durées de bit à peine à
un signal 10BASE-T pour parcourir la longueur du câble.
Pour que la méthode d’accès Ethernet CSMA/CD puisse fonctionner, le périphérique
émetteur doit avoir connaissance d’une collision avant d’avoir terminé la transmission
d’une trame de taille minimum. À 100 Mbits/s, l’émission des données de
synchronisation des périphériques s’étale sur 100 mètres de câble. À 1000 Mbits/s, des
ajustements spéciaux sont nécessaires, du fait qu’environ une trame de taille minimum
serait transmise avant que le premier bit n’atteigne la fin des premiers 100 mètres de
câble UTP. C’est pour cette raison que la transmission bidirectionnelle non simultanée
n’est pas autorisée dans le 10-Gigabit Ethernet.
Ces paramètres de synchronisation doivent être appliqués à l’espacement intertrame
et aux durées de réémission (éléments présentés en détail dans la section suivante)
pour s’assurer que lorsqu’un périphérique transmet sa trame suivante, le risque de
collision est réduit.
Fenêtre de collision
Dans la transmission Ethernet bidirectionnelle non simultanée, où les données ne
voyagent que dans un seul sens à la fois, la fenêtre de collision devient un facteur
déterminant dans l’évaluation du nombre de périphériques qui partagent un réseau.
Pour toutes les vitesses de transmission Ethernet égales ou inférieures à 1 000 Mbits/s,
la norme détermine comment une transmission unique ne peut pas être inférieure à la
fenêtre de collision.
La définition de la fenêtre de collision est un compromis entre la nécessité d’alléger les
conséquences d’une reprise sur collision (durée de réémission et de retransmission) et
la nécessité d’augmenter suffisamment les distances réseau pour prendre en charge
des tailles de réseau adéquates. Dans ce compromis, il a fallu choisir un diamètre de
réseau maximal (environ 2 500 mètres), puis fixer la longueur maximale de trame de
manière à pouvoir détecter les collisions les plus dangereuses.
La fenêtre de collision pour Ethernet 10 et 100 Mbits/s est de 512 durées de bit, soit
64 octets. La fenêtre de collision pour Ethernet 1 000 Mbits/s est 4 096 durées de bit,
soit 512 octets.
La fenêtre de collision permet de garantir que si une collision est sur le point de se
produire, elle sera détectée dans les 512 premiers bits (4 096 pour Gigabit Ethernet) de
la transmission de la trame. Cela simplifie la gestion des retransmissions de trame suite
à une collision.
La fenêtre de collision est un paramètre important pour diverses raisons, qui sont les
suivantes :
o La fenêtre de collision de 512 bits fixe la taille minimale d’une trame Ethernet à
64 octets. Toute trame inférieure à cette valeur est interprétée comme un
fragment de collision ou une trame incomplète et est automatiquement rejetée
par les périphériques récepteurs.
o La fenêtre de collision établit une limite pour la taille maximale des segments
d’un réseau. Si le réseau devient trop important, des collisions tardives peuvent
31
Chapitre 9 Ethernet Exploration1

s’ensuivre. Ces dernières sont considérées comme une panne du réseau car elles
sont détectées trop tard par les périphériques durant la transmission de la trame
qui doit être automatiquement gérée par CSMA/CD.
o La fenêtre de collision est calculée en partant du principe que des longueurs de
câble maximales sont utilisées sur la plus grande architecture légale de réseau.
Tous les délais de propagation sont fixés au niveau maximum légal, et le signal de
congestion 32 bits est utilisé lorsque des collisions sont détectées.
o La fenêtre de collision réelle est à peine supérieure à la durée théorique requise
pour qu’une trame parcoure le chemin entre les points les plus éloignés du
domaine de collision, puis entre en collision au dernier moment avec une autre
transmission, et que les fragments de collision retournent au périphérique
émetteur et soient détectés. Reportez-vous à la figure.

Pour que le système fonctionne, le premier périphérique doit détecter la collision avant
d’avoir terminé d’envoyer la plus petite taille de trame légale.
Pour permettre à Ethernet 1 000 Mbits/s de fonctionner en mode bidirectionnel non
simultané, le champ d’extension a été ajouté aux seules fins d’occuper l’émetteur
suffisamment longtemps pour le retour d’un fragment de collision lors de l’envoi de
petites trames. Ce champ n’est présent que sur les liaisons 1 000 Mbits/s en mode
bidirectionnel non simultané et permet aux trames de taille minimale d’être assez
longues pour satisfaire les exigences des fenêtres de collision. Les bits d’extension sont
abandonnés par le périphérique récepteur.

32
Chapitre 9 Ethernet Exploration1

9.4.4 Espacement inter-trame et réémission


Espacement inter-trame
Les normes Ethernet prévoient un espacement minimum entre deux trames n’entrant
pas en collision. Cela donne aux supports le temps de se stabiliser après la transmission
de la trame précédente et aux périphériques le temps de traiter la trame. Désigné sous
le nom d’espacement inter-trame, cet intervalle est mesuré entre le dernier bit du
champ FCS de la première trame et le premier bit du champ Preamble (Préambule) de
la deuxième trame.
Lorsqu’une trame est envoyée, tous les périphériques d’un réseau Ethernet 10 Mbits/s
doivent attendre au minimum une durée de 96 bits, soit 9,6 microsecondes, avant
qu’un autre périphérique ait le droit de transmettre la trame suivante. Sur les versions
plus rapides d’Ethernet, l’espacement reste le même, c’est-à-dire 96 durées de bit,
mais le temps nécessaire pour cet intervalle se réduit de façon proportionnelle.
Les délais de synchronisation entre les périphériques peuvent entraîner la perte de
quelques bits de préambule de trame. Cela peut réduire sensiblement l’espacement
inter-trame lorsque les concentrateurs et les répéteurs réémettent les 64 bits
d’informations (champs Preamble et SFD) au début de chaque trame transmise. À des
débits Ethernet plus importants, certains périphériques sensibles aux délais risquent de
ne pas pouvoir reconnaître les trames individuelles et de devenir des points d’échec de
communication.

Signal de brouillage
Rappelez-vous qu’Ethernet permet aux périphériques de se faire concurrence en
termes de durée de transmission. Si deux périphériques transmettent du trafic en
même temps, la fonction CSMA/CD du réseau tentera automatiquement de résoudre le
problème. N’oubliez pas, cependant, que lorsqu’un nombre important de
périphériques sont ajoutés au réseau, il est possible que les collisions soient de plus en
plus difficiles à résoudre.

33
Chapitre 9 Ethernet Exploration1

Dès qu’une collision est détectée, les périphériques émetteurs transmettent un signal
de brouillage sur 32 bits qui déclenchera la collision. Cela permet à tous les
périphériques du réseau LAN de détecter la collision.
Il est important que le signal de brouillage ne soit pas interprété comme une trame
valide, sinon les périphériques ne pourront pas identifier la collision. La configuration
de données la plus courante pour un signal de brouillage est simplement une
configuration répétitive de 1, 0, 1, 0, comme dans le champ Preamble (Préambule).
Les messages endommagés et partiellement transmis sont souvent appelés
« fragments de collision » ou « trames incomplètes ». Les collisions normales, dont la
longueur est inférieure à 64 octets, et n’est donc pas conforme à la longueur minimale
et aux tests FCS, sont faciles à identifier.

Durée de réémission
Lorsqu’une collision se produit et que tous les périphériques rendent le câble inactif (en
attente de l’espacement intertrame complet), les périphériques à l’origine de la
collision doivent observer un délai supplémentaire qui peut s’allonger
progressivement, avant de tenter de retransmettre la trame entrée en collision. Le
délai d’attente est intentionnellement aléatoire afin que les deux périphériques
n’observent pas le même délai avant de procéder à la retransmission, ce qui
entraînerait davantage de collisions. Pour cela, on étend l’intervalle de base à la
sélection de la durée de retransmission lors de chaque tentative de retransmission. La
période d’attente est mesurée par incréments de la fenêtre de collision.
Si la congestion des supports rend l’envoi de la trame impossible après seize tentatives
par la couche MAC, elle abandonne et génère une erreur sur la couche réseau. Une
telle situation est assez rare et ne peut se produire qu’en cas de surcharge extrême du
réseau, ou lorsqu’il existe un problème physique.
Les méthodes décrites dans cette section permettent à Ethernet de fournir un service
plus fiable dans une topologie de supports partagés, basée sur l’utilisation de
concentrateurs. Dans la section suivante, consacrée aux commutateurs, nous verrons
comment ils réduisent ou éliminent le besoin d’utiliser la fonction CSMA/CD.
34
Chapitre 9 Ethernet Exploration1

9.5 Couche physique Ethernet


9.5.1 Vue d’ensemble de la couche physique Ethernet
Les différences entre les normes Ethernet, Fast Ethernet, Gigabit Ethernet et 10 Gigabit
Ethernet apparaissent au niveau de la couche physique, souvent appelée PHY Ethernet.
Ethernet est régi par les normes IEEE 802.3. Quatre débits de données sont
actuellement définis pour fonctionner dans les câbles à fibres optiques et à paires
torsadées, à savoir :
o 10 Mbits/s : 10Base-T Ethernet
o 100 Mbits/s : Fast Ethernet
o 1000 Mbits/s : Gigabit Ethernet
o 10 Gbits/s : 10 Gigabit Ethernet
Bien qu’il existe de nombreuses mises en œuvre d’Ethernet avec ces débits de
données, nous ne présenterons que la plus courante. La figure illustre certaines de
caractéristiques de PHY Ethernet.
La partie d’Ethernet qui fonctionne sur la couche physique est décrite dans cette
section, en commençant par la variante 10Base-T jusqu’à 10 Gbits/s.

35
Chapitre 9 Ethernet Exploration1

9.5.2 Ethernet 10 Mbits/s et 100 Mbits/s


Les principales mises en œuvre10 Mbits/s d’Ethernet sont les suivantes :
 10BASE5 avec câble coaxial Thicknet
 10BASE2 avec câble coaxial Thinnet
 10BASE-T avec câble à paires torsadées non blindées de catégorie 3 ou 5
Les premières mises en œuvres d’Ethernet, 10BASE5 et 10BASE2, faisaient appel à un
câble coaxial dans un bus physique. Elles ne sont plus appliquées et ne sont, par
ailleurs, pas prises en charge par les normes 802.3.
Ethernet 10 Mbits/s - 10BASE-T
10BASE-T utilise un codage Manchester sur deux câbles à paires torsadées non
blindées. Les premières mises en œuvre d’Ethernet, 10BASE-T faisaient appel à un
câblage de catégorie 3. Toutefois, la catégorie 5 ou supérieure est beaucoup plus
répandue aujourd’hui.
Ethernet 10 Mbits/s correspond à Ethernet classique et repose sur une topologie
physique en étoile. Les liaisons Ethernet 10BASE-T peuvent atteindre jusqu’à
100 mètres avant de nécessiter un concentrateur ou un répéteur.
10BASE-T utilise deux paires de câble à 4 paires et des connecteurs RJ-45 à 8 broches,
sertis à chaque extrémité. La paire connectée aux broches 1 et 2 est destinée à la
transmission et celle connectée aux broches 3 et 6 à la réception. La figure illustre la
brochage RJ45 utilisé dans Ethernet 10BASE-T.
10BASE-T ne convient généralement pas à de nouvelles installations de réseaux LAN.
Toutefois, de nombreux réseaux Ethernet 10BASET-T sont fonctionnels aujourd’hui.
Dans les réseaux 10BASE-T, le remplacement des concentrateurs par des
commutateurs a considérablement amélioré les débits disponibles et a permis
d’allonger la durée de vie d’Ethernet hérité. Les liaisons 10BASE-T connectées à un
commutateur peuvent prendre en charge les transmissions bidirectionnelles
simultanées et non simultanées.

36
Chapitre 9 Ethernet Exploration1

100 Mbits/s - Fast Ethernet


Au milieu des années 90, plusieurs nouvelles normes 802.3 ont été établies pour
décrire des méthodes de transmission des données sur des supports Ethernet à
100 Mbits/s. Ces normes utilisaient différentes configurations de codage pour pouvoir
atteindre ces débits de données plus importants.
Ethernet 100 Mbits/s, également désigné sous le nom de Fast Ethernet, peut être mis
en œuvre à l’aide de câble en cuivre à paires torsadées ou de supports à fibres
optiques. Les mises en œuvre de Fast Ethernet les plus répandues sont les suivantes :
o 100BASE-TX avec câble UTP de catégorie 5 ou supérieure
o 100BASE-FX avec un câble à fibres optiques
Dans la mesure où les signaux de plus haute fréquence utilisés dans Fast Ethernet sont
plus sensibles aux interférences, deux étapes de codage distinctes sont appliquées par
Fast Ethernet pour améliorer l’intégrité des signaux.
100BASE-TX
100BASE-TX a été conçu pour prendre en charge les transmissions sur deux paires de
câble UTP de catégorie 5 ou deux brins de fibres optiques. La mise en œuvre 100BASE-
TX utilise les deux mêmes paires et brochages UTP que 10BASE-T. Toutefois, 100BASE-
TX nécessite des câbles UTP de catégorie 5 ou supérieure. Le codage 4B/5B est utilisé
pour 100BASE-T Ethernet.
Comme avec 10BASE-TX, 100Base-TX est connecté selon une topologie physique en
étoile. La figure illustre un exemple de topologie en étoile. En revanche, contrairement
aux réseaux 10BASE-T, les réseaux 100BASE-TX utilisent généralement un commutateur
au lieu d’un concentrateur au centre de l’étoile. Quasiment au même moment, les
technologies 100BASE-TX se sont répandues, les commutateurs LAN étant également
très largement déployés. Ces développements concourants ont conduit à leur
combinaison naturelle dans la conception des réseaux 100BASE-TX.
100BASE-FX
La norme 100BASE-FX utilise la même procédure de signalement que 100BASE-TX, mais
via un support à fibres optiques plutôt que via des câbles en cuivre UTP. Bien que le
codage, le décodage et les procédures de récupération d’horloge soient les mêmes
pour les deux supports, la transmission des signaux est différentes (impulsions
électriques dans le cuivre et impulsion lumineuses dans les fibres optiques). 100BASE-
FX utilise des connecteurs d’interface à fibres bon marché (appelés connecteurs SC
duplex).
Les mises en œuvre d’Ethernet à fibres optiques sont des connexions de point à point,
c’est-à-dire qu’elles permettent la connexion de deux périphériques. Ces connexions
peuvent être établies entre deux ordinateurs, un ordinateur et un commutateur ou
entre deux commutateurs.

37
Chapitre 9 Ethernet Exploration1

9.5.3 Ethernet 1000 Mbits/s


1 000 Mbits/s - Gigabit Ethernet
L’établissement des normes Gigabit Ethernet a permis de créer des spécifications pour
les supports cuivre UTP, fibres multi-modes et fibres monomodes. Sur des réseaux
Gigabit Ethernet, les bits se déplacent en une fraction de la durée qu’ils utiliseraient sur
des réseaux 100 Mbits/s et 10 Mbits/s. La fréquence des signaux étant plus élevée, les
bits deviennent plus sensibles aux interférences. La synchronisation est donc un facteur
déterminant. Les performances dépendent de la rapidité avec laquelle la carte ou
l’interface réseau change de niveau de tension et du degré de fiabilité de la détection
de ces changements, dans un périmètre de 100 mètres, par la carte ou l’interface
réseau réceptrice.
Avec des vitesses plus élevées, le codage et le décodage des données sont des
processus plus complexes. Gigabit Ethernet fait appel à deux étapes de codage
distinctes. La transmission des données est plus efficace lorsque les codes sont utilisés
pour représenter le flux binaire. Le codage des données permet la synchronisation,
l’optimisation de l’utilisation de la bande passante et améliore également le rapport
signal/bruit.
1000BASE-T Ethernet
Ethernet 1000BASE-T fournit une transmission bidirectionnelle simultanée à l’aide de
quatre paires de câble à paires torsadées non blindées de catégorie 5 ou supérieure.
Une connexion Gigabit Ethernet via un câblage de cuivre permet de faire passer le
débit de 100 Mbits/s par paire à 125 Mbits/s soit 500 Mbits/s pour les quatre paires.
Chaque paire de câbles transporte les signaux en mode bidirectionnel simultané, ce qui
permet de doubler le débit (de 500 Mbits à 1 000 Mbits/s).
1000BASE-T utilise un codage de lignes 4D-PAM5 pour obtenir un débit de données de
1 Gbits/s. Le schéma de codage permet de transmettre simultanément des signaux sur
quatre paires de câbles. Il convertit un octet de données de 8 bits en une transmission
simultanée de quatre symboles de code (4D) qui sont envoyés via les supports, un sur
chaque paire, sous forme de signaux d’amplitude de niveau 5 appelés PAM5 (5-level
Pulse Amplitude Modulated). Cela implique que chaque symbole correspond à deux
bits de données. Les informations étant transmises simultanément sur les quatre
chemins, le circuit doit diviser les trames au niveau de l’émetteur et les réunir au
niveau du récepteur. La figure représente l’ensemble des circuits utilisés par Ethernet
1000BASE-T.

38
Chapitre 9 Ethernet Exploration1

1000BASE-T permet la transmission et la réception des données dans les deux sens, sur
le même câblage et en même temps. Ce flux de trafic crée des collisions permanentes
sur les paires de câbles. Ces collisions sont à l’origine de profils électriques complexes.
Les circuits hybrides qui détectent les signaux mettent en œuvre des techniques
sophistiquées telles que l’annulation de l’écho, la correction des erreurs de
transmission sur la couche 1 ou encore la sélection prudente des niveaux de tension.
Grâce à ces techniques, le système peut atteindre un débit de 1 Gigabit.
Pour participer à la synchronisation, la couche physique encapsule chaque trame avec
des délimiteurs de début et de fin de flux. La synchronisation des boucles est gérée par
des flux continus de symboles IDLE, envoyés sur chaque paire de câbles, dans
l’espacement inter-trame.
Contrairement à la plupart des signaux numériques où l’on trouve en principe deux
niveaux de tension discrète, 1000BASE-T utilise plusieurs niveaux. Durant les périodes
d’inactivité, neuf niveaux de voltage sont utilisés dans le câblage. Durant les périodes
de transmission de données, un maximum de 17 niveaux de voltage est utilisé dans le
câblage. Avec ce nombre important d’états et les effets de bruit, les signaux semblent
plus analogiques que numériques. À l’instar des signaux analogiques, le système risque
de générer davantage de bruit, en raison du câblage et des problèmes de
raccordement.

Ethernet 1000BASE-SX et 1000BASE-LX avec câbles à fibres optiques


Les versions à fibres optiques de Gigabit Ethernet - 1000BASE-SX et 1000BASE-LX -
offrent les avantages suivants sur les connexions UTP : elles sont insensibles aux bruits
électromagnétiques, leur taille est réduite, elles permettent de disposer de bandes
passantes plus larges et elles autorisent des distances plus grandes sans répéteur.
Toutes les versions 1000BASE-SX et 1000BASE-LX prennent en charge une transmission
binaire bidirectionnelle simultanée à 1 250 Mbits/s, sur deux brins de fibre optique. Le
39
Chapitre 9 Ethernet Exploration1

codage de transmission est basé sur le schéma de codage 8B/10B. En raison de


l’importante logistique associée à ce codage, le débit de transfert des données reste à
1 000 Mbits/s.
Chaque trame de données est encapsulée au niveau de la couche physique avant sa
transmission, et la synchronisation des liaisons est gérée par l’envoi d’un flux continu
de groupes de codes IDLE, dans l’espacement intertrame.
Les différences majeures entre les versions fibres optiques 1000BASE-SX et 1000BASE-
LX sont les supports de liaison, les connecteurs et la longueur d’onde du signal optique.
Elles sont illustrées dans la figure.

9.5.4 Avenir et devenir d’Ethernet


La norme IEEE 802.3ae a été adaptée pour inclure la transmission en mode
bidirectionnel simultané de 10 Gbits/s sur un câblage à fibres optiques. La norme
802.3ae et les normes 802.3 d’Ethernet initial sont très similaires. 10-Gigabit Ethernet
(10GbE) subit des améliorations non seulement dans le cadre d’une utilisation pour les
LAN, mais aussi pour les MAN et les WAN.
Avec un format de trame et d’autres spécifications de couche 2 d’Ethernet conformes
aux normes précédentes, 10GbE peut fournir une bande passante plus large, utilisable
avec l’infrastructure réseau existante.
10GbE peut être comparé à d’autres variantes d’Ethernet.
Le format de trame identique permet une interopérabilité entre toutes les versions
d’Ethernet : héritées, Fast, Gigabit et 10 Gigabit, et évite un nouveau tramage et la
conversion de protocoles.
La durée d’un bit est désormais de 0,1 ns. Toutes les autres variables de temps
s’adaptent en conséquence.
Puisque des connexions à fibres optiques bidirectionnelles simultanées sont utilisées, il
n’y a pas de conflit d’accès aux supports et la fonction d’accès CSMA/CD est inutile.
Les sous-couches IEEE 802.3 des couches OSI 1 et 2 sont majoritairement préservées,
avec quelques ajouts pour permettre les liaisons à fibre optique sur 40 km et
l’interopérabilité avec d’autres technologies de fibres.
Avec Ethernet 10 Gbits/s, il est désormais possible de disposer de réseaux Ethernet de
bout en bout flexibles, efficaces, fiables et relativement peu onéreux.

40
Chapitre 9 Ethernet Exploration1
Débits Ethernet à venir

Alors que la norme 1 Gigabit Ethernet est désormais largement commercialisée et que
les produits 10Gigabit deviennent plus disponibles, l’IEEE et l’alliance 10 GEA étudient
l’établissement de normes 40, 100 et même 160 Gbits/s. Les technologies adoptées
vont dépendre de plusieurs facteurs, notamment de l’expérience acquise en matière de
technologies et de normes, ou encore du taux d’implantation sur les marchés et du
coût des produits novateurs.

9.6 Concentrateurs et commutateurs


9.6.1 Ethernet hérité : utilisation des concentrateurs
Dans les sections précédentes, nous avons vu qu’Ethernet classique utilisait des
supports partagés et un contrôle d’accès aux supports basés sur des restrictions.
Ethernet classique utilise des concentrateurs pour interconnecter des nœuds sur le
segment du LAN. Les concentrateurs n’effectuent aucun type de filtrage du trafic. En
fait, un concentrateur achemine l’ensemble des bits à tous les périphériques qui y sont
connectés. Cela oblige tous les périphériques du LAN à partager la bande passante des
supports.
De plus, cette mise en œuvre d’Ethernet classique génère souvent un nombre
important de collisions sur le LAN. En raison de ces problèmes de performances, ce
type de LAN Ethernet n’est pas très répandu dans les réseaux modernes. De nos jours,
les mises en œuvre d’Ethernet utilisant des concentrateurs se trouvent en principe
dans les réseaux LAN de petite taille ou dont les besoins en bande passante sont
réduits.

41
Chapitre 9 Ethernet Exploration1
Le partage de supports entre les périphériques crée de sérieux problèmes à mesure de
l’évolution du réseau. La figure illustre certains des problèmes abordés dans ce
chapitre.

Évolutivité
Dans un réseau de concentrateurs, la quantité de bande passante que les
périphériques peuvent partager est limitée. Au fur et à mesure qu’un périphérique est
ajouté aux supports partagés, la bande passante moyenne disponible de chaque
périphérique diminue. Chaque fois que le nombre de périphériques augmente sur les
supports, les performances décroissent.
Latence
La latence du réseau correspond au temps que met un signal pour atteindre toutes les
destinations sur les supports. Chaque nœud d’un réseau de concentrateurs doit
attendre que l’occasion se présente pour transmettre son signal afin d’éviter que des
collisions surviennent. La latence peut augmenter considérablement en cas
d’augmentation de la distance entre les nœuds. La latence dépend également du délai
de transport des signaux le long des supports, ainsi que du délai ajouté par le
traitement des signaux qui traversent les concentrateurs et les répéteurs. Si la longueur
des supports ou le nombre de concentrateurs et de répéteurs connectés à un segment
augmente, la latence augmente également. Plus la latence est grande, plus il y a de
risques que les nœuds ne reçoivent pas les signaux d’origine, plus les risques de
collisions augmentent sur le réseau.
Panne réseau
Dans la mesure où Ethernet classique partage les réseaux, tous les périphériques
peuvent propager leur problème à d’autres périphériques. Si l’un des périphériques
connectés au concentrateur génère un trafic qui peut être nuisible, la communication
entre tous les périphériques sur les supports peut être bloquée. Ce type de trafic
préjudiciable peut provenir de paramètres de vitesse ou de transmission
bidirectionnelle simultanée mal définis sur une carte réseau.
Collisions
Avec la méthode d’accès CSMA/CD, un nœud doit toujours envoyer un paquet sauf si le
réseau ne présente pas de trafic. Si deux nœuds envoient des paquets simultanément,
une collision se produit, ce qui entraîne la perte de paquets. Ensuite, les deux nœuds
envoient un signal de brouillage, observent un délai aléatoire, puis retransmettent
leurs paquets. Toute partie du réseau dans laquelle les trames de deux nœuds ou plus
peuvent entrer en conflit constitue un domaine de collision. Un réseau comportant un
plus grand nombre de nœuds sur le même segment présentera un domaine de collision
plus important, et généralement plus de trafic. Au fur et à mesure que le trafic
augmente sur le réseau, les risques de collisions augmentent également.
Les commutateurs apportent une solution aux environnements basés sur des
restrictions de partage de supports d’Ethernet classique.

42
Chapitre 9 Ethernet Exploration1

43
Chapitre 9 Ethernet Exploration1

9.6.2 Ethernet moderne : utilisation des commutateurs


Ces dernières années, les commutateurs ont pris une place prépondérante dans de
nombreux réseaux. Les commutateurs permettent la segmentation du LAN en
domaines de collisions distincts. Chaque port du commutateur représente un domaine
de collision à part et fournit la bande passante totale du support jusqu’aux nœuds
connectés sur ce port. Avec un plus petit nombre de nœuds dans chaque domaine de
collision, la bande passante moyenne disponible augmente pour chaque nœud, et le
nombre de collisions diminue.
Un réseau LAN peut avoir un commutateur centralisé connecté à des concentrateurs
qui continuent à fournir la connectivité aux nœuds. Par ailleurs, tous les nœuds d’un
réseau local peuvent être connectés directement à un commutateur. Ces topologies
sont présentées dans la figure.
Dans un réseau local (LAN) où un concentrateur est connecté au port d’un
commutateur, la bande passante continue à être partagée, ce qui peut générer des
collisions dans l’environnement partagé du concentrateur. Toutefois, le commutateur
isolera le segment de manière à limiter les collisions au trafic entre les ports du
commutateur.

44
Chapitre 9 Ethernet Exploration1

Les nœuds sont directement connectés


Dans un réseau local (LAN) où tous les nœuds sont connectés directement au
commutateur, le débit du réseau augmente considérablement. Les raisons de ce
phénomène sont les suivantes :
 Bande passante dédiée sur tous les ports
 Environnement sans collision
 Transmission bidirectionnelle simultanée
Ces topologies physiques en étoile ne sont autres que des liaisons de point à point.
*** les facteurs de performances présentés dans la figure.
Bande passante dédiée
Chaque nœud dispose de la bande passe totale du support pour sa connectivité au
commutateur. Étant donné qu’un concentrateur réplique les signaux qu’il reçoit, puis
les envoie à tous les autres ports, les concentrateurs d’Ethernet classique forment un
bus logique. Cela implique que tous les nœuds doivent partager la bande passante de
ce bus. Avec les commutateurs, chaque périphérique bénéficie d’une connectivité point
à point au commutateur, sans restriction de partage d’accès aux supports.
Comparons par exemple deux réseaux locaux (LAN) de 100 Mbits/s, chacun comportant
10 nœuds. Dans le segment de réseau A, ces 10 nœuds sont connectés à un
concentrateur. Chaque nœud partage la bande passante disponible de 100 Mbits/s.
Ainsi, chaque nœud bénéficie d’un débit de 10 Mbits/s en moyenne. Dans le segment
de réseau B, les 10 nœuds sont connectés à un commutateur. Dans ce segment,
l’ensemble de nœuds dispose de toute la bande passante de 100 Mbits/s.
Même dans cet exemple de réseau de petite taille, l’augmentation de la bande
passante peut être considérable. Au fur et à mesure que le nombre de nœuds
augmente, l’écart entre les disponibilités de bande passante dans les deux mises en
œuvre se creuse.
Environnement sans collision
Une connexion point à point à un commutateur permet également de partager les
supports sans restriction et de réduire, voire supprimer, le nombre de collisions
rencontrées sur un nœud. Dans un réseau Ethernet classique de taille moyenne
utilisant des concentrateurs, environ 40 à 50 % de la bande passante sont consommées
par une reprise sur collision. Dans un réseau Ethernet commuté où les collisions ne
surviennent quasiment jamais, la logistique associée à la reprise sur collision est
inexistante. Cela permet au réseau commuté d’atteindre des débits beaucoup plus
élevés.
Transmission bidirectionnelle simultanée
L’utilisation de commutateurs permet à un réseau de fonctionner en tant
qu’environnement Ethernet de transmission bidirectionnelle simultanée. Avant que les
commutateurs n’existent, Ethernet ne fonctionnait qu’en mode bidirectionnel non
simultané. À tout moment, un nœud pouvait soit transmettre soit recevoir, mais pas les
deux à la fois. Avec la communication bidirectionnelle simultanée, les périphériques
connectés directement aux ports des commutateurs peuvent transmettre et recevoir
simultanément des données, en utilisant toute la bande passante.

45
Chapitre 9 Ethernet Exploration1

La connectivité entre le périphérique et le commutateur est mise en œuvre sans


collision. De ce fait, la vitesse de transmission est doublée par rapport à la
communication bidirectionnelle non simultanée. Par exemple, si la vitesse du réseau
est de 100 Mbits/s, chaque nœud peut à la fois transmettre et recevoir une trame à
cette vitesse.
Utilisation des commutateurs à la place des concentrateurs
La plupart des réseaux Ethernet ont des commutateurs comme périphériques finaux et
fonctionnent en mode bidirectionnel simultané. Étant donné que les commutateurs
offrent des débits beaucoup plus élevés que les concentrateurs et améliorent
considérablement les performances, pourquoi ne pas les utiliser dans tous les réseaux
locaux Ethernet ? Les concentrateurs sont encore utilisés, principalement pour les trois
raisons suivantes :
La disponibilité : il a fallu attendre le début des années 90 pour voir apparaître les
premiers commutateurs LAN qui n’ont été commercialisés que dans le milieu des
années 90. Les premiers réseaux Ethernet, qui utilisaient des concentrateurs UTP, les
ont conservés jusqu’à aujourd’hui.
Le coût : au départ les commutateurs étaient très chers. Plus les commutateurs sont
accessibles en termes de prix, puis les concentrateurs tendent à disparaître ; le coût
devient donc un facteur déterminant dans les décisions de déploiement.
La configuration requise : les premiers réseaux LAN étaient de simples structures
conçues pour échanger des fichiers et des imprimantes. Dans la plupart des cas, ils ont
laissé la place à des réseaux multiservices modernes, d’où la croissance des besoins
utilisateurs en bande passante disponible. Toutefois, dans certains cas, un
concentrateur de supports partagés peut suffire et ce type de produit est toujours en
vente.
Dans la section suivante, nous nous intéresserons au fonctionnement de base des
commutateurs et à la façon dont ils permettent d’optimiser les performances dont nos
réseaux dépendent tant aujourd’hui. L’un des cours suivants présente les
commutateurs et les technologies qui y sont associées.

46
Chapitre 9 Ethernet Exploration1

47
Chapitre 9 Ethernet Exploration1

9.6.3 Commutateurs : un réacheminement sélectif


Les commutateurs Ethernet transfèrent de manière sélective des trames individuelles
d’un port récepteur au port sur lequel le nœud de destination est connecté. Ce
processus de réacheminement sélectif peut se comparer à la création d’une connexion
point à point momentanée entre les nœuds de transmission et de réception. Cette
connexion ne dure que le temps d’envoyer une trame unique. Durant ce laps de temps,
les deux nœuds disposent de l’intégralité de la bande passante et représentent une
connexion point à point logique.
Pour être exact, cette connexion temporaire n’est pas simultanée entre les 2 nœuds.
Par essence, c’est ce qui fait de la connexion entre les hôtes une connexion point à
point. En fait, chaque nœud qui fonctionne en mode bidirectionnel simultané peut
transmettre à chaque fois qu’il a une trame, sans tenir compte de la disponibilité du
nœud de réception. En effet, un commutateur LAN met en mémoire tampon une trame
entrante afin de l’envoyer au port correspondant une fois désactivé. Ce processus
s’appelle stockage et retransmission.
Grâce à la commutation par stockage et retransmission, le commutateur reçoit la
trame complète, vérifie si la séquence de contrôle de trame (FSC) contient des erreurs,
puis transmet la trame au port approprié du nœud de destination. Les nœuds ne sont
pas contraints d’attendre que le support soit inactif et peuvent donc envoyer et
recevoir des messages à la vitesse maximale des supports, sans risque de pertes dues à
des collisions ou à la logistique associée à la gestion des collisions.
La retransmission est basée sur l’adresse MAC de destination
Le commutateur gère une table, appelée table MAC qui mappe les adresses MAC de
destination aux ports utilisés pour la connexion aux nœuds. Pour chaque trame
entrante, l’adresse MAC de destination figurant dans l’en-tête de trame est comparée à
la liste des adresses de la table MAC. Lorsqu’un numéro de port répertorié dans la table
est mappé à l’adresse MAC, il est utilisé comme port de sortie de la trame.
La table MAC peut porter différents noms. Elle est souvent appelée table de
commutation. La commutation étant dérivée d’une ancienne technologie appelée
routage transparent, on utilise parfois l’expression table de pont. C’est la raison pour
laquelle de nombreux processus exécutés par des commutateurs LAN peuvent contenir
des termes tels que pont ou routage dans leur nom.
Le pont était le moyen le plus fréquemment utilisé, au début de la technologie LAN,
pour connecter deux segments physiques d’un réseau. Les commutateurs permettent
de réaliser cette opération. Ils permettent également la connectivité des périphériques
finaux au réseau local. De nombreuses autres technologies ont été développées autour
de la commutation LAN. La plupart seront présentées dans un prochain cours. Les
ponts sont particulièrement répandus dans les réseaux sans fil. Les ponts sans fil
permettent l’interconnexion de deux segments d’un réseau sans fil. Par conséquent,
vous pouvez rencontrer les deux termes : commutation et routage dans le domaine des
réseaux.

48
Chapitre 9 Ethernet Exploration1

49
Chapitre 9 Ethernet Exploration1

50
Chapitre 9 Ethernet Exploration1

51
Chapitre 9 Ethernet Exploration1

52
Chapitre 9 Ethernet Exploration1

53
Chapitre 9 Ethernet Exploration1

54
Chapitre 9 Ethernet Exploration1

55
Chapitre 9 Ethernet Exploration1

56
Chapitre 9 Ethernet Exploration1

Fonctionnement des commutateurs


Pour accomplir leurs tâches, les commutateurs LAN Ethernet utilisent cinq fonctions de
base :
 L’apprentissage
 L’horodatage
 L’inondation
 Le réacheminement sélectif
 Le filtrage
Apprentissage
La table MAC doit contenir des adresses MAC ainsi que les ports correspondants. Le
processus d’apprentissage permet l’acquisition dynamique de ces mappages en mode
de fonctionnement normal.
Chaque fois qu’une trame entre dans le commutateur, celui-ci examine son adresse
MAC source. Une procédure de recherche permet au commutateur de déterminer si la
table contient déjà une entrée pour l’adresse MAC concernée. Si l’entrée n’existe pas,
le commutateur en crée une nouvelle dans la table MAC, à l’aide de l’adresse MAC
source, et associe cette adresse au port d’arrivée de la trame. Par la suite, le
commutateur pourra utiliser ce mappage pour transmettre des trames à ce nœud.
Horodatage
Les entrées de la table MAC qui sont acquises à l’aide du processus d’apprentissage
sont horodatées. L’horodatage permet de supprimer les entrées les plus anciennes
d’une table MAC. Après chaque entrée dans la table MAC, un compte à rebours est
lancé. Cette procédure utilise l’horodatage comme valeur de début. Une fois la valeur 0
atteinte, l’entrée de la table sera actualisée la prochaine fois que le commutateur
recevra une trame en provenance de ce nœud sur le même port.
Inondation
Quand un commutateur ne sait pas sur quel port envoyer une trame parce que
l’adresse MAC de destination ne figure pas dans la table MAC, il envoie la trame à tous
les ports, à l’exception du port d’arrivée de la trame. Ce processus d’envoi de la trame
à tous les segments s’appelle inondation. Le commutateur ne transmet pas la trame au

57
Chapitre 9 Ethernet Exploration1

port d’arrivée de la trame car toutes les destinations sur ce segment l’ont déjà reçue.
L’inondation est également utilisée pour les trames envoyées à l’adresse MAC de
diffusion.
Réacheminement sélectif
Le réacheminement sélectif est un processus permettant l’analyse de l’adresse MAC de
destination d’une trame et sa retransmission vers le port approprié. C’est la fonction
principale du commutateur. Lorsqu’une trame provenant d’un nœud arrive sur le
commutateur et que ce dernier connaît déjà l’adresse MAC, cette adresse est associée
à une entrée figurant dans la table MAC, ce qui permet l’acheminement de la trame au
port correspondant. Au lieu d’inonder tous les ports, le commutateur envoie la trame
au nœud de destination via son port désigné. Cette action est appelée
réacheminement.
Filtrage
Dans certains cas, une trame n’est pas transmise. C’est ce que l’on appelle le filtrage de
trame. L’une des utilisations du filtrage a déjà été présentée : un commutateur ne
réacheminera pas une trame vers son port d’arrivée. En outre, il abandonnera
également une trame si elle est endommagée. Si le contrôle de redondance cyclique
(CRC) échoue, la trame est abandonnée. Les trames sont également filtrées pour des
raisons de sécurité. Un commutateur possède des paramètres de sécurité qui
permettent de bloquer les trames à destination et/ou en provenance de certaines
adresses MAC ou de ports spécifiques.
8.4 Travaux pratiques : connecteurs de supports
8.4.1 Travaux pratiques sur les connecteurs de supports
8.5 Résumé et révision
La couche 1 du modèle OSI est chargée de l’interconnexion physique des
périphériques. Des normes au niveau de cette couche définissent les caractéristiques
de la représentation électrique, optique et en radiofréquence des bits comprenant des
trames de la couche liaison de données à transmettre. Les valeurs des bits peuvent être
représentées comme impulsions électroniques, impulsions lumineuses ou
changements d’ondes radio. Les protocoles de couche physique codent les bits pour
transmission et les décodent à destination.
Des normes au niveau de cette couche sont également chargées de décrire les
caractéristiques physiques, électriques et mécaniques des supports physiques et
connecteurs reliant entre eux les périphériques réseau.
Les capacités de transport de données varient selon les supports et protocoles de
couche physique. La bande passante de données brutes est la limite supérieure
théorique d’une transmission de bits. Le débit et le débit applicatif constituent
différentes mesures du transfert de données observé sur une période spécifique.
Dans ce chapitre, vous avez appris à :
 Identifier Les Caractéristiques Fondamentales Des Supports De Réseau Utilisés
Dans Ethernet ;
 Décrire Les Fonctions De Couche Physique Et Liaison De Données d'Ethernet ;
 Décrire La Fonction Et Les Caractéristiques Du Contrôle D'accès Au Support
Utilisé Par Ethernet ;
58
Chapitre 9 Ethernet Exploration1

 Expliquer L'importance De L'adressage De La Couche 2 Utilisé Pour Transmettre


Des Données Et Déterminer Comment Les Divers Types D'adressage Influent Sur
Le Fonctionnement Et Les Performances Du Réseau ;
 Comparer Et Relativiser L'application Et Les Avantages Des Commutateurs
Ethernet Dans Un Réseau Local, Par Rapport Aux Concentrateurs ;
 Expliquer Le Processus ARP.

Approfondissement des connaissances


Questions de réflexion

o Décrivez l’évolution d’Ethernet et son développement depuis la technologie


LAN jusqu’aux technologies MAN et WAN. Comment cela a-t-il été possible ?

o Initialement conçu pour les réseaux de communication de données, Ethernet


est à présent aussi utilisé dans les réseaux de contrôle industriel en temps
réel. Décrivez les défis techniques et opérationnels qu’Ethernet devra relever
avant de pouvoir être utilisé pleinement dans ce domaine.

59

Vous aimerez peut-être aussi