0% ont trouvé ce document utile (0 vote)
46 vues34 pages

Introduction à Ethernet et réseaux OSI

Un réseau informatique est un ensemble d'équipements interconnectés permettant le partage de ressources et la communication entre utilisateurs. Les réseaux se classifient en PAN, LAN, MAN et WAN selon leur portée et débit, et utilisent divers supports de transmission, filaires et sans fil. Les technologies comme Ethernet et les méthodes d'accès régulent la circulation des données pour éviter les collisions.

Transféré par

jimmyeffa14
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
46 vues34 pages

Introduction à Ethernet et réseaux OSI

Un réseau informatique est un ensemble d'équipements interconnectés permettant le partage de ressources et la communication entre utilisateurs. Les réseaux se classifient en PAN, LAN, MAN et WAN selon leur portée et débit, et utilisent divers supports de transmission, filaires et sans fil. Les technologies comme Ethernet et les méthodes d'accès régulent la circulation des données pour éviter les collisions.

Transféré par

jimmyeffa14
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Généralités sur les réseaux informatiques

1.1 Qu’est-ce qu’un réseau informatique?


Un réseau informatique est un ensemble d’´équipements (ordinateurs portables ou fixes, routeur,
switch, etc.), situés à distance les uns des autres et reliés entre eux par des liaisons filaires (câbles) ou
sans fils permettant aux utilisateurs de partager des ressources matérielles et logicielles.

1.2 Objectifs des réseaux informatiques


1. Partage des ressources : rendre accessible à chacun les données, les programmes et équipements
indépendamment de leur situation physique par rapport à l’utilisateur.
Exemple de ressources : fichiers, procédures, bases de données, logiciels, périphériques.

2. Réduction des coûts : plusieurs petits ordinateurs reviennent moins chers que de gros serveurs à
performance égale.

3. Communications entre les personnes : par exemple les réseaux sociaux et la messagerie
électronique.

4. Travail coopératif : des personnes éloignées géographiquement peuvent travailler et collaborer


ensemble plus facilement.

1.3 Les composants de base d’un réseau


La mise en œuvre d’une communication entre deux ou plusieurs nœuds dans un réseau nécessite la mise
en place de 3 types de composants :
- Les supports de transmission : sont tout moyen permettant de transporter des données sous forme
de signaux de leur source vers leur destination;
- Les équipements d’interconnexion : servent à connecter plusieurs machines entre elles, comme
: les cartes réseaux, les switchs, les routeurs, les modems, etc;
- Les protocoles de communication : sont des règles établies entre l’émetteur et le récepteur des
données.

1.4 Les différents types de réseaux


Selon le rayon de couverture géographique ainsi que le débit qu’ils peuvent atteindre, les réseaux
peuvent etre classées en quatre catégories : PAN, LAN, MAN, WAN.

PAN (Personal Area Natwork)


Est un réseau personnel, interconnecte (souvent par des liaisons sans fil) des équipements personnels
comme un ordinateur portable, une souris, un clavier, un agenda électronique, etc. Aujourd’hui, nous
parlons, des réseaux domestiques (smart home), l’idée de base de ces réseaux est de faire communiquer
des appareils des habitations et les rendre accessibles via Internet. Beaucoup d’appareils peuvent être
interconnectés, tels que les appareils ménagers (microondes, réfrigérateur, climatiseurs), les systèmes de
télésurveillance (alarmes de vol et incendie, capteurs d’eau, thermostats, etc).

LAN (Local Area Network)


S’étendant sur quelques dizaines à quelques centaines de mètres, le Local Area Network (LAN), en
français réseau local d’entreprise (RLE), sont utilisés principalement pour relier les ordinateurs
personnels ou les stations de travail que l’on trouve dans les entreprises à des ressources partagées avec
lesquelles ils échangent des informations. Les LANs sont de taille restreinte, mais leur débit de
transmission est élevé. En effet, la plupart des réseaux locaux prenaient en charge des débits de 10
Mbits/s (10Base-T) et 100 Mbits/s (Fast Ethernet). Avec l’apparition de la nouvelle génération de
produits multimédias : images et vidéos, les données ont submerger le réseau Ethernet assurant des
débits classiques. D’où l’apparition des nouvelles interfaces réseau : Gigabit Ethernet (100Base-T) ayant
un débit de 1000 Mbits/s et aujourd’hui, il y a eu même 10 et 100 Giga-Ethernet (10 ou 100Gb/s).

MAN (Metropolitan Area Network)


Le réseau Métropolitain Area Network (MAN) est également nommé réseau fédérateur. Il assure des
communications sur des plus longues distances, interconnectant souvent plusieurs réseaux LAN, Il peut
servir à interconnecter, par exemple, différents bâtiments distants de quelques dizaines de kilomètre.

WAN (Wide Area Network)


Les étendues de réseaux les plus conséquentes sont classées en Wide Area Network (WAN). Constitué de
réseaux de type LAN, voire MAN, les réseaux étendus sont capables de transmettre les informations sur de
milliers de kilomètres à travers le monde entier. Le WAN le plus célèbre est le réseau public internet dont
le nom provient de cette qualité : Inter Networking ou interconnexion de réseaux.

1.5 Les supports de transmission


Nous appelons support de transmission tout moyen permettant de transporter des données sous
forme de signaux de leur source vers leur destination. Il existe deux types de supports :
- Les supports filaires : la paire torsadée, le câble coaxial et la fibre optique;
- Les supports sans fils : tels que les ondes électromagnétiques.

1.5.1 Les supports filaires


Les principaux supports de transmission filaires utilisés dans les réseaux locaux sont les suivants : la
paire torsadée, le câble coaxial et la fibre optique.

[Link] La paire torsadée


Le Câble à paires torsadées (voir la Figure 1) est actuellement le support physique le plus utilisé. Il
est constitué de plusieurs fils de cuivre, torsadés par paires, ces paires sont eux même torsadées entre
elles. Un câble peut regrouper de une à plusieurs paires torsadées.

Les connecteurs appropriés à ce type de câbles sont les connecteurs RJ-45 pour 4 paires et RJ-11 pour 2
paires.
Il existe des versions blindées (STP Shielded Twisted Pair) Et non blindées (UTP Unshielded
Twisted Pair), Voici une comparaison entre la paire UTP et STP
Shielded (STP) Unshielded (UTP)
-Vitesse : 10-1000 Mbits/s -Vitesse : 10-1000 Mbits/s
-Longueur max : 100 m -Longueur max : 100 m
-Raccordement : connecteur RJ-45 -Raccordement : connecteur RJ-45
-Impédance : 100 Ohms -Impédance : 100 Ohms
-Cout : moyennement cher -Cout : faible.
-Fournit une meilleur protection. -Plus utilisé dans les LAN.

[Link] Le câble coaxial


Constitue une amélioration de la paire torsadée. C’est un câble électrique constitué de deux conducteurs
à symétrie cylindrique de même axe, séparé par un isolant. Le premier est un conducteur cylindrique creux
de rayon R2, l’autre est central de rayon R1 appelé l’âme. Malgré de bonnes qualités intrinsèques (faible
sensibilité aux perturbations électromagnétiques), voir la Figure 3, les câbles coaxiaux sont de moins en
moins utilisés et laissent de plus en plus la main aux paires torsadées.
Ils sont utilisés dans des infrastructures longue distance et les réseaux de télévisions. Ils ont les
caractéristiques suivantes :
Vitesse : 10-100 Mbits/s.
Longueur max : 500 m.
Raccordement : connecteur BNC.
Impédance : 150 Ohms.
Cout : peu cher.

Figure 3 – Le câble coaxial.

[Link] Fibre optique


C’est un fil dont l’âme (cœur) est en verre ou en plastique très fin (silicium) et qui a la propriété de
conduire la lumière. Les bits sont codés sur la fibre sous forme d’impulsions lumineuses. Le câble à fibre
optique sert à guider les ondes qui transmettent dans le centre de la fibre appelé cœur, voir la Figure 4. Les
rayons entrants dans la fibre subissent des réflexions et se propagent jusqu’à l’autre extrémité. Une fibre
optique transmet les données dans un seul sens, ainsi, deux fibres sont nécessaires : une pour la
transmission et l’autre pour la réception.
Les connecteurs fibre optique (ST (Straight Tip), SC (Subscriber Connector)) sont des dispositifs
terminant une fibre optique et permettant de les raccorder aux équipements terminaux comme les
switchs.
Figure 4 – La fibre optique.
Voici quelques caractéristiques de la fibre optique :
Vitesse : +100 Mbits/s;
Longueur max : jusqu’a` 220 Kms;
Raccordement :(ST(Straight Tip), SC(Subscriber Connector));
Cout : Le plus cher.
Une fibre optique transmettant un seul rayon est appelée fibre monomode, et fibre multimode
lorsqu’elle transmet plusieurs rayons dans son cœur.
1.5.2 Les supports sans fils
Certains milieux comme l’aire et le vide permettent la transmission des ondes électromagnétiques,
ces dernières sont utilisées par les réseaux sans fils comme supports de transmissions. Les
caractéristiques principales d’une onde électromagnétique sont :
La fréquence : mesurée Hertz (Hz).
La longueur d’onde (portée) : mesurée en mètre.
Le débit : mesuré en bits/s.
Ainsi, les supports sans fils sont classés en plusieurs familles selon la fréquence et la longueur d’onde
qui les caractérisent, voir la Figure 5.
La technologie Wi-Fi (IEEE 802.11x) où x désigne les différentes variantes comme : 802.11a,
802.11b, 802.11g, etc. Elle s’opère dans la bande de fréquences de 2,4 ou 5 GHz et permet de relier des
équipements informatiques dans un réseau sans fil haut débit. Les vitesses de connexion varient selon la
norme 802.11 utilisée avec des portés de communication de plusieurs centaines de mètres.
La technologie de la téléphonie mobile ou cellulaire (GSM, 3G) emploi des fréquences autour de
900 MHz et permettent des communications à plusieurs dizaines de kilomètres en plus de la 3G+ et 4G
qui sont des technologies cellulaires employées de nos jours.
Nous ajoutons à ces exemples les technologies de courte portée telles que :
- Bluetooth, permet les transmissions à faible distance;
- Zigbee est utilisée par certains capteurs tels que les détecteurs de fumée;
- Near Field Communication (NFC) pour les objets équipés d’une puce électronique RFID.
Figure 5 – Les technologies sans fils.

1.6 La technologie Ethernet


1.6.1 Présentation
Ethernet est une technologie et un protocole universel de réseaux locaux qui a été développé bien
avant Internet entre 1973 et 1975 par la société Xerox Parc. Les réseaux Ethernet s’articulent autour
d’un bus de diffusion par analogie avec les réseaux de distribution d’eau ou gaz ou de télévision. A
l’époque, le support de communication était des câbles coaxiaux. Désormais, Ethernet est utilisée sur
paires torsadées pour la connexion des postes clients, le câble coaxial a été remplacé par des hubs
(concentrateurs) puis des switchs (commutateurs), ainsi que des versions sur fibre optique. Cette
configuration a largement influencé les topologies, d’où l’apparition d’autres standards comme le Token
Ring et le FDDI. Finalement, ces dernières années sont apparues des variantes sans fil d’Ethernet (la
norme IEEE 802.11x) pour le Wi-Fi.

1.6.2 Spécification des câbles


La section ci-dessous donne des exemples de types de média d’Ethernet suivant le type et le diamètre
des câbles utilisés :
- 10Base2 : est un réseau utilisant un câble coaxial fin (ainsi appelé thin Ethernet) avec
connecteurs BNC en T. Il est capable de transférer des données à un débit allant jusqu’à 10
Mbits/s. Cependant comme les connecteurs affaiblissent le signal, on ne peut mettre que 30
stations sur le câble.
- 10Base5 : utilise un câble coaxial épais (appelé thick Ethernet), ce qui permet d’augmenter les
distances couvertes en remplaçant notamment les connecteurs BNC par des MAU.
- 10Base-T : Le câble utilisé est une paire torsadée (le T signifie twisted pair), le débit atteint est
d’environ 10 Mbps.
- 100Base-FX : Permet d’obtenir un débit de 100 Mbps en utilisant une fibre optique multimode.
- 100Base-TX : Comme 10Base-T mais avec un débit 10 fois plus (100Mbps).
- 1000Base-T : Utilise une double paire torsadée de catégorie 5e et permet un débit d’un Gigabit par
seconde.
- Ethernet 40GB/s et 100GB/s : ont été définies en 2010 sous la norme IEEE 802.3ba.
- Ethernet 200GB/s et 400GB/s : ont été définies en décembre 2017 sous la norme IEEE 802.3bs
1.7 Les méthodes d’accès aux supports
Pour que les messages circulent sur le réseau sans se perturber, il faut employer des règles d’accès au
support. Ces règles d’accès peuvent être classées en familles de méthodes : les méthodes avec
contention et les méthodes sans contention.

1.7.1 Les méthodes avec contention


Pour "mettre de l'ordre" dans un réseau local, où toutes les stations peuvent prendre l'initiative des envois
de messages, il faut une règle respectée par tout le monde. C'est la méthode d'accès. On distingue deux
méthodes principales, la contention et le jeton. Elles distinguent les deux principales familles de réseaux
locaux : Ethernet, qui utilise la contention, et l'anneau à jeton (Token-Ring), méthode "déterministe" (non
aléatoire).

Les deux méthodes sont normalisées dans le cadre de l'association IEEE américaine (comité 802),
normalisation reprise dans le cadre de l'ISO. Si l'on se réfère au modèle OSI, ce qui distingue les méthodes
d'accès se situe bien entendu dans la couche 1 Physique, puisque les médias et les topologies sont
différents, mais surtout dans une sous-couche inférieure de la couche 2 Liaison de données appelée Mac
(Medium Access Control). La méthode Ethernet CSMA/CD est normalisée sous l'appellation 802.3 et
l'anneau à jeton sous 802.5.

Dans un accès de type contention, toutes les stations sont à l’écoute du support physique de liaison
(câble ou fibre) afin de déterminer si une autre station transmet une trame de données par la détection de
surtension électrique ou d’une présence de lumière. Si tel n’est pas le cas (donc s’il n’y a pas de signal),
elle suppose qu’elle peut émettre. Cependant, il se peut que deux stations se décident à émettre au même
instant, on dit alors qu’il y a contention (collision) des messages émis. En effet, lors d’une collision, le
signal électrique sur a ligne va correspondre au cumule des émissions ce qui provoque une surtension.
Afin de résoudre ce problème les méthodes avec contention peuvent soit détecter les collisions après
coup (la méthode CSMA/CD), ou de les prévenir (la méthode CSMA/CA).

[Link] La méthode CSMA/CD


La méthode Carrier Sense Multiple Access with Collision Detection est appliquée à une topologie en
bus. Rappelons que dans une telle topologie, les stations partagent le même média de communication et
qu’il n’y a pas de priorité d’émission. Elle est normalisée par IEEE sous la référence 802.3 et elle est
utilisée dans les architectures des réseaux locaux Ethernet (802.3), fast Ethernet (802.3u) et Gigabit
Ethernet (802.3Z) et 10 Gigabit Ethernet 802.3ae.

[Link] La méthode CSMA/CA


Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) est utilisée par les
technologies des réseaux sans fils de type Wi-Fi (802.11). Elle a pour but de prévenir la contention
(collision) plutôt que de la subir. Elle utilise un mécanisme basé sur un principe d’accusé de réceptions.

1.7.2 Les méthodes sans contention


Par analogie avec la prise de la parole dans une classe, une organisation particulière est réalisée pour
qu’aucune collision ne soit produite. On trouve deux sous-catégories de méthodes sans contention :
- TDMA (Time Division Multiple Access) pour partage le support de communication entre
stations, le temps est découpé en périodes eux-mêmes découpées en intervalles (appelés time
slot). Les communications GSM de téléphonie mobile utilise cette méthode.
- FDMA (Frequency Division Multiple Access) se base sur un partage de fréquence. Sachant
qu’un support de communication a une certaine bande passante, il est possible de la découper en
petits intervalles de fréquences et d’allouer chacun des sous canaux crées à une station. L’ADSL
utilise la méthode FDMA pour partager la ligne téléphonique entre appels vocaux et données
(Internet haut débit).

LAN Ethernet

Le principe du réseau Ethernet est le réseau, le plus répandu des réseaux locaux. La méthode utilisée est la
contention, tout le monde peut prendre la parole quand il le souhaite. Mais alors, il faut une règle pour le
cas où deux stations se mettraient à " parler " au même moment. La principale méthode de contention en
réseaux locaux est le CSMA/CD (Carrier Sense Multiple Access), avec détection de collision (CD). C'est
celle d'Ethernet.
Elle consiste pour une station, au moment où elle émet, à écouter si une autre station n'est pas aussi en train
d'émettre. Si c'est le cas, la station cesse d'émettre et réémet son message au bout d'un délai fixe. Cette
méthode est aléatoire, en ce sens qu'on ne peut prévoir le temps nécessaire à un message pour être émis,
transmis et reçu. Voyons l'évolution d'Ethernet

1. Ethernet, IEEE 803.3 10 Base 5


La version 10 Base 5 (10Mbps en bande de base sur câble coaxial d'une longueur maximale par segment de
500 mètres) est la version d'origine d'Ethernet, elle est représentée ci-dessous :

Chaque station est équipée d'une interface " Ethernet " (NIC, Network Interface Card) généralement
appelée carte transporteur ou carte " Ethernet ". Cet équipement assure l'adaptation physique et gère
l'algorithme CSMA/CD.

Le drop câble est constitué de paires torsadées et peut avoir une longueur maximale de 50 mètres. Le câble
coaxial est un câble épais de couleur jaune (Ethernet jaune) d'un demi-pouce de diamètre. La longueur
totale du réseau peut atteindre 2,5 kilomètres.

Cette version d'Ethernet n'est pratiquement plus utilisée que dans les environnements compromis
(rayonnement électromagnétique) ou lorsque l'on veut garantir la confidentialité des échanges (pas de
rayonnement du câble coaxial).

2. Ethernet, IEEE 802.3 10 Base 2


Une version économique a été réalisée avec du câble coaxial fin (Thin Ethernet).
Ce type de réseau Ethernet est représenté ci-dessous :
Cette architecture physique de réseau est recommandée pour la réalisation de petits réseaux d'une dizaine
de machines, c'est la plus économique

3. Ethernet, IEEE 802.3 10 Base T


Compte-tenu des problèmes de câblage, AT&T a imaginé de réutiliser le câblage téléphonique préexistant
dans les immeubles de bureaux pour la réalisation de réseau. Cela imposait deux contraintes : l'une de
débit, l'autre de distance. Le réseau ainsi réalisé fonctionnait à 1Mbps, les stations étaient connectées sur
des concentrateurs répéteurs (hub) et la distance entre le hub et une station était limitée à 250 mètres. Cette
architecture (802.3 1 base 5 ou Starlan) complètement obsolète aujourd'hui a évolué vers une version
10MBps (802.3 10 base T). La figure suivante présente le réseau 10 base T.

En résumé, la vitesse normalisée d'Ethernet est de 10 Mbps. Pour le média, si un câble coaxial particulier
avait été défini par la normalisation originale (câble " jaune " en bus), on trouve aujourd'hui d'autres câbles
à meilleur prix, notamment un câble coaxial fin (dit câble " noir ") et surtout plusieurs solutions de câblage
sur paires torsadées téléphoniques. La plus répandue d'entre elles, 1OBase T, permet un câblage en étoile,
plus facilement administrable. Grâce à ces nouvelles possibilités, Ethernet demeure la plus répandue des
infrastructures de réseaux locaux et connaît une véritable seconde jeunesse.

Depuis fin 1992, les comités de standardisation ont travaillé à un nouveau réseau Ethernet à 100 Mbps
baptisé Fast-Ethernet. Deux écoles se sont affrontées, l'une voulant conservé la méthode d'accès CSMA/CD
et la compatibilité avec les cartes adaptateurs existantes, tandis que l'autre préconise un tournant plus
radical avec une technologie déterministe proche de celle de l'anneau à jeton ou FDDI.

Le Token Ring
L'autre méthode, celle du jeton (matérialisé par un ensemble de données, ou trame, affecté à cet usage), est
dite déterministe puisqu'en fonction des caractéristiques du réseau (nombre de stations et longueur du
câble), on peut déterminer le temps maximal que prendra un message pour atteindre son destinataire.
Dans le jeton, on devra attendre son tour, matérialisé par le passage d'une configuration particulière de bit
appelée jeton.

1. Description générale de l'anneau à jeton ou Token Ring


La norme IEEE 802.5 spécifie un réseau local en boucle : chaque station est reliée à sa suivante et à sa
précédente par un support unidirectionnel.

Publiée en 1985, la norme IEEE 802.5 fut implémentée par IBM dès 1986. IBM est resté le principal acteur
du monde Token Ring. L'implémentation d'IbM diffère quelque peu de la norme d'origine. Notamment, la
topologie physique a évolué vers une étoile pour gérer la rupture de l'anneau. Les stations sont reliées à des
concentrateurs (MAU Multiple Access Unit). La figure suivante représente ce type de réseau.

Les spécifications du Token Ring sont contraignantes au niveau de l'installation. Les possibilités de
connexion, distance et nombre de postes, dépendent du type de câble utilisé. Avec du câble 1 ou 2 (dans la
terminologie IBM, paires torsadées blindées d'impédance 150 Ohms) la longueur maximale de l'anneau
principal est de 366 mètres, l'anneau principal peut comporter jusqu'à 260 stations, la distance maximale
station/MAU est de 101 mètres.

Les spécifications des éléments actifs ont évolué afin de supporter les pré-câblages d'immeubles à 100
Ohms. Le connecteur spécifique IBM dit " hermaphrodite " est aujourd'hui généralement remplacé par des
prises RJ45.

2. Principe général du Token Ring


Le droit d'émettre est matérialisé par une trame particulière " le jeton ou Token ". Celui-ci circule en
permanence sur le réseau. Une station qui reçoit le jeton peut émettre une ou plusieurs trames (station
maître). Si elle n'a rien à émettre, elle se contente de répéter le jeton (station répéteur). Dans un tel système,
les informations (trames) transitent par toutes les stations actives.

Chaque station du réseau répète ainsi le jeton ou le message émis par la station maîtresse, il n'y a pas de
mémorisation du message, un bit reçu est immédiatement retransmis. Le temps alloué à une station pour la
répétition d'un bit correspond à un temps bit (possibilité de modifier bit à bit le message). Chaque station
provoque ainsi un temps bit de retard dans la diffusion du message.

Notons que le jeton n'a nullement besoin de contenir l'adresse d'un destinataire, le destinataire est la station
qui suit physiquement celle qui le détient (technique du jeton non adressé).

3. Gestion de l'anneau
Quatre octets spécifiques de la trame MAC 802.5 identifient des fonctions et gèrent l'anneau. Ce sont :

* L'octet de contrôle d'accès (Access Control)


* L'octet ce contrôle de trame (Frame Control)
* L'octet de fin de trame (End Delimiter)
* L'octet d'état de la trame (Frame Status)

Comparaison entre Ethernet et Token Ring

Lorsque l'on compare deux types de réseau, les critères à retenir sont principalement :

* Les performances en terme de débit et temps d'accès


* Les types de transferts et applications informatiques envisageables
* L'infrastructure requise et les distances maximales admissibles

1. En termes de débit et temps d'accès


Lorsqu'il s'agit de définir le débit d'un réseau il y a deux critères à retenir :
* Le débit nominal (débit physique)
* Le débit vu des applications

Le premier est effectivement lié au choix du réseau, le second dépend non seulement du débit physique
mais aussi de la charge du réseau et des protocoles empilés. Seuls nous intéressent ici les débits nominaux
et la tenue en charge du réseau.

La figure ci-dessus superpose l'évolution des débits en fonction de la charge de chaque réseau. Il est
intéressant de constater qu'à faible charge, les réseaux de type Ethernet présentent, vis-à-vis des couches
supérieures, une meilleure efficacité. En effet, en Ethernet, si le trafic est faible, dès qu'une station veut
émettre, elle émet. En Token Ring, même à faible charge, la station doit attendre le Token.
Cependant à forte charge dans le réseau Ethernet, les collisions se multiplient et le débit s'effondre, alors
que pour Token Ring, même si le débit moyen de chaque station diminue, le débit utile sur le support
atteint le débit nominal.

2. En termes d'application
Le réseau Ethernet est qualifié de probabiliste, c'est-à-dire qu'il est possible de déterminer, en fonction d'un
trafic modélisé, la probabilité pour qu'une station puisse émettre. Il est impossible de borner ce temps.

Dans le cas du Token Ring, il est toujours possible de déterminer le laps de temps au bout duquel on est
certain qu'une station obtiendra le jeton, le réseau est dit déterministe.

Cependant, même si le temps d'obtention du jeton peut être borné, même si le Token Ring met en œuvre un
mécanisme de priorité, il ne peut garantir un intervalle de temps constant entre deux obtentions du jeton
pour une même station. Par conséquent, le Token Ring est impropre au transfert isochrone (voix, vidéo,
temps réel).

Les deux types de réseaux sont utilisés pour des applications de type conversationnel. Le Token Ring,
pouvant garantir une bande minimale, pourra être utilisé pour des transferts sous contrainte temporelle
moyennement sévère (transfert synchrone). Mais en principe, aucun des deux ne satisfait au transfert
isochrone. En pratique, des essais ont montré qu'il était possible, sous faible charge, de réaliser de tels
transferts, à condition d'admettre des pertes d'informations pour assurer une compensation temporelle.

3. En termes d'infrastructure
Si on ne considère que l'implémentation la plus utilisée sur Ethernet : le 10 base T, la topologie physique de
câblage est similaire pour les deux types de réseaux. Les distances couvertes sont du même ordre. Ces deux
réseaux permettent de couvrir des immeubles relativement vastes en utilisant les techniques de réseaux
fédérateurs.

Bien que le réseau Token Ring ait des performances intrinsèquement supérieures, le marché lui a préféré
Ethernet.

1.8 Topologies des réseaux


La topologie est la manière dont les ordinateurs sont interconnectés dans le réseau. On distingue la
topologie physique des réseaux de la topologie logique :
- La topologie physique : est l’arrangement physique ou la configuration spatiale du réseau.
- La topologie logique : représente la façon dont les données transitent dans les supports de
communication.

On distingue généralement dans les réseaux les topologies physiques suivantes :


- Topologie en bus;
- Topologie en étoile;
- Topologie en anneau;
- Topologie en arbre;
- Topologie maillée.
Topologie en bus
C’est l’organisation la plus simple d’un réseau, voir la Figure 9. Le mot désigne le segment central
où les machines viennent s’y accrocher. Chaque extrémité est terminée par un bouchon.
Une seule station peut émettre à la fois. Lorsqu’une station émet des données, celles-ci circulent sur tout le
bus, et la station destinataire peut la récupérer.
Le média utilisé est un câble coaxial fin (fil de cuivre).
Débit : 10 Mbits/s.
Longueur : 185 m max.
La norme utilisée est l’Ethernet 10BASE2 ou 10BASE5.

Figure 9 – Représentation schématique d’un réseau en bus.

Topologie en étoile
La forme physique du réseau ressemble à une étoile, voir la Figure 10. C’est la topologie la plus
courante aujourd’hui. La communication entre machine se fait via un matériel central qui peut être un
commutateur (switch) ou bien un concentrateur (hub).
Si le média utilisé est un fil de cuivre à paires torsadées (STP), alors :
o Débit : 100 Mbits/s
o Longueur : 100 m max
o La norme utilisée est l’Ethernet 100BaseTX.
Si le média utilisé est la fibre optique :
o Débit : 155 Mbits/s à 10 Gbits/s
o Longueur : pas de max
o La norme utilisée est l’Ethernet 100BaseF.

Figure 10 – Représentation schématique d’un réseau en étoile.

Topologie en anneau
La forme physique du réseau ressemble à un anneau. Les ordinateurs sont situés sur une boucle et
communiquent chacun à son tour.
Un équipement appelé : MAU (Multistation Access Unit) est utilisé pour gérer la communication en
impartissant le temps de parole pour chacune des stations.
La méthode d’accès au support de communication est dite Token ring dont le principe est : Une station
connectée au réseau possède un jeton virtuel, ce jeton est une autorisation de communication. Une fois la
station a transmis, elle passe le jeton à la station suivante et ainsi de suite.
Figure 11 – Représentation schématique d’un réseau en anneau.

Topologie à deux anneaux


Le FDDI (Fiber Distributed Data Interface) est une topologie réseau constituée de deux anneaux,
l’un est dit primaire, il assure la transmission de données. L’autre est dit secondaire, assure la détection
et la correction des erreurs, voir la Figure 12. La technologie FDDI utilise en générale la fibre optique
multimode comme support de transmission. Elle fonctionne avec un débit nominal de 100 Mbit/s pour
une distance maximale de 100 km, et peut supporter jusqu’a` 1000 stations. Le jeton circule entre la
machine à une vitesse très élevée. Si celui-ci n’arrive pas au bout d’un certain délai, la machine
considère qu’il y a eu une erreur sur le réseau. La topologie FDDI ressemble de près à celle de TOKEN
RING à la différence près qu’un ordinateur faisant partie d’un réseau FDDI peut aussi être relié à un
concentrateur MAU Multi station Access Unit d’un second réseau; on parle alors de système bi
connecté.

Figure 12 – Représentation schématique d’une topologie à deux anneaux.

Topologie en arbre (hiérarchique)


Cette topologie est dérivée des réseaux en étoile, les réseaux hiérarchiques sont constitués d’un
ensemble de réseaux étoiles reliées entre eux par des concentrateurs cascadables (stackable hubs)
jusqu’`a un nœud unique, voir la Figure 13.
Figure 13 – Représentation schématique d’un réseau en arbre.
Topologie maillée
Le réseau maillé est une topologie de réseau dont tous les ordinateurs sont connectés point à point
sans hiérarchie centrale, voir la Figure 14. Cette topologie permet de multiples choix de chemins vers
une même destination, Ainsi, elle est très résistante à la défaillance d’un nœud. Le réseau Internet est
basé sur une topologie maillée.
Il existe deux types de maillage :
- Maillage complet : La topologie est dite à maillage complet, lorsque chaque nœud possède un
circuit le connectant à chaque autre nœud dans un réseau. Ainsi, dans le cas où l’un des nœuds
échoue, le trafic peut être dirigé vers l’un des autres nœuds. Cette topologie est couteuse à mettre en
œuvre en plus du problème de la redondance.
- Maillage partiel : La topologie est dite à maillage partiel, lorsque certains nœuds du réseau sont
organisés en maillage complet mais d’autres ne sont pas connectés à un ou deux dans le réseau.
Cette topologie est moins couteuse à mettre en œuvre que la précédente et donne moins de
redondance.

Figure 14 – Représentation schématique d’un réseau maillé.

Topologie mixte (hybride)


Il s’agit d’un regroupement de plusieurs topologies différentes étudiée ci-dessus, voir la Figure 15 .

Figure 15 – Représentation schématique d’un réseau hybride.

Topologie cellulaire
La topologie cellulaire est employée dans les réseaux sans fils. Les réseaux cellulaires utilisent des
protocoles dits : à diffusion, c’est-`a-dire, tous les nœuds (téléphones mobiles) reçoivent les
transmissions depuis un site central sur un canal fixé (appelé : contrôle). L’un de ces nœuds (appelé
station de base) utilise ce canal commun pour fournir à un nœud le numéro de canal spécifique (appelé :
utilisateur) afin d’établir sa connexion; pendant tout la durée de la connexion, le téléphone communique
simultanément avec la station de base au moyen du canal de contrôle et du canal utilisateur.

1.9 Les équipements d’interconnexion


Comme nous l’avons vu précédemment dans la section des supports de transmission, il y a des
contraintes sur la longueur des câbles utilisés pour interconnecter les équipements sur un réseau local en
fonction du débit, de la vitesse de propagation et de la taille du message. En plus des contraintes
physiques (tel que l’atténuation du signal due à la distance). Ainsi, afin d’interconnecter plusieurs
équipements filaires et créer des réseaux locaux, on utilise des équipements intermédiaires, appelés :
équipements d’interconnexion.
Les équipements d’interconnexion servent à connecter plusieurs machines entre elles, comme les
cartes réseaux, les hubs ou les switchs (commutateurs), les routeurs, etc.

1.9.1 La carte réseau (Network Interface Card)


C’est une interface qui permet de connecter un ordinateur au support de transmission utilisé par le
réseau. Elle a pour fonction de préparer, d’envoyer et de contrôler le flux de données sur le réseau. La
carte réseau peut être directement incluse dans la carte mère (cas de nombreux portables), mais peut
également se trouve sous la forme d’une carte PCI ou d’une clé USB (cas Wi-Fi).
La carte réseau se connecte à la Carte mère de l’ordinateur via un bus informatique, Il existe donc
plusieurs modèles de cartes réseau selon le type des bus suivants :
- ISA (pour Industry Standard Architecture), un bus parallèle de 8 bits apparu en 1981.
- L’EISA (Extended Industry Standard Architecture), extension `a 16 bits du bus ISA, apparue en
1988.
- Le PCI (Peripheral Component Interconnect), un bus parallèle de 32 bits, apparu en 1994.
- Le PCI Express apparu en 2004.
La carte réseau possède généralement deux témoins lumineux (LEDs) qui sont :
- Le led vert correspond à l’alimentation de la carte;
- Le led orange [10Mbps] ou rouge [100Mbps] indiquent une activité du réseau (envoi ou réception
des données).
Les principaux fabricants de cartes réseau sont : TP-LINK, D-Link, Asus, TRENDnet, Gigabyte
Technology, voir la Figure 16.

Figure 16 – Exemples de carte réseau.

[Link] Cartes réseau sans fils


Pouvoir être connecté à un réseau sans fil, un PC portable ou de bureau doit être équipé d’une carte
réseau sans fil Wi-Fi (Wireless Fidelity), voir la Figure 17. Il possible de relier deux ordinateurs
directement par Wi-Fi (on parle alors de l’architecture ad hoc) comme en Ethernet filaire, pour relier
plus de deux machines on utilise généralement un matériel spécifique appelé routeur Wi-Fi.
Figure 17 – Exemples de carte réseau Wi-Fi.

[Link] L’adresse MAC


Chaque carte réseau possède une adresse exclusive appelée une adresse MAC (Media Access Control),
aussi nommée adresse physique. L’adresse MAC est affectée par le constructeur de la carte et est
inscrite sur la puce de la carte, c’est un identifiant physique stocké dans une carte réseau ou une
interface réseau similaire. Elle sert à identifier la carte dans le réseau lorsque les informations sont
envoyées ou reçues au sein du réseau. L’adresse MAC est définie sur 48 bits. Elle est représentée sous la
forme de 6 blocs de deux chiffres hexadécimaux (base 16), chaque bloc étant séparé par un double point
ou un tiret selon le type du système d’exploitation (Windows ou Linux), voir la Figure 18.
L’adresse MAC est utilisée pour savoir qui est l’émetteur et qui est le récepteur d’un message. En effet,
à la réception d’un message, la carte réseau vérifie l’adresse destination du message, Si elle correspond
à sa propre adresse MAC, dans ce cas le message est traité. Sinon, le message est rejeté tout simplement.
Une adresse particulière peut être utilisée pour qu’un message soit envoyé vers toutes les machines du
réseau, il s’agit de l’adresse de diffusion (broadcast, en anglais), elle est représentée par :
ff :ff :ff :ff :ff :ff (il n’y a pas de de distinction entre la casse minuscule et majuscule), cette adresse ne
peut jamais être attribuée à une machine unique.

Figure 18 – Adresse MAC (Media Access Control).

1.9.2 Le répéteur (Repeater)


Parmi les nombreux composants réseau qui font partie de la couche physique, le plus simple est le
répéteur. C’est un équipement non intelligent, qui répète automatiquement tous les signaux qui lui
arrivent et transitent d’un support vers un autre support. Dans le même temps, le répéteur régénère les
signaux, ce qui permet de prolonger le support physique vers un nouveau support physique.

1.9.3 Hub (concentrateur)


C’est un équipement permettant de régénérer le signal entre deux nœuds de réseau, il permet de
prolonger facilement un support de transmission existant et d’interconnecter deux segments d’un même
réseau. Il sert d’emplacement central pour relier les ordinateurs et autres périphériques. Le concentrateur
dispose d’un certain nombre de ports auxquels viennent se connecter les PC clients. On utilise quelque
fois le terme de répéteur multiports car il transfère ou renvoient tous les paquets qu’il reçoit à tous ses
ports. Les concentrateurs n’effectuent aucun contrôle ou filtrage de données qui les traversent.
Les hubs sont souvent utilisés quand il s’agit de relier quelques ordinateurs ensemble pour un petit
réseau local. Donc, pour pouvoir connecter plus d’ordinateurs, on a inventé les ponts ensuite les switchs.

Figure 19 – Symbole représentant un hub.

1.9.4 Le pont (Bridge)


Le pont se présente sous forme d’un boitier munie d’un nombre limité de ports, il permet
d’interconnecter des réseaux travaillant avec le même protocole. Ainsi, contrairement au répéteur, qui
travaille au niveau physique (signal), le pont travaille également au niveau logique (adresse IP), c’est-à-
dire, qu’il est capable de filtrer les messages en ne laissant passer que ceux dont l’adresse correspond à
une machine située à l’opposé du pont. Le pont permet de segmenter un réseau local en deux pour
améliorer les performances. En effet, cela permet de réduire le trafic (les collisions notamment) sur
chacun des réseaux et d’augmenter le niveau de confidentialité car les messages destinés à un réseau ne
peuvent pas être reçus par l’autre segment.

Figure 20 – Symbole représentant un pont.

1.9.5 Switch (ou commutateur)


Le switch est un pont multiport, il permet de connecter plusieurs appareils en réseau. C’est
généralement un boitier disposant plusieurs ports Ethernet (entre 4 et plusieurs dizaines). Les switchs
sont un peu plus intelligents que les hubs. En effet, La différence avec le hub, c’est que le switch sait
quels sont les ordinateurs qui sont autour de lui. Ainsi, s’il reçoit une trame pour l’ordinateur X, il ne
l’envoie qu’à l’ordinateur X et pas aux autres. Il commute (il branche) l’entrée des données vers la sortie
où est l’ordinateur concerné. C’est pour cela qu’on appelle aussi un commutateur en français. La
principale caractéristique d’un switch est de savoir déterminer sur quel port il doit envoyer une trame en
fonction du destinataire. Ce qui limite l’encombrement du réseau (bande passante).

Figure 21 – Symbole représentant un switch.

1.9.6 Routeur (Router)


Il permet d’interconnecter des réseaux de même ou différentes technologies et d’assurer un
acheminement (routage) des paquets entre ´équipement et réseaux selon les adresses logiques. En effet,
à la différence du HUB et du SWITCH qui permettent de connecter des appareils faisant partie d’une
même classe d’adresse IP ou d’un même sous réseau. Le routeur est un équipement capable de diriger
les paquets transitant entre des réseaux indépendants. Cette opération, appelée routage, traite les paquets
en fonction de leurs adresses IP de provenance et de destinations, grâce à des algorithmes et des tables
de routage.
Figure 22 – Symbole représentant un routeur.

1.9.7 Multilayers switch


C’est un commutateur multicouches capable de remplir en plus de la tache de commutation, des
taches de routage. Il est aussi appelé : switch de niveau 3. Il s’agit d’un véritable routeur dédié au réseau
LAN d’entreprise.

Figure 23 – Symbole représentant un commutateur multicouche.

Chapitre 1
Architecture en couches et modèle TCP/IP
2.1 Introduction
Après avoir fait un tour sur le fonctionnement théorique du réseau ainsi que du matériel utilisé, nous
allons étudier maintenant comment communiquent les machines dans un vaste réseau.
Pour réaliser un système complexe, on le décompose en éléments plus simples. Dans ce même
contexte qu’un réseau d’ordinateurs peut être vu comme une architecture formée de plusieurs niveaux de
communication, appelées couches. L’intérêt de la hiérarchisation des différentes couches de
communication est de séparer les différentes fonctions de communication.
Au début des années 70, chaque constructeur a développé sa propre architecture de réseau
informatique; Ceci a créé des problèmes variés, notamment l’impossibilité de communication via des
équipements de constructeurs différents.
Dans ce contexte, des normes (aussi appelés standards) devraient être élaborées par des organismes
internationaux afin de répondre à un besoin naturel de communication. Ces organismes ont adopté des
normes proposées par un groupement de constructeurs après s’être mis d’accord sur des règles
communes.
Durant les années 1980, deux organismes de normalisation internationaux : l’UIT (Union
Internationale des Télécommunications) et l’ISO (International Organization for Standardization) ont
créé un modèle permettant d’exécuter et de maintenir des protocoles de communication de données.
2.2 Le Modèle OSI
Le modèle OSI (en anglais Open Systems interconnexion, interconnexion de systèmes ouverts) a été
conçu dans les années 1970 par Hubert Zimmermann, et normalisé en 1984 par ISO. Il est devenu
l’archétype des réseaux informatiques. Il définit comment interconnecter des réseaux et des systèmes
d’information hétérogènes. C’est un modèle abstrait qui détermine une terminologie sans donner des
précisions sur les technologies employées.

2.2.1 Concepts et principe de fonctionnement


L’architecture en couches du modèle OSI est définie par les concepts de service, d’interface et de
protocole.

Figure 24 – Le mécanisme de fonctionnement du modèle OSI.

Le système de communication informatique est découpé en couches superposées, tel qu’une couche
d’un système (système A) est en relation avec la même couche d’un autre système (système B). Le modèle
OSI conçoit un dialogue horizontal entre les couches, alors que l’information est véhiculée verticalement.

Le dialogue vertical correspond au transfert d’informations d’une couche à une autre (couche
adjacente), ce dialogue est réalisé a` l’aide de primitives de service, telles que les demandes de connexion
ou réception de données.
Ainsi, une couche (N) s’adresse à la couche immédiatement inférieur (N− 1) en lui demandant un
service. De même, la couche (N − 1) s’adresse à la couche (N) en lui rendant un service.
Une interface ( point d’accès au service dans la norme) est le moyen concret d’utiliser le service. Dans
un programme, c’est typiquement un ensemble de fonctions de bibliothèque ou d’appels systèmes. Dans
une réalisation matérielle, c’est par exemple un jeu de registres l’entrée d’un circuit.

On appelle protocole l’ensemble des règles qui définissent le dialogue entre 2 couches de même
niveau.
Une entité est un élément actif d’une couche. Le protocole (N) est réalisé par des entités de la couche (N),
qui sont situées sur les sites distants. Pour mettre en œuvre le protocole (N), les entités (N) utilisent le
service de la couche inférieure (N − 1).

2.2.2 Les sept couches du modèle OSI


Le modèle OSI est organisé en couches de communication (voir la Figure 25), afin de diminuer la
complexité des environnements informatiques. En effet, cette conception permet d’éviter une trop grande
remise en cause si un changement ou une modification technologique apparaıt. C’est le principe
d’indépendances des couches.
Figure 25 – Les sept couches du modèle OSI.

Le modèle OSI comporte sept couches, numérotées de 1 à 7, de la plus basse vers la plus haute comme
suit :
1-la couche physique,
2-la couche liaison de données,
3-la couche réseau,
4- la couche transport,
5-la couche session,
6-la couche présentation et
7-la couche application.

Les couches sont classées par ordre d’abstraction, de la moins logique à la plus logique. Les couches
”basses” correspondent aux couches 1 à 3. Les couches ”hautes” définissent les couches 4 à 7. Chaque
couche est définie par un nom, un niveau et un rôle spécifique. L’UIT et l’ISO ont créé des unités de
données correspondantes à chaque couche appelées PDU (Protocol Data Unit).

Couche1- Physique : cette couche est chargée de la transmission des données en binaires sur les
différents supportes physiques (électriques, électromagnétique, optique, etc.). C’est au niveau de
cette couche que le type de codage et de modulation sont choisis. L’unité de données (PDU)
correspondante à cette couche est le bit.
Couche2- Liaison de données : la PDU de cette couche est appelée ”trame”. Cette couche se charge
d’adressage et d’échanges des trames, de contrôler les erreurs survenues dans la couche physique,
ainsi que du contrôle du flux (régulation du débit d’émission des trames).

Couche3- Réseau : la PDU de cette couche est appelée ”paquet”. Cette couche gère les
communications entre les ordinateurs placés sur différents réseaux. Elle se charge de l’adressage
logique des équipements (adressage IP) et d’acheminer les données d’un réseau à un autre en
empruntant le meilleur chemin en utilisant les routeurs et de protocoles de routage.

Couche4- Transport : Cette couche s’occupe de la fragmentation des données en petits paquets,
appelés ”segments” et elle se charge éventuellement de la gestion des problèmes liés au transport
(renvoi des données si manquantes). A la réception, la couche transport assemble tous les segments
pour reformer le message originel, ce qui assure une fiabilité des communications de bout-en-bout.
Elle contrôle également le flux (débit) et permet d’utiliser en simultanée plusieurs applications
utilisant des protocoles/ports différents.

Couche5- Session : cette couche se charge de la mise en œuvre des fonctions d’organisation et de
synchronisation de la communication entre les applications. Elle prend également des mesures de
sécurité, telle que la validation des mots de passe. En pratique, ces fonctions sont intégrées dans la
couche application (couche7).

Couche6- Présentation : pour pallier aux problèmes d’hétérogénéité syntaxique des données, cette
couche se charge de la traduction des données échangées par les applications dans un format
d’encodage standard. Comme la couche session, les fonctions de cette couche sont intégrées dans
la couche application (couche7).

Couche7- Application : dans cette couche sont définis les différents protocoles qui servent de
support aux applications les plus familières aux utilisateurs, comme les protocoles de messagerie
électronique, de navigation sur le web (HTTP), de transfert de fichiers(FTP), etc.

2.3 Modèle Internet ou TCP/IP


Le modèle TCP/IP (Transmission Control Protocol/ Internet Protocol) a été proposé à partir de 1969
avant le modèle OSI dans le cadre du projet ARPA (Advanced Research Project Agency) de la défense
américaine. Son implémentation réelle date des années 80 avec le projet ARPANET, réseau scientifique
dans les universités américaines, mise au point par deux chercheurs Vinton Cerf et Robert Kahn.
Quoi que les deux modèles Internet ou TCP/IP et le modèle OSI sont nés pratiquement dans la même
période mais développés séparément. Le modèle TCP/IP utilise également un modèle protocolaire en
couches, comparable à son homologue OSI. Toutefois, c’est un modèle à quatre couches qui ne
comprend ni couche Présentation, ni couche Session, ces deux couches étant groupées dans la couche 7
(application).
2.3.1 La couche application
Les applications se situent au sommet du modèle TCP/IP, Ce sont des logiciels de communication qui
accèdent au réseau. Leurs objectifs sont divers, outre la messagerie électronique, la transmission de voix et
vidéos, transfert de fichiers, elles permettent le travail collaboratif (calcul réparti, jeux multi-joueurs et les
réseaux sociaux). Ces applications sont à l’origine de croissance d’Internet puisqu’on voit apparaıtre de
manière continue de nouvelles applications en réponse aux nouveaux usages. Exemples de protocoles de cette
couche : FTP (File Transfert Protocol), SMTP (Simple Mail Transfert Protocol), HTTP ((HyperText Transfert
Protocol)), etc.

2.3.2 La couche transport


La couche transport est la couche sur laquelle s’appuient directement les applications. Deux protocoles
incontournables sont définis dans cette couche. Le protocole TCP (Transmission Control Protocol) et UDP
(User Datagram Protocol). Les deux protocoles sont employés par la quasi-totalité des applications.
Néanmoins, ils ont des objectifs sensiblement différents :
- TCP : procure une couche de transport fiable (données transmises sans erreur et reçues dans l’ordre de
leur émission).
- UDP : ne fait que transporter de manière non fiable des datagrammes IP (voir sections suivantes).

[Link] Le protocole TCP


Le protocole TCP est développé pour assurer un service de communication fiable et orienté connexion. Le
terme ”orienté connexion” signifie que deux applications qui dialoguent à travers TCP sont considérées l’une
comme un serveur, l’autre comme un client et qu’elles doivent établir une connexion avant de dialoguer
(comme le fonctionnement de la communication téléphonique). Le protocole TCP traite les données venant de
la couche supérieure et les découpent en paquet TCP (appelé segment TCP), qui seront par la suite
communiqués à la couche inferieure pour être soit transmis à travers le réseau, soit retransmis lorsqu’il ne
reçoit pas d’acquittement de réception de la part du destinataire. A la réception, le protocole TCP s’assure du
bon acheminement des paquets, détecte d’éventuelles erreurs de transmission comme il s’occupe du contrôle
de flux d’informations afin de garantir que l’émetteur ne surcharge pas le tampon du destinataire. Finalement,
le protocole réassemble les segments reçus.

[Link] Le protocole UDP


Le second protocole de la couche transport est le protocole UDP. A l’inverse du protocole TCP, il travaille
en mode non connecté. Il existe deux principaux types d’applications utilisant le protocole UDP : les
applications temps réel et les applications de multicasting.

Dans les applications temps réel (real time) comme le transport de la voix, la retransmission des paquets
erronés est inutile. En effet, rien ne sert la réexpédition de début de phrase alors que les utilisateurs
poursuivent leur conservation, d’où l’utilisation du protocole UDP (livraison rapide) plutôt que TCP
(une livraison exacte).

Les applications de multicasting permettent l’expédition d’une même information à plusieurs utilisateurs
simultanément. Exemple : une radio diffusant ses programmes sur Internet, dans ce cas, si tous les
utilisateurs renvoient un accusé de réception, l’émetteur risque d’être submergé, d’où l’utilisation du
protocole UDP qui ne suggère pas les accusés de réception.

2.3.3 La couche réseau


C’est la couche la plus importante du modèle TCP/IP. Elle est aussi appelée couche IP (Internet Protocol),
elle est chargée d’attribuer une adresse unique à chaque machine du réseau, elle permet également la gestion
de la circulation de paquets à travers le réseau en assurant leur routage, ainsi que la gestion de leurs
fragmentations. Elle comprend également les protocoles ICMP (Internet Control Message Protocol) et IGMP
(Internet Group Management Protocol).
[Link] Le protocole IP
Comme le protocole UDP, IP est un protocole sans connexion qui ne contrôle pas les erreurs de
transmission. Les principales fonctions de ce protocole que nous examinerons dans les sections suivantes
concernent : l’adressage IP, la fragmentation et le routage. L’unité de données (PDU) correspondante à cette
couche est le datagramme.

[Link] La fragmentation
La taille maximale d’un datagramme IP est 65536 octets (équivalent à 64 MO). Toutefois si les paquets
issus de la couche transport ont une taille plus grande que le MTU du réseau, la couche réseau doit assurer
leur fragmentation. En effet, chaque réseau dispose de ses propres caractéristiques physiques, dont la taille
maximale des trames appelées MTU (Maximum Transfer Unit) exprimée en octets. La fragmentation d’un
paquet est contrôlée par les champs du datagramme IP suivants : longueur totale, identification, drapeaux et le
champ position du fragment. Ces quatre champs véhiculent toutes les informations nécessaires permettant au
récepteur de réassembler les datagrammes.

[Link] L’adressage IP
Dans un réseau informatique, chaque périphérique doit disposer d’une adresse IP unique sous un format
normalisé. Contrairement à l’adresse physique, l’adresse IP est une adresse logique qui ne dépend pas de la
machine, elle est choisie pour pouvoir désigner une machine en tant que membre d’un réseau ou d’un sous-
réseau.

Structure d’une adresse IP


L’adresse IP est codée sur 32 bits pour IPv4, représentée dans une notation décimale pointée constituée de 4
nombres compris chacun entre 0 et 255.
Exemple :
Notation d´décimale : [Link]
Notation binaire : 11000101.01001011.11001000.00010110
L’adresse IP comporte deux parties :
Les bits de poids forts forment l’identifiant du réseau (Network ID).
Les bits de poids faibles forment l’identifiant de la machine (Host ID).

Les classes d’adresses Les adresses de réseaux sont affectées par un organisme international : ICANN
(Internet Corporation for Assigned Name and Numbers). Pour simplifier, l’ICANN a découpé l’espace
d’adressage IPv4 en cinq classes d’adresses :

- Classe A : cette classe sont attribuées aux réseaux qui comportent un nombre élevé d’hôtes.
L’ICANN fixe les 8 premiers bits (bits de poids fort) pour identifier le réseau et les 24 autres bits
pour identifier l’hôte.

- Classe B : les adresses de cette classe sont attribuées à des réseaux de taille moyenne à grande.
L’ICANN fixe les 16 premiers bits (bits de poids fort) pour identifier le réseau et les 16 autres bits
pour identifier l’hôte.

- Classe C : les adresses de cette classe sont généralement employées pour les petits réseaux locaux.
L’ICANN fixe les 24 premiers bits (bits de poids fort) pour identifier le réseau et les 8 autres bits pour
identifier l’hôte.

- Classe D : cette classe est prévue pour les communications de groupes appelées ”multicast”.
Contrairement aux trois premières classes qui sont dédiées à ”l’unicast”, communication point à
point.

- Classe E :il s’agit d’une classe expérimentale réservée pour un usage futur.
Masque de réseau Le masque de réseau (Netmask, en anglais) est un autre élément important du système
d’adressage IP. Le masque a la même structure qu’une adresse IP, son rôle est d’identifier les deux parties de
l’adresse IP, à savoir : l’identifiant du réseau (NetID) et l’identifiant de l’hôte (HostID). Autrement dit, le
masque de réseau (ou sous-réseau) s’obtient en mettant à ”1” tous les bits de la partie NetID de l’adresse IP et
à ”0” la partie HostID.

Les premiers bits d’une adresse IPv4 permettent d’identifier sa classe et par conséquent son masque. Les
classes d’adresses sont illustrées dans le tableau 1 suivant :
Table 1 – Classes d’adresses IPv4
Classe Premiers bits Début de plage Fin de plage Masque
A 0... [Link] [Link] [Link]
B 10... [Link] [Link] [Link]
C 110... [Link] [Link] [Link]
D 1110... [Link] [Link] /
Exemple :
Soit une adresse IP d’une machine de classe C en notation décimale : [Link] (en binaire :
11000000.10101000.00000001.00000010), son masque est [Link] (en binaire :
11111111.11111111.11111111.00000000)
Ainsi, pour obtenir le NetID, il faut effectuer un ET logique (AND) bit a` bit entre l’adresse IP et le masque,
voir la Figure 30. Le résultat représente l’adresse IP du réseau auquel appartienne cette machine, soit en
décimale :[Link].

Adresses réservées
Un certain nombre d’adresse IP sont réservées à un usage sur des réseaux privés, c’est à dire tout réseau non
connecté à Internet. Ces adresses sont donc non routables et sont généralement utilisées par des réseaux
individuels (domestiques) ou entreprises. Les plages d’adresses suivantes (Tableau 2) sont réservées aux
réseaux privés par classes :
Table 2 – Plages d’adresses IPv4 réservées
Classe Début Fin
A [Link] [Link]
B [Link] [Link]
C [Link] [Link]

Adresses de diffusion (broadcast)


C’est une adresse qui dans sa partie HostID, tous les bits sont mis à ”1”. Elle st utilisée pour diffuser un
message à l’attention de l’ensemble des machines du réseau.
Exemple : [Link] est une adresse de diffusion du réseau dont l’adresse IP est [Link] de classe
C.

Adresses de bouclage (loop back)


Chaque ordinateur dispose d’une adresse locale qui permet de communiquer avec sa propre machine via le
protocole IP. Cette adresse est sous a forme : 127.x.y.z. Leur rôle est de permettre de vérifier que TCP/IP est
bien configuré sur la machine locale (local host).

Les sous-réseaux (subnetting) Le subnetting consiste à utiliser une seule adresse IP pour créer d’autres sous-
réseaux. Pour créer des sous-réseaux, les bits sont empruntés de la partie HostID. Ainsi, pour un bit emprunté,
il est possible de créer deux sous-réseaux car seulement 0 ou 1 sont possibles.
Pour créer plus de sous-réseaux, plus de bits doivent être empruntés.
Exemple : Soit l’adresse d’un réseau de classe C : [Link] ayant un masque par défaut [Link].
L’objectif est de découper ce réseau en deux sous-réseaux.
Pour créer les deux sous-réseaux, nous allons suivre les étapes suivantes :
1. Chercher le nombre de bits nécessaires
En empruntant un bit seulement de la partie HostID (21 = 2), nous pouvons avoir deux sous-réseaux :
(192.168.1.00000000 et 192.168.1.10000000) mais le premier sous-réseau n’est pas autorisé puisqu’il
s’agit de l’adresse du réseau.
Donc on utilise deux bits (22 = 4) pour avoir quatre sous-réseaux, mais il n’y a que deux qui sont
utilisables.
2. Calculer le masque de sous-réseaux
Le masque de réseau par défaut est : [Link], en ajoutant 2 bits on obtient un nouveau masque :
[Link].
3. Calculer les adresses des sous-réseaux
000000 (adresse du réseau lui-même)
000000 (adresse du premier sous-réseau)
000000 (adresse du deuxième sous-réseau) 000000 (adresse de
sous-réseau non utilisable)
Les deux sous-réseaux sont donc : [Link] et [Link].
4. Adresses de diffusion de chaque sous-réseaux
Pour obtenir l’adresse de diffusion dans chacun des deux sous-réseau, on met à 1 tous les bits de la partie
HostID.
Ainsi, l’adresse de diffusion du premier sous-réseau est ([Link]) et l’adresse de diffusion du
deuxième sous-réseau est 192.168.1.10111111 ([Link]).

Notation CIDR
Il existe une autre forme plus courte du masque réseau connue sous le nom CIDR (Classless Inter-Domain
Routing). Elle donne l’adresse IP du réseau suivi par un slash (/) et le nombre de bits mis à ”1” dans la
notation binaire du masque.
Exemple : Dans l’exemple précèdent, l’adresse IP du réseau peut être écrite en notation CIDR comme suit :
[Link]/24

[Link] Le routage
Afin d’interconnecter des réseaux, il faut déterminer un chemin (une route). Cet objectif est réalisé par des
algorithmes implémentés dans un équipement appelé routeur, passerelle ou Gateway, relié à au moins deux
réseaux. Ainsi, un routeur réémettra des datagrammes venus d’une de ses interfaces réseau vers une autre.
Chaque datagramme IP contient l’adresse IP de l’émetteur et du récepteur (destinataire). Lorsqu’un
datagramme est émis, la station regarde si l’adresse IP du récepteur appartient au même réseau à laquelle elle
apparient, grâce au masque réseau. Si c’est le cas, le datagramme est envoyé directement vers le récepteur.
Dans le cas contraire, le datagramme est envoyé vers le routeur par défaut. Les routeurs disposent d’une table
de routage qui leur permet de choisir la route pour arriver a` une destination. Il s’agit d’un fichier ou` chaque
ligne indique la route d’un réseau a` atteindre en associant des adresses des réseaux à des interfaces de
routeurs pour y parvenir. Afin d’éviter toute impasse, il y a toujours une entrée indiquant un chemin par
défaut.

La mise a` jour des tables de routage s’effectue de deux manières :


- Procédure manuelle ou routage statique : pour les petits réseaux, l’administrateur peut effectuer des
modifications manuelles de la table de routage.
- Procédure automatique ou routage dynamique : il est effectué par un algorithme (protocole) de
routage. Trois grandes catégories de protocoles de routage existent pour les réseaux locaux : `a
vecteur de distance (tel que l’algorithme RIP (Routing Information Protocol)), à état des liens (tel
que OSPF (Open Shortest Path First)) et `a vecteur de chemin (tel que BGP (Border Gateway
Protocol)).
[Link].1 La table de routage
Une table de routage est un élément central du routage IP. Il s’agit d’une structure de données permettant à un
routeur ou un ordinateur en réseau d’accéder à un segment précis du réseau sur lequel se trouve la machine de
destination.
La table de routage IPv4 contient en général les informations suivantes :
Les adresses des réseaux de destination,
Les masques de sous-réseaux,
Les adresses des routeurs intermédiaires (passerelles) permettant de les atteindre,
L’adresse de l’interface réseau (la carte réseau) par laquelle le paquet sortira du routeur.
Exemple : Considérons l’exemple d’un réseau comportant : deux routeurs (RT1 et RT2) pour séparer les 4
segments dont les adresses sont indiquées en rouge sur la Figure 31.

Figure 31 – Exemple d’un réseau comportant deux routeurs et 4 segments.


La figure suivante (Figure 32) représente les deux tables de routages du premier routeur (RT1) et du second
routeur (RT2).

Figure 32 – Tables de routages des routeurs RT1 et RT2.


Chaque routeur doit donc connaitre la route vers chacun des nœuds et segments du réseau pour pouvoir les
joindre. Cependant, le réseau Internet est composé d’un grand nombre de nœuds et segments ce qui rend les
tables de routage énormes. Afin de résoudre ce problème, on indique une route par défaut. La route par défaut
est la route qui sera utilisée lorsque aucune route spécifique pour aller vers la destination spécifiée n’aura été
trouvée. Une destination par défaut peut être notée [Link] et a pour masque [Link]. Ainsi, la figure
représente une table de routage simplifiée pour le second routeur (RT2).
Chapitre 3
Les bases théoriques de la transmission des données

3.1 Introduction
Les supports de communication permettent de transmettre des signaux physiques. Ces signaux, qui peuvent
être de nature différente (électrique, optiques ou ondes électromagnétiques), sont codés de sorte à transporter les
bits c’est-à-dire les 0 et les 1. La transmission des bits repose sur des principes théoriques de transmission du
signal, que nous abordons brièvement dans ce chapitre.

3.2 Transmission numérique et analogique


Le but des réseaux est de transmettre des informations d’un ordinateur à un autre. Afin de transmettre des
informations binaires (suites binaires composée de 0 et 1) sur un support de communication, Il est nécessaire de
les transformer au préalable en un signal électrique. La technique de codage choisie diffère selon le type de
données qui s’agir de : données textuelles, données audio ou données vidéos... Par exemple, un enregistrement
vidéo ou audio est représenté par un signal analogique, c’est donc une courbe (avec un rait continu). Par contre,
un texte ne peut prendre que des valeurs bien définies, en nombre limité, on parle alors de signal numérique. Un
signal analogique est de type sinusoïdal par contre un signal numérique est un signal discret.

3.3 Les modes de transmission


La transmission de données entre deux machines diffère selon :
Le sens des échanges : Simplex, half duplex et full duplex.
Le mode de transmission : il s’agit du nombre de bits envoyés simultanément.
La synchronisation entre émetteur et récepteur.
3.3.1 Simplxe, half duplex et full duplex
Trois modes d’exploitation peuvent être définis sur une liaison point à point reliant deux stations émettrices
et réceptrices :
[Link] Mode simplex
En simplexe les données peuvent être transmises dans un sens fixé à l’avance. La commande d’un relais ou
l’affichage sur un moniteur vidéo sont des exemples de ce type de transmission d’ailleurs très peu utilisé en
téléinformatique. Exemple : la liaison vers une imprimante réseaux.
[Link] Mode semi-duplex (half duplex)
En semi-duplex, les données peuvent être transmises dans un sens ou dans l’autre, nécessitant comme
support deux fils seulement. Le choix du sens de transmission est commandé par le terminal. Exemple : une
liaison avec câble coaxial.

[Link] Mode duplex (full duplex)


En duplex ou en duplex intégral, les données peuvent être échangées dans les deux sens à la fois, nécessitant
ainsi deux paires de fils. Ce type de transmission est peu utilisé en téléinformatique. Exemple : une liaison `a
l’aide d’une paire torsadée.

3.3.2 Transmission série et parallèle

Transmission série : en transmission série, tous les bits d’un mot ou d’un message sont transmis
successivement sur une même ligne. Ce mode de transmission n’utilise, pour la transmettre des données,
que deux conducteurs. D’un cout moins élevé. Elle est adaptée aux transmissions sur des distances
importantes.

Transmission parallèle : La transmission parallèle est caractérisée par un transfert simultané de tous les
bits d’un même mot. Ainsi, elle nécessite autant de conducteurs qu’il y a de bits à transmettre. Elle est
utilisée pour des liaisons entre un calculateur, ses périphériques et ses unités de calcul esclaves.
La transmission parallèle est très performante en terme de débit. Cependant, étant donné que les fils
conducteurs sont proches sur une nappe, des perturbations (notamment à haut débit), peuvent être
générées dégradant ainsi la qualité du signal.

3.3.3 Transmission synchrone et asynchrone

Transmission synchrone : Il s’agit de transmettre dans un intervalle constant sur lequel l’émetteur et le
récepteur se sont accordés. La répétition de cet intervalle est continue. Les caractères sont envoyés de
manière séquentielle, sans séparateurs. Ce mode convient aux débits importants.

Transmission asynchrone : pas de relation établie à l’avance entre émetteur et récepteur. Deux signaux,
les bits start et stop, encadrent les bits de chaque caractère. Une transmission débute à un instant
quelconque.

3.4 Grandeurs caractéristiques d’une voie de transmission


Afin de transmettre un signal, on utilise des supports de transmissions. Quelques soit la nature du support
utilisé, quelques propriétés communes caractérisent tous les supports de transmissions. Dans ce cours, nous
présentons ces caractéristiques.
La bande passante (Bandwidth)
La bande passante est la caractéristique la plus importante d’un support de transmission, qui se comporte
généralement comme un filtre qui ne laisse donc passer qu’une bande limitée de fréquences appelée bande
passante ou intervalle de fréquences : [Wmin,Wmax].

La largeur de la bande (W)


Il est important de distinguer la bande passante de la largeur de la bande. Cette dernière est calculée par :
W = Wmax−Wmin, elle est exprimée en Hertz (Hz).
Exemples :
Une ligne téléphonique ne laisse passer que les signaux de fréquence comprise entre 300Hz et 3400Hz.
Au dehors de cette bande les signaux sont fortement atténuée et ne sont plus compréhensible, on dit alors que
la bande passante d’une telle ligne est de 3100Hz soit 3400–300 Hz. Par contre un câble coaxial utilisé dans
les réseaux locaux à une bande passante nettement supérieure dont la largeur est de l’ordre des centaines de
MHz (300 à 400 MHz).

La rapidité de modulation (R)


La rapidité de modulation ou la vitesse de modulation représente le nombre d’intervalles élémentaires
dans une unité de temps (seconde) pour envoyer un symbole. Elle est exprimée en bauds. .
Autre définition : la rapidité de modulation est le nombre de changements d’états du signal par second.

Remarque :
Une voie de transmission ayant une largeur de bande passante W (Hz), ne peut transmettre des signaux
dont la vitesse de modulation est supérieure a` 2W (bauds) c’est-`a-dire : R ≤ 2W.
Exemple :
Une ligne téléphonique a une bande passante comprise entre 300 et 3400 Hz. La rapidité de modulation
maximale est donc : Rmax = 2.*(3100) = 6200(bauds).

La valence (v)
Est le nombre d’états (niveaux) nécessaires pour transmettre simultanément n bits. Elle est calculée comme

Rappel mathématique : y = ax ⇒ x = loga(y), ainsi, v = 2n ⇒ n = log2(v).


suit : v = 2n.

Exemples :
Sur la Figure 41, un signal bivalent ce dit d’un signal qui présente 2 états correspondants à la valeur du bit
(0 ou 1). Un signal quadrivalent présente 4 états significatifs et donc, il est possible de coder 2 bits avec une
information électrique, par exemple 00 = -3V, 01 = -1V, 10= +1V, 11= +3V.

Le débit effectif ou utile (D)


Est la quantité d’information effectivement transmise par unité de temps.
Il est calculé comme suit :
, il est mesuré en (bits/s).

Le débit binaire maximum ou capacité Dmax


Le débit maximum ou aussi appelé la capacité du canal, est mesurée en (bits/s) et il est calculé de deux
manières différentes selon les cas : ligne bruitée ou sans bruit.

Le débit maximum sur ligne sans bruit


Dans le cas d’une ligne sans bruit, nous appliquons le (théorème de Nyquist) :
Le débit maximum sur ligne bruitée
La transmission de données sur une ligne ne se fait pas sans pertes. En effet, des parasites ou des
dégradations du signal peuvent apparaitre. Les parasites (souvent appelés bruit) sont l’ensemble des
perturbations modifiant la forme du signal. On distingue généralement deux types de bruit :

- Le bruit blanc : c’est une perturbation uniforme du signal, c’est-à-dire qu’il rajoute au signal une petite
amplitude dont la moyenne sur le signal est nulle. Le bruit blanc est généralement caractérisé par un
ratio appelé rapport signal/bruit qui traduit le pourcentage d’amplitude du signal par rapport au bruit,
son unité est le décibel (dB).
- Les bruits impulsifs : sont de petits pics d’intensité provoquant des erreurs de transmission.
Dans le cas d’une ligne bruitée, nous appliquons le (théorème de Shannon) :
), ou` ) est la puissance du signal sur puissance
du bruit, ce rapport s’exprime sous forme logarithmique en décibel :

Le temps de propagation d’un signal (Tp)


Le temps de propagation Tp est le temps nécessaire à un signal pour parcourir un support d’un point à un
autre. Ce temps dépend de la nature du support, de la distance et également de la fréquence du signal.
Le temps de propagation d’un signal (Tp)
Le temps de transmission Tt (dépend de la taille du message à transmettre et du débit supporté par la voie de
transmission. Il correspond au rapport entre la taille du message et le débit de la ligne.

Le délai d’acheminement (Da)


Correspond à la somme des temps de propagation et de transmission, Da = Tp + Tt.

Chapitre 4 : LES RÉSEAUX À HAUTS DÉBITS

Introduction
Au fil du temps, l’architecture des réseaux locaux se complique avec l’arrivée des réseaux métropolitains dont
la dimension peut atteindre plusieurs centaines de kilomètres. Deux facteurs sont souvent cités pour expliquer la
nécessité de réseaux à hauts débits. Ce sont la décentralisation des traitements vers une architecture distribuée
de type client-serveur et la forte expression de nouveaux besoins. Ces deux facteurs ont fortement modifié la
nature des trafics sur les liens. Les besoins de développer des applications multimédias, telles que données, son
et images animées, ont engendré la nécessité de débits importants. Une des solutions pouvant satisfaire ces
contraintes et exigences est la mise en place de réseaux multiservices ou à intégration de services. Les réseaux à
hauts débits offrent une variété de débits supérieurs à 100 Mbps et sont destinés aussi bien aux réseaux locaux
qu’aux réseaux longue distance. Comme support d’information, c’est-à-dire pour la transmission, ils utilisent la
fibre optique.

I- Les réseaux FDDI, FDDI-II (Fiber Distributed Data Interface)


1. Présentation de FDDI
Ce type de réseau est en anneau à jeton et utilise la fibre optique, bien que certains de ces réseaux aient pour
support le fil de cuivre à paires torsadées (TP-CDDI – Twisted Pair Copper Distributed Data Interface) et
soient limités à 100 Mbps. Leurs applications sont les réseaux fédérateurs, et, pour ce qui est de la version
améliorée de FDDI-II, le support de la voix et de la vidéo.

L’anneau à jeton a été mis au point par IBM (token ring). Chaque ordinateur est relié à l’anneau et achemine les
trames (informations) à l’ordinateur voisin. Ce type de réseau présente un état fragile dans la mesure où
lorsqu’une machine du réseau est défaillante, tout le réseau peut être inexploitable. C’est là un des désavantages
des réseaux en anneau à jeton. Le réseau FDDI est un réseau en anneau double utilisant la fibre optique. Ces
deux anneaux fonctionnent de manière suivante :
- le premier envoie les données lorsque tout fonctionne correctement;
- le deuxième supplée le premier en cas de défaillance.

Dans un réseau FDDI, les anneaux sont qualifiés de contrarotatifs parce que le flux de données parcourt le
second anneau dans la direction opposée de celle du premier anneau.

Figure 1 : Topologie d'un réseau FDDI


2. Principe de fonctionnement
Chaque ordinateur est relié à l’anneau et fait circuler les informations à l’ordinateur voisin. Chaque station participe aussi
à la circulation du jeton. L’accès au jeton est géré par la couche MAC. Ainsi, une station qui veut émettre une ou
plusieurs trames (informations) doit attendre le jeton. Une fois le jeton reçu, elle émet ses informations et libère le jeton
sur l’anneau.

Le FDDI est une norme de réseau local à haut débit (100 Mbps) qui utilise la fibre optique. La technique FDDI
proposée par le X3.T9.5 de l’ANSI a été normalisée par l’ISO.

Les composants du modèle en couche des réseaux FDDI


Le réseau FDDI se décompose en trois parties :

 La couche 2 (liaison) qui se compose de :


– LLC (Logical Link Control) de format IEEE 802.2
– MAC (Medium Access Protocol) de norme X3.139

 La couche 1 (physique) composée de :


– PHY (Physical Protocol) de norme X3.148
– PMD (Physical Medium Dependant) de norme X3.166

 Une couche SMT (Station ManagemenT) qui surveille le fonctionnement de l’anneau FDDI par un contrôle direct
sur les trois couches MAC, PHY et PMD.

II- ATM (Asynchronous Transfert Mode)


C’est un réseau à commutation de cellules (unité de base en multiplexage ATM) de 53 octets utilisant comme support de
transmission la fibre optique ou le fil de cuivre à paires torsadées de 25 Mbps à 600 Mbps et plus. Ses applications sont :
les réseaux locaux fédérateurs, les réseaux longue distance, la téléphonie et la vidéoconférence.

1. Les réseaux ATM


ATM est un protocole qui a fait son apparition afin d’appliquer la téléphonie à l’informatique. C’est un réseau classique
où la commutation de circuit (téléphonie) est remplacée par le traitement logiciel de la voix (commutation de paquets).
Comme pour les autres réseaux, la transmission de l’information de ATM se fait en trames (cellules) dont la taille est de
53 octets (5 octets d’en-tête et 48 octets de données disponibles). Le principe de multiplexage ATM est à la fois temporel
et spatial :
- Temporel : La bande passante est découpée en tranche de temps qui sont des cellules
- Spatial : Une fois que les cellules sont créées, des notions d’adressage dans le multiplexage et d’allocation
dynamique de la bande passante permettent le routage des cellules entre les voies logiques.

2. Principe de commutation des cellules


Les cellules sont commutées au sein de plusieurs équipements créant ainsi des circuits virtuels, à partir de deux
identifiants, entre les abonnés :
- Un numéro de canal virtuel VCI – Virtual Channel Identifier pour la commutation individuelle des cellules;
- Un numéro de chemin virtuel VPI – Virtual Path Identifier pour la transmission d’un paquet de voies virtuelles de
bout en bout.

Ainsi, ATM est défini par deux types d’équipements : les commutateurs VPI et VCI. Il existe des interrupteurs ATM qui
ne routent qu'au niveau du VPI sans se soucier du VCI. Ils sont utilisés pour des réseaux étendus pour leur efficacité, mais
ne présentent pas d’intérêt pour les réseaux locaux.

Les avantages d’ATM


- Les réseaux d’ATM assurent une meilleure qualité de service de bout en bout en raison de la connexion virtuelle.
- Ces réseaux disposent d’une bande passante minimale à chaque connexion.
- Ils supportent diverses qualités de services qui satisfont au mieux les besoins de trafic d’applications
(multiservice et multimédia).
- La bande passante est allouée à la demande par partage optimal grâce au multiplexage statique d’ATM.

Les inconvénients d’ATM


- Pour un flux de données de faible volume, le temps de connexion peut être long.
- Nécessité de connaître les besoins en qualité de service pour la mise en place d’applications.
- Pas de connexions de multipoint à multipoint.
- Toutes les applications TCP/IP doivent subir des modifications afin de trouver les ressources sur ATM et de
pouvoir les exploiter de manière optimale.
- Absence de services de sécurité intégrés à ATM.

III- SDH, Sonet (Synchronous Digital Hierarchy, Synchronous Optical Network)


Il s’agit d’un mode de transmission numérique pour les réseaux de télécommunications à hauts débits. Ce réseau de
transport utilise la fibre optique pour des débits allant jusqu’à 1 Gbps et plus. Ce type de réseau intervient dans les
applications de multiplexage de flux comme ATM et RNIS.

Les réseaux numériques synchrones


Dès 1984, la demande pour de nouveaux services de télécommunications à large bande s’est faite de plus en plus
croissante de la part des opérateurs. Ils avaient besoin de liaisons pouvant supporter les hauts débits. C’est ce qui a été à
l'origine des travaux sur les réseaux optiques synchrones (Sonet), dont les premiers résultats ont été publiés aux États-
Unis à la fin de 1986, sur l’initiative de BELLCORE (BELL Communication REsearch). Sonet fonctionne au niveau de la
couche physique du modèle OSI.

Sonet (Synchronous Optical Network) est un protocole d’origine nord-américaine. Il s’agit de la technologie de transport
optique qui devenue le standard pour la transmission des réseaux numériques en Amérique du Nord et au Japon. C’est le
mode utilisé par les réseaux fédérateurs de télécommunications optiques en ce qui concerne le transport du signal
numérique (paquets de la voix et des données) sur de longues distances. Ces réseaux étaient ainsi dénommés pour
signifier le fait qu’ils n’étaient pas tout à fait synchrones. Ainsi, ce nouveau protocole de réseaux synchrones met
davantage l’accent sur les capacités d’administration du réseau, l’interfaçage, la compatibilité et le multiplexage. La
norme Sonet a été proposée par l’ECSA – Exchange Carriers Standards Association pour validation auprès de l’ANSI –
American National Standards Institute. On a l’espoir que cette norme sera au cœur de l’architecture mondiale des
télécommunications pour les prochaines décennies.

Toute la difficulté de la normalisation de ce protocole a été de trouver un compromis entre les intérêts américains,
européens et japonais afin de garantir l'interconnexion des différents réseaux des opérateurs, les Européens ayant créé leur
propre norme, le SDH ou Synchronous Digital Hierarchy. De nos jours, Sonet et SDH forment un standard mondial pour
les réseaux numériques, ce qui permet aux systèmes de transmission de communiquer au moyen de support optique.
Sonet définit une nouvelle norme pour les réseaux optiques synchrones (Optical Carrier ou OC) et son équivalent
électrique pour la transmission synchrone des signaux numériques (STS – Synchronous Transport Signals) par fibre
optique. Ce nouveau standard, et son équivalent électrique, voit ses différents débits ainsi définis dans le tableau ci-
dessous.

IV- Les réseaux SMDS (Switched Multimegabit Data Service)


Ils constituent des réseaux à commutation de paquets à hauts débits pour les liaisons longue distance. Cette
couche de service au-dessous de ATM ou de DQDB (Distributed Queue Dual Bus) désigne la norme IEEE
802.6 pour les réseaux MAN.

Pour relier les réseaux locaux situés en différents lieux, les entreprises louaient des lignes spécialisées.
Cependant, la location de lignes spécialisées (LS) coûte assez cher. C’est un canal qui vous est spécialement
réservé par votre opérateur, et c’est vous qui demandez le débit qui vous intéresse, ou du moins, celui dont les
frais afférents sont le plus à la portée de votre bourse. Les opérateurs ont alors proposé un nouveau service pour
apporter aux entreprises un moyen moins coûteux que la location des LS pour relier les réseaux : ce sont les
réseaux SMDS – Switched Multimegabit Data Service ou Service de données commutées en multimégabits.
SMDS est un service de communication en réseau public à large bande. C'est une technologie sans connexion à
commutation de paquets.

Les réseaux SMDS font partie de la famille des technologies à hauts débits. Leur vitesse de transmission va de
1 à 45 Mbps et leur connexion n’est disponible qu’au moment où elle est nécessaire. Ce n’est donc pas une
connexion permanente. Une connexion SMDS est une adresse réseau attribuée par un opérateur de
télécommunications et cette adresse sert à connecter un réseau local à un autre. Elle est conçue comme un
numéro de téléphone incluant le code du pays, celui de la zone de même que le numéro local. Si on veut
diffuser simultanément à plusieurs réseaux locaux, on utilise une adresse de groupe.
Si les utilisateurs ont besoin de transférer des informations à un ou plusieurs réseaux locaux, ils n’ont qu’à
sélectionner tout simplement les adresses appropriées pour en indiquer la ou les destinations finales. SMDS se
chargera du reste en faisant en sorte que les informations aboutissent aux destinataires. Il faut par contre qu’un
travail préalable soit fait par les utilisateurs avant émission : ils doivent s’occuper du contrôle de la
communication et se charger de réparer les erreurs de transmission. Ces tâches sont à la charge des réseaux
locaux et non pas à celle du SMDS. Ce dernier se contente simplement de laisser passer les informations d'un
endroit à un autre sans se soucier de la forme ni du format de ces données. Il agit comme un service de
messagerie qui, après sa collecte, livre des envois sans se préoccuper du contenu. Les paquets transférés par
SMDS sont de longueur variable; ils renferment les adresses de la source et des destinations et peuvent contenir
jusqu'à 9 188 octets de données. Ils sont routés individuellement et peuvent contenir toutes sortes de données
(paquets ethernet, token ring, etc.) en provenance de n’importe quel type de réseau local.

Les services apportés par SMDS peuvent être exploités par différentes plates-formes réseau car cette
technologie n’est pas particulière à un modèle type de réseau. On a ainsi la possibilité de passer d’un réseau à
un autre et de bénéficier des avantages qu’apporteront les développements futurs, ceci étant rendu possible
grâce à son caractère évolutif tout en conservant une compatibilité avec les services des données des
utilisateurs. La principale plate-forme utilisée pour les accès SMDS est basée sur DQBD qui est un protocole de
communication développé par une université australienne et soutenu par Telecom Australia. Ce protocole a été
normalisé par l’IEEE 802.6 et l’ISO 8802.6 comme norme de réseau métropolitain. Il a été mis au point
parallèlement à ATM et utilise le format des cellules de 53 octets dont 48 de charge utile. Les paquets SMDS
de longueurs variables doivent ainsi être segmentés dans un nombre approprié de cellules lorsqu’ils sont
encapsulés dans DQDB. Ce dernier permet des transferts isochrones et asynchrones en mode connecté ou non à
des débits allant de 45 à 155 Mbps.

Afin de rendre compatibles les accès DQDB vers des centres de réseaux de commutation pour les utilisateurs,
un nouveau protocole a été mis en œuvre : le SIP (SMDS Interface Protocol).

Le DXI (Data eXchange Interface) est quant à lui un protocole qui a été défini afin de donner à SMDS la
possibilité de supporter des connexions série particulièrement celles basées sur les trames HDLC. Le protocole
SIP est un protocole à trois niveaux qui contrôle les accès des utilisateurs aux réseaux. Au niveau 3, SIP reçoit
et transporte les trames de la couche de niveau supérieur. Au niveau 2, SIP, basé sur DQDB, contrôle les accès
au support physique. Au niveau 1, SIP prend en compte le système de transmission. Une version 622 Mbps
devrait être disponible prochainement.

Vous aimerez peut-être aussi