0.1 - Tout Sur Les Réseaux
0.1 - Tout Sur Les Réseaux
RESEAUX
Un réseau informatique est un ensemble de PC et d'autres dispositifs
interconnectés par câble ou par liaison sans fil
Ils peuvent:
Un réseau permet de relier des ordinateurs quel que soit le type: PC, Mac, Main Frames (ordinateur central), ...
entre-eux pour partager des ressources.
On détermine deux types d'ordinateurs connectés sur le réseau: les serveurs et les clients. Les serveurs
partagent leurs ressources (fichiers, périphériques de stockage, périphériques d'impression, ...). Les clients
utilisent ces ressources partagées.
On distingue:
- Win NT, 2000 serveur, XP pro serveur, lynux ou Netware pour les réseaux lourds
- Système Unix ou propriétaires (spécifique au fabricant) pour les autres, même si un Wan est de plus
en plus configuré à l'aide de rassemblement de réseaux lourds. Internet ne fait pas exception à la
règle.
Technologie Ethernet
Il existe plusieurs technologies LAN, dont les plus répandues sont Ethernet, Fast Ethernet et giga Ethernet. Un
réseau peut invoquer une ou plusieurs de ces technologies.
Les réseaux Ethernet fonctionnent de manière similaire, la principale différence étant la vitesse de transfert de
l'information.
- Ethernet opère à 10 Mégabits par seconde (ou Mbps)
- Fast Ethernet opère à 100 Mbps.
- Giga Ethernet opère à 1000 Mbps.
Les dispositifs d'un réseau communiquent en se transmettant des informations en succession de petites
impulsions électriques (que l'on nomme des paquets).
Chaque paquet contient l'adresse du dispositif transmetteur (l'adresse source) et celle du destinataire (l'adresse
de destination).
Cette information est utilisée par les PC et autres équipements du réseau pour assurer que le message arrive à
destination.
Les réseaux Ethernet et Fast Ethernet utilisent un protocole appelé CSMA/CD (Carrier-sense Multiple Access
with Collision Detection).
Lorsque deux dispositifs essaient de communiquer simultanément, il se produit une collision entre les paquets
qui est détectée par les dispositifs de transmission. Les dispositifs arrêtent alors leur transmission et attendent
avant de ré-émettre leurs paquets.
Le mécanisme est semblable à la conversation d'un groupe de gens; si deux personnes parlent en même
temps, elles s'arrêtent toutes deux, puis l'une d'elles reprend la conversation.
Des Equipements permettant aux PC et aux périphériques de communiquer, tel qu'un concentrateur (hub) ou
un commutateur (switch).
Un système d'exploitation de réseau (NOS –Network Operating système) tel que Windows 95, Windows 98.
Windows XP et linux
Exemple de réseau
- Ils doivent pouvoir être connectés à d'autres réseaux et leur maintenance doit être facile.
- Ils doivent être compatibles avec un maximum d'équipements, donc correspondre à un standard.
câblage
Il constitue l'infrastructure physique, avec le choix entre paire téléphonique, câble coaxial et fibre
optique. Ce choix détermine le type de concentrateurs (switch, HUB) du réseau. Ceux-ci constituent
les nœuds internes dans le cas de réseaux en étoile.
méthode d'accès
Elle décrit la façon dont le réseau arbitre les communications des différentes stations sur le câble :
Ordre, temps de parole, organisation des messages. Elle dépend étroitement de la topologie et donc
de l'organisation spatiale des stations les unes par rapport aux autres. La méthode d'accès est
essentiellement matérialisée dans les cartes d'interfaces, qui connectent les stations au câble.
Protocoles de réseaux
Ce sont des logiciels qui "tournent" à la fois sur les différentes stations et leurs cartes d'interfaces
réseaux. C'est le langage de communication. Pour que deux structures connectées sur le réseau, ils
doivent "parler" le même protocole.
Le ou les clients
Ce sont des ordinateurs ou périphériques connectés qui utilisent les ressources des serveurs de
fichiers, d'impression ou de programmes. Ils ne partagent pas leurs ressources.
Le système de sauvegarde
C'est un élément indispensable qui fonctionne de diverses manières soit en recopiant
systématiquement tous les fichiers du ou des serveurs, soit en faisant des sauvegardes régulières,
éventuellement automatisées.
TCP/IP
Le protocole TCP/IP (Transmission Control Protocol / Internet Protocol ) est le seul protocole disponible sur tous
les systèmes informatiques. Il n'a pas été conçu pour un système de transmission particulier, contrairement à
d'autres protocoles réseaux. TCP/IP est approprié aux réseaux hétérogènes : des ordinateurs tournant sous
Windows (95, 98, NT4 ...), Unix (et ses variantes Linux, Solaris, True64, HP-UX, AIX, ...), ou autre, peuvent être
inter connectés sur un même réseau TCP/IP
OSI
Le protocole standardisé de réseau OSI (Open Systems Interconnect) constitue une alternative au TCP/IP pour
l' établissement de réseaux hétérogènes. OSI est moins répandu. Ceci est en partie dû au fait que TCP/IP est
déjà disponible depuis longtemps pour beaucoup de plates-formes, et fait preuve d'un très bon fonctionnement
(par exemple sur le Web).
IPX/SPX
IPX est le protocole de réseau classique du système d'exploitation réseau NetWare de NOVELL. Le protocole
IPX est routable et est pour cette raison supporté par de nombreux routeurs multi-protocoles.
NetBIOS
NetBIOS est un protocole de réseau développé par IBM pour la communication point à point entre les PC. Le
serveur LAN OS/2 supporte ce protocole. Les réseaux NetBIOS sont faciles à gérer, tant qu'ils sont limités aux
groupes de travail.
NetBEUI
NetBEUI (NetBIOS Enhanced User Interface ) est un protocole standard pour la communication entre PC. Ce
protocole est utilisé par plusieurs systèmes d'exploitation réseau pour constituer des réseaux locaux point à
point. Ce protocole ne devrait être utilisé que pour relier un petit nombre de PC entre eux, car la gestion
administrative en est coûteuse. Chaque PC au sein du réseau doit être configuré de façon individuelle en ce qui
concerne les droits d'accès et les services à disposition du serveur. Les services Domain Name Service (DNS)
supportés par exemple sous TCP/IP ne sont pas disponibles. Windows 98 et Windows NT peuvent utiliser
NetBEUI comme protocole de réseau. Dans les réseaux plus importants, il est recommandé cependant d'utiliser
TCP/IP, qui est également supporté en standard par Windows 98 et Windows NT. Si des applications Internet
doivent être utilisées (E-Mail, Webbrowser), TCP/IP est absolument indispensable.
DECnet
DECnet est une famille de produits matériels et logiciels conçue pour la communication entre des ordinateurs
de Digital. Mais elle ne leur est pas limitée : des PC peuvent également être intégrés dans le DECnet. Comme
DECnet est un protocole routable, la connexion au réseau public est possible. Son intérêt réside dans la
possibilité d'utiliser différentes liaisons, comme par exemple Ethernet ou X.25. Ses performances sont
comparables à celles de TCP/IP . DECnet est basé sur l'architecture DNA ( Digital Network Architecture ) et est
fort proche du modèle ISO/OSI .
LAT
Le protocole LAT (Local Area Transport-Protocole ) est un protocole spécialisé pour la communication entre
serveurs de terminaux et les ordinateurs de Digital. Il offre une intégration efficace des terminaux et des
imprimantes dans un environnement Ethernet ou Digital. Mais le protocole n'est pas routable. Son utilisation
n'est en général possible qu'à l'intérieur d'un réseau local.
AppleTalk
AppleTalk est un protocole spécialisé pour la communication entre les ordinateurs Macintosh et les
périphériques supportant ce protocole routable.
Ces hôtes peuvent être des ordinateurs, des clients, des serveurs, des imprimantes, des scanneurs ainsi que
de nombreux autres types d'équipements.
Les unités hôte n'appartiennent à aucune couche. Elles sont connectées physiquement au média réseau grâce
à leur carte réseau (NIC) et les fonctions des autres couches OSI sont exécutées par des logiciels exploités par
l'hôte.
Cela signifie que les unités hôte fonctionnent au niveau des sept couches du modèle OSI. Elles se chargent du
processus d'encapsulation et de désencapsulation afin de pouvoir envoyer du courrier électronique, imprimer
des rapports, scanner des photos ou accéder à des bases de données.
Il n'existe pas de symboles uniformisés dans l'industrie des réseaux pour représenter les hôtes, mais ces
derniers sont habituellement assez évidents. Ils ressemblent à l'unité réelle, ce qui en facilite la représentation
mentale.
Les serveurs:
Un Serveur est un ensemble machine/logiciel dont la vocation est de rendre service de stockage, de partage ou
de distribution. de données à un ensemble d'utilisateurs connectés à un réseau.
Suivant le type de ressources mis à la disposition des clients par un serveur, on parle de:
- Serveur de disques
- Serveur de fichier
- Serveur d'impression
- Serveur de communication
Serveurs de fichiers:
- Le disque sert à stocker les fichiers des clients.
- Il n'y a pas de partition du disque
- Une organisation en répertoires affectés à chaque client permettant une protection individuelle des
fichiers.
Serveur d'applications:
Il permet d'exploiter une application (un programme) sur un serveur à partir de tous les clients. Ceci est typique
aux bases de données. Elle permet par exemple de facturer, gérer les stocks, ... à partir de plusieurs PC en
même temps dans une gestion commerciale. Ces applications doivent être dédiées à ce mécanisme de
partage.
Ces serveurs sont nettement plus musclés. Cette solution est surtout utilisée en MainFrame. Si elle augmente
la sécurité (sauvegarde complète sur 1 ordinateur), le serveur envoie en permanence les parties de programme
et données vers chaque station, ce qui augmente nettement le trafic réseau. Les serveurs de ce type sont en
monde PC multiprocesseurs.
Serveur d'imprimante
Il permet de partager des imprimantes connectés sur un seul PC. Certaines imprimantes réseaux peuvent être
directement connectés sur le réseau sans passer par un PC, des boîtiers spécifiques peuvent également être
utilisés. (serveurs d'impressions)
Partage de fichier. Selon le niveau de sécurité et d'administration centralisée souhaités, on peut opter soit pour
un réseau Peer To Peer (Clients.serveurs), soit pour un réseau lourd (serveur dédié – main frame).
Dans un réseau Peer To Peer, la sécurité et l'administration est quasiment nulle mais l'installation est
relativement facile et souple. De plus, il est plus facile d'effectuer une sauvegarde d'un seul ordinateur (le
serveur) que sur tous les PC connectés. Les peer to peer ne sont donc utilisés que pour un nombre restreint de
PC.
Application centrale. Dans des applications de gestion au sens large, on fait appel à un programme gérant
une (ou plusieurs) bases de données. Ces programmes nécessitent généralement un serveur lourd.
Ceci permet à plusieurs PC de travailler sur la même base de donnée en même temps à partir de PC différents
(comptabilité, gestion de fabrication, facturation et gestion de stock, ...). La sécurité se fait à deux niveaux:
accès aux dossiers et limitations des droits d'accès dans le programme lui-même.
Partage de connexion Internet. Se connecter simultanément sur Internet à partir de chaque PC via leur propre
connexion revient à terme très cher. La mise en réseau des ordinateurs permet de partager une seule
connexion (modem, ADL ou haute vitesse). Cette possibilité passe par un partage de connexion Internet sous
Win98SE et supérieur ou par l'utilisation d'un routeur ou d'un logiciel spécifique pour des utilisations plus
professionnelles.
Partage de périphériques. Utiliser une imprimante par PC permet une souplesse d'utilisation. Néanmoins,
l'utilisation simultanée d'une seule imprimante de grosse capacité peut s'avérer rentable avec l'achat d'une
imprimante plus rapide (généralement, plus l'imprimante est chère, moins chère est le prix à la page).
Construit autour de deux processeurs 2,4 GHz et de 1 Go de Ram, le serveur embarque le même chipset que
presque tous ses concurrents le GC-LE de ServerWorks.
Moins classique, la Ram embarquée, de la DDR entrelacée à deux voies, offre du Chipkill on Spare. Cette
fonction lui permet de continuer à fonctionner en cas de défaillance d'une barrette.
Les fonctions Raid sont assurées par la carte AccelRaid 352, dotée de 128 Mo de cache. Petit regret, aucun
des six slots PCI (deux 64/100 MHz, trois 32/33 MHz et un 64/66 MHz) n'est hot plug.
Deux interfaces Ethernet, une 10/100 et une Gigabit, permettent de se connecter au réseau.
Pour le stockage, le constructeur a prévu deux cages disques, de cinq unités chacune, pour un total de 730 Go.
Tous hot plug, les disques sont extractibles sur la façade avant. Les contrôleurs présents, bi-canal Ultra SCSI et
ElDE, permettent d'affecter un canal par cage disque pour optimiser les débits.
Le constructeur nous avait fourni des disques 15 000 tours. C'est un avantage indéniable en termes de
performances, mais ce n'est pas la seule raison des excellents résultats obtenus à nos tests.
Le refroidissement de la machine est assuré par des ventilateurs hot plug et redondants.
Enfin, pour l'administration à distance, la carte mère embarque un contrôleur dédié et l'outil logiciel associé.
Pour ce qui est du système, le constructeur livre un outil d'aide à l'installation et un outil d'administration,
ESMPRO, doté d'une interface graphique très explicite.
Dans le mode avec connexion, toute communication entre deux équipements suit le processus suivant:
- l'émetteur demande l'établissement d'une connexion par l'envoi d'un bloc de données spécial si le
récepteur refuse cette connexion la communication n'a pas lieu
-si la connexion est acceptée, elle est établie par mise en place d'un circuit virtuel dans le réseau
reliant l'émetteur au récepteur
- les données sont ensuite transférées d'un point à l'autre
- la connexion est libérée
Dans le mode sans connexion les blocs de données, appelés datagrammes, sont émis sans vérifier à l'avance
si l'équipement à atteindre, ainsi que les nœuds intermédiaires éventuels, sont bien actifs.
C'est alors aux équipements gérant le réseau d'acheminer le message étape par étape et en assurant
éventuellement sa temporisation jusqu'à ce que le destinataire soit actif.
Ce service ressemble à celui du courrier postal classique et suit les principes généraux suivants:
Elle consiste à créer dans le réseau un circuit particulier entre l'émetteur et le récepteur avant que ceux-ci ne
commencent à échanger des informations. Ce circuit sera propre aux deux entités communiquant et il sera
libéré lorsque l'un des deux coupera sa communication.
Par contre, si pendant un certain temps les deux entités ne s'échangent rien le circuit leur reste quand même
attribué. C'est pourquoi, un même circuit (ou portion de circuit) pourra être attribué à plusieurs communications
en même temps. Cela améliore le fonctionnement global du réseau mais pose des problèmes de gestion (files
d'attente, mémorisation,...)
la commutation de messages :
Elle consiste à envoyer un message de l'émetteur jusqu'au récepteur en passant de nœud de commutation en
nœud de commutation.
Chaque nœud attend d'avoir reçu complètement le message avant de le réexpédier au nœud suivant. Cette
technique nécessite de prévoir de grandes zones tampon dans chaque nœud du réseau, mais comme ces
zones ne sont pas illimitées il faut aussi prévoir un contrôle de flux des messages pour éviter la saturation du
réseau.
Dans cette approche il devient très difficile de transmettre de longs messages. En effet, comme un message
doit être reçu entièrement à chaque étape si la ligne a un taux d'erreur de 10-5 par bit (1 bit sur 105 est erroné)
alors un message de 100000 octets n'a qu'une probabilité de 0,0003 d'être transmis sans erreur.
la commutation de paquets :
Elle est apparue au début des années 70 pour résoudre les problèmes d'erreur de la commutation de
messages.
Un message émis est découpé en paquets et par la suite chaque paquet est commuté à travers le réseau
comme dans le cas des messages.
Les paquets sont envoyés indépendamment les uns des autres et sur une même liaison on pourra trouver les
uns derrière les autres des paquets appartenant à différents messages. Chaque nœud redirige chaque paquet
vers la bonne liaison grâce à une table de routage. La reprise sur erreur est donc ici plus simple que dans la
commutation de messages, par contre le récepteur final doit être capable de reconstituer le message émis en ré
assemblant les paquets.
Ceci nécessitera un protocole particulier car les paquets peuvent ne pas arriver dans l'ordre initial, soit parce
qu'ils ont emprunté des routes différentes, soit parce que l'un d'eux a du être ré-émis suite à une erreur de
transmission.
la commutation de cellules :
Une cellule est un paquet particulier dont la taille est toujours fixée à 53 octets (5 octets d'en-tête et 48 octets de
données). C'est la technique de base des réseaux hauts débits ATM (Asynchronous Transfert Mode) qui
opèrent en mode connecté où avant toute émission de cellules, un chemin virtuel est établi par lequel passeront
toutes les cellules. Cette technique mixe donc la commutation de circuits et la commutation de paquets de taille
fixe permettant ainsi de simplifier le travail des commutateurs pour atteindre des débits plus élevés.
On détaillera ci-après les différents codages des bits possibles, mais dans tous les cas l'émetteur envoie sur la
ligne un signal carré
Cependant, le câble sur lequel est émis le signal possède une bande passante qui est l'intervalle des
fréquences possibles sur ce support, donc à la réception on ne retrouve pas toute la richesse du signal initial et
dans la plupart des cas le signal carré sera très déformé.
La figure ci–dessous nous trouvons quelques exemple de codage de l'information pour une transmission en
bande de base.
le code NRZ (non retour à zéro): pour éviter la difficulté à obtenir un courant nul, on code le 1 par un courant
positif et le 0 par un courant négatif.
le code bipolaire : c'est aussi un code tout ou rien dans lequel le 0 est représenté par un courant nul, mais ici
le 1 est représenté par un courant alternativement positif ou négatif pour éviter de maintenir des courants
continus.
le code RZ : le 0 est codé par un courant nul et le 1 par un courant positif qui est annulé au milieu de l'intervalle
de temps prévu pour la transmission d'un bit.
le code Manchester : ici aussi le signal change au milieu de l'intervalle de temps associé à chaque bit. Pour
coder un 0 le courant sera négatif sur la première moitié de l'intervalle et positif sur la deuxième moitié, pour
coder un 1, c'est l'inverse. Autrement dit, au milieu de l'intervalle il y a une transition de bas en haut pour un 0 et
de haut en bas pour un 1.
le code Miller : on diminue le nombre de transitions en effectuant une transition (de haut en bas ou l'inverse)
au milieu de l'intervalle pour coder un 1 et en n'effectuant pas de transition pour un 0 suivi d'un 1. Une transition
est effectuée en fin d'intervalle pour un 0 suivi d'un autre 0.
CSMA/CA (Macintosh)
Carrier Sense Multiple Access /collision avoidance)
Dans cette méthode, comme dans la précédente, les stations avant d'émettre vérifient si il y a ou non un signal
sur le câble.
Si le support est libre, la station émet. Par contre aucun dispositif matériel n'est prévu pour vérifier la présence
ou l'absence de collision.
En conséquence une procédure par logiciel est prévue pour détecter d!éventuelles collisions.
La première trame émise (RTS) par la station comporte l'adresse de la station destinataire. Cette trame à pour
but:
- de bloquer l'émission des autres stations.
- d'obtenir un accusé de réception de la station destinataire.
Si l'accusé de réception est retourné (CTS) dans un temps inférieur à une valeur déterminée, c'est que
l'occupation du support est prise en compte par la station destinataire.
Si au contraire, l'accusé de réception n'est pas reçu dans un temps imparti par la station émettrice, celle ci
suppose une collision et entame une procédure de retransmission identique à celle utilisée en CSMA/CD.
Chaque station avant d'émettre vérifie que le réseau est libre ("écoute=carrier sense). A cause des temps de
propagation, il peut, cependant y avoir émission à partir de deux stations différentes au même instant Il y a alors
conflit ou collision.
La détection de collision est la capacité d'une station à détecter un changement d'énergie sur le canal et
d'interpréter ce changement comme la conséquence dune collision.
Cette détection se fait en utilisant des dispositifs matériels par comparaison du signal électrique émis par la
station et du signal reçu au même instant. Si les signaux sont identiques c'est que la transmission se fait
normalement. Si les signaux sont différents, c'est qu'une collision est en cours.
En doublant à chaque fois l'intervalle des délais d'attente possibles on augmente les chances de voir les
retransmissions s'étaler sur des durées relativement longues et donc de diminuer les risques de collision.
Cette technologie est efficace en générale mais a le défaut de ne pas garantir un délai de transmission maximal
après lequel on est sûr que la trame a été émise, donc cela ne permet pas de l'envisager pour des applications
temps réel.
Une trame comportant un bit spécial appelé jeton tourne en permanence sur
l'anneau. Les stations reçoivent et expédient tour à tour cette trame.
La trame est considérée occupée et les données sont placées dans le champ
approprié, puis la trame ayant fait un tour complet après passage dans toutes
les stations le jeton est repositionné à sa valeur de départ. La trame est alors
considérée comme vide.
Avec ce système, une seule station peut émettre à la fois, ce qui élimine tous les risques de conflit. Cette
technique est dite déterministe car on peut calculer, en tenant compte du nombre de stations, le temps qui
s'écoule entre deux accès d'une station au réseau.
Un système d'adressage des trames permet de former un anneau logique, chaque station, tour à tour, modifiant
l'adresse destination de la trame.
Cette technique d'accès est dite déterministe car on peut calculer, en tenant compte du nombre de stations et
de l'intervalle de temps alloué à chacune d'elle, le temps qui s'écoule entre 2 accès d'une même station au
réseau.
Représentant la disposition effective des fils (média), et la topologie logique, précisant la façon dont les hôtes
accèdent au média.
Topologie physique:
La topologie logique
C'est la méthode qu'utilisent les hôtes pour communiquer par le média. Les deux types de topologie logique les
plus courants sont le broadcast et le passage de jeton.
Le broadcast signifie simplement que chaque hôte envoie ses données à tous les autres hôtes sur le média du
réseau. Les stations n'ont pas à respecter un certain ordre pour utiliser le réseau ; il s'agit d'une méthode de
type " premier arrivé, premier servi ". L'Ethernet fonctionne de cette façon.
Le passage de jeton. Selon cette méthode, l'accès au réseau est contrôlé en passant un jeton électronique de
manière séquentielle à chaque hôte. Lorsqu'un hôte reçoit le jeton, cela signifie qu'il peut transmettre des
données sur le réseau. Si l'hôte n'a pas de données à transmettre, il passe le jeton à l'hôte suivant et le
processus est répété.
Topologie en bus
Le bus, un segment central où circulent les informations, s’étend sur toute la longueur du réseau, et les
machines viennent s’y accrocher. Lorsqu’une station émet des données, elles circulent sur toutes la longueur
du bus et la station destinatrice peut les récupérer. Une seule station peut émettre à la fois. En bout de bus, un
« bouchon » permet de supprimer définitivement les informations pour qu’une autre station puisse émettre.
L’avantage du bus est qu’une station en panne ne perturbe pas le reste du réseau. Elle est, de plus, très facile à
mettre en place. Par contre, en cas de rupture du bus, le réseau devient inutilisable. Notons également que le
signal n’est jamais régénéré, ce qui limite la longueur des câbles.
Cette topologie est utilisée dans les réseaux Ethernet 10 Base 2 et 10 Base 5.
Cette topologie permet d’avoir un débit proche de 90% de la bande passante. De plus, le signal qui circule est
régénéré par chaque station. Par contre, la panne d’une station rend l’ensemble du réseau inutilisable.
L’interconnexion de plusieurs anneau n’est pas facile à mettre en œuvre. Enfin, cette architecture étant la
propriété d’IBM, les prix sont élevés et la concurrence quasiment inexistante.
Cette topologie est utilisée par les réseaux Token Ring et FDDI.
Remarque: courant 2000, IBM a signalé qu'il ne suivrait plus de développement de circuits intégrés pour ce type
de bus.
Le jeton circule entre les machines à une vitesse très élevée. Si celui-ci n'arrive pas au bout d'un certain délai,
la machine considère qu'il y a eu une erreur sur le réseau.
La topologie FDDI ressemble de près à celle de token ring à la différence près qu'un ordinateur faisant partie
d'un réseau FDDI peut aussi être relié à un concentrateur MAU d'un second réseau. On parle alors de système
biconnecté.
Topologie en étoile.
C’est la topologie la plus courante, notamment avec les réseaux Ethernet RJ45. Toutes les stations sont reliées
à un unique composant central : le concentrateur.
Ce type de réseau est facile à mettre en place et à surveiller. La panne d’une station ne met pas en cause
l’ensemble du réseau. Par contre, il faut plus de câbles que pour les autres topologies, et si le concentrateur
tombe en panne, tout le réseau est anéanti. De plus, le débit pratique est moins bon que pour les autres
topologies.
Cette topologie est utilisée par les réseaux Ethernet 10 et 100 Base T et par le 100 VG AnyLAN.
Les normes de l'IEEE (dont IEEE 802.3 et IEEE 802.5) sont actuellement les normes prédominantes et les plus
connues dans le monde en matière de LAN.
La norme IEEE 802.3 définit la couche physique ou couche 1, ainsi que la portion d'accès au canal de la
couche liaison de données ou couche 2.
Les normes de l'IEEE ne concernent que les deux couches inférieures. Par conséquent, la couche liaison de
données se divise en deux parties :
- la norme LLC 802.2, non tributaire de la technologie,
- les éléments spécifiques, tributaires de la technologie, qui intègrent la connectivité de couche 1.
L'IEEE divise la couche liaison de données OSI en deux sous-couches distinctes. Elle reconnaît les sous-
couches suivantes :
- Media Access Control (MAC) (transitions vers le bas jusqu'au média).
- Contrôle de lien logique (LLC) (transitions vers le haut jusqu'à la couche réseau).
- Tout d'abord, elle définit sa propre couche, la LLC, avec son unité de données de protocole (PDU),
ses interfaces, etc.
- Ensuite, il semble que les normes 802.3 et 802.5 de couche MAC chevauchent l'interface
couche2/couche 1. Cependant, les normes 802.3 et 802.5 définissent les règles d'attribution de noms,
de verrouillage en trame et MAC sur lesquelles des technologies spécifiques ont été articulées.
Fondamentalement, le modèle OSI est une norme convenue. Les normes IEEE sont venues plus tard, pour
aider à résoudre les problèmes pouvant se présenter sur les réseaux après la construction de ces derniers.
Nous continuerons à utiliser le modèle OSI. Il convient cependant de se rappeler que les sous-couches LLC et
MAC remplissent des fonctions importantes dans la couche liaison de données de ce modèle.
Une autre différence entre le modèle OSI et les normes IEEE concerne la carte réseau.
C'est au niveau de la carte réseau que réside l'adresse MAC de couche 2. Cependant, dans de nombreuses
technologies, la carte réseau intègre également l'émetteur-récepteur (une unité de couche 1) et se connecte
directement au média physique.
Dès lors, il serait exact de dire que la carte réseau est à la fois une unité de couche 1 et de couche 2.
Cette couche assure la polyvalence des services fournis aux protocoles de couche réseau situés au-dessus
d'elle tout en communiquant efficacement avec les diverses technologies sous-jacentes.
En tant que sous-couche, LLC participe au processus d'encapsulation. L'unité de données protocole (PDU) de
LLC est parfois appelée paquet LLC. Cependant, l'utilisation de ce terme n'est pas très répandue.
La sous-couche LLC prend les données de protocole réseau, c'est-à-dire un paquet IP, et y ajoute des
informations de contrôle pour faciliter l'acheminement de ce paquet IP jusqu'à sa destination.
Cette technologie spécifique peut être une variante d'Ethernet, de la technologie Token Ring ou de FDDI (Fiber
Distributed Data Interface).
La sous-couche LLC de la couche liaison de données gère les communications entre les dispositifs sur une
seule liaison d'un réseau.
Cette sous-couche, qui est définie dans la norme IEEE 802.2, supporte aussi bien les services non orientés
connexion que les services orientés connexion qui sont utilisés par les protocoles de couche supérieure.
La norme IEEE 802.2 définit un certain nombre de champs dans les trames de couche liaison de données,
lesquels permettent à plusieurs protocoles de couche supérieure de partager une liaison de données physique.
La sous-couche MAC concerne les protocoles que doit suivre un ordinateur hôte pour accéder au média
physique.
Un système ouvert est un ordinateur, un terminal, un réseau, n'importe quel équipement respectant cette norme
et donc apte à échanger des informations avec d'autres équipements hétérogènes et issus de constructeurs
différents.
Le premier objectif de la norme OSI a été de définir un modèle de toute architecture de réseau basé sur un
découpage en sept couches, chacune de ces couches correspondant à une fonctionnalité particulière d'un
réseau.
Couche 4 : Transport: Établissement et maintenance d'une liaison virtuelle entre deux ordinateurs (end-to-
end), mise à disposition d'un mécanisme de transmission indépendant d'un réseau particulier, attribution d'une
adresse à l'interlocuteur.
Couche 3 : Réseau: Choix et contrôle du réseau destiné à la transmission, choix des trajets (routage)
médiation, mise en relation de plusieurs réseaux, multiplexage des accès physiques au réseau.
Couche 2 : Liaison: Assure un transfert fiable sur une liaison physique, l'assemblage des données en blocs, la
synchronisation des blocs, la détection et correction des erreurs de transfert.
Couche 1 : Physique: Assure la transmission transparente de séquences de bits sur un média physique de
caractéristiques mécaniques, électriques, fonctionnelles et procédurales bien définies, sans traitement explicite
d'erreurs.
Chaque couche d'une machine gère la communication avec la même couche d'une autre machine en suivant
un protocole adapté à cette couche qui est un ensemble de règles de communication pour ce service.
En fait, aucune donnée n'est transférée directement, mais elle l'est par étapes successives.
Ce message, généré par une application de la machine A va franchir les couches successives de A via les
interfaces qui existent entre chaque couche pour finalement atteindre le support physique.
Là, il va transiter via différents nœuds du réseau, chacun de ces nœuds traitant le message via ses couches
basses.
Puis, quand il arrive à destination, le message remonte les couches du récepteur B via les différentes interfaces
et atteint l'application chargée de traiter le message reçu.
Si un ordinateur (hôte A) veut envoyer des données à un autre ordinateur (hôte B), les données doivent d'abord
être préparées grâce à un processus appelé encapsulation.
Ce processus conditionne les données en leur ajoutant des informations relatives au protocole avant de les
transmettre sur le réseau.
Les données qui sont envoyées par l'ordinateur source traversent la couche application et les autres couches.
Comme vous pouvez le constater, la présentation et le flux des données échangées subissent des
changements au fur et à mesure que les réseaux fournissent leurs services aux utilisateurs.
3. Ajout de l'adresse
réseau à l'en-tête.
Les données sont organisées
en paquets (datagrammes),
contenant un en-tête réseau
constitué des adresses
logiques d'origine et de
destination. Ces adresses
aident les unités réseau à
acheminer les paquets dans
le réseau suivant un chemin
déterminé.
4. Ajout de l'adresse
locale à l'en-tête de
liaison.
Chaque unité réseau doit
placer le paquet dans une
trame. La trame permet
d'établir la connexion avec la
prochaine unité réseau
directement connectée dans la liaison. Chaque unité se trouvant sur le chemin réseau choisi doit effectuer un
verrouillage de trame pour pouvoir se connecter à la prochaine unité.
Trame ETHERNET :
- La taille de la trame la plus petite est de 64 octets et celle de la plus grande est de 1518 octets (hors
préambule)
- Chaque trame ETHERNET est précédée d'un préambule de 8 octets qui sert à synchroniser les nœuds
récepteurs.
- Le champ Adresse destination permet d'envoyer la trame à un, plusieurs ou tous les nœuds, suivant son
contenu. Selon la valeur du premier bit de l'adresse, on parle d'adresse unicast (physique) ou d'adresse
Multicast.
- Si l'adresse est unicast (physique) elle peut comporter jusqu'à 47 bits d'où la possibilité d'adresser jusqu'à 2 47
stations, y compris sur des réseaux distants.
- si l'adresse est Multicast, le message concerne un groupe de nœuds (Bit multicast à 1) , ou tous les nœuds
(broadcast) dans ce dernier cas tous les bits de l'adresse sont à 1.
- Le champ Adresse source identifie le nœud émetteur
- Le champ Type varie suivant le constructeur du réseau
- Le champ Data contient de 46 à 1500 octets d'informations
- Le champ FCS ou CRC (séquence de contrôle de trame) contient les 4 octets résultants d'un contrôle
polynomial.
- Un temps minimum de 9,6 uS s'écoule entre 2 trames.
Couche application
Couche application Couche Présentation
Couche session
TCP / UDP Couche Transport Couche transport
IP / ARP /ICMP / RARP / IGMP Couche Internet (IP) Couche réseau
Couche Liaison de donnée
Couche Accès réseau
Couche Physique
A chaque niveau, le paquet de données change d'aspect, car on lui ajoute un en-tête, ainsi les appellations
changent suivant les couches:
- Le paquet de données est appelé message au niveau de la couche application
- Le message est ensuite encapsulé sous forme de segment dans la couche transport. Le message
est donc découpé en morceau avant envoi.
- Le segment une fois encapsulé dans la couche Internet prend le nom de datagramme
- Enfin, on parle de trame au niveau de la couche accès réseau
Les couches TCP/IP sont plus générales que dans le modèle OSI
Couche transport
Elle assure l'acheminement des données et les mécanismes permettant de connaître l'état de la transmission
Les protocoles des couches suivantes permettent d'envoyer des informations d'une machine à une autre. La
couche transport permet d'identifier les applications qui communiquent. Pour faciliter la communication, on a
définit non pas des noms d'applications, mais des ports de communication (numéro variant de 0 à 65535, 216)
spécifiques à chaque application.
La couche transport gère 2 protocoles de livraison des informations, indépendamment du type de réseau
emprunté:
TCP assure le contrôle des données, orienté connexion (vérifie les envois de données par des signaux
d'accusés de réception -acknowledge - du destinataire), il assure ainsi le contrôle des données
UDP, non orienté connexion, n'assure aucun contrôle de transmission des données.
Ces 2 types (orienté connexion ou non) sont une notion utilisée pour les firewall.
- En effet, lorsque vous fermé un port en TCP, l'envoi d'un message ne renvoie pas de signal de
retour (acknowledge), faisant croire que l'adresse IP n'est pas utilisée.
- Par contre, en UDP, le port fermé ne renvoyant pas d'informations fait croire que l'adresse IP est
utilisée. En effet, l'UDP renvoie un message uniquement si le port est en erreur (ne répond pas)
La couche Internet contient 5 protocoles (les 3 premiers sont les plus importants):
2. Le protocole ARP (Adresse Resolution Protocol): gère les adresses des cartes réseaux. Chaque carte a sa
propre adresse d'identification codée sur 48 bits.
3. Le protocole ICMP (Internet Control Message Protocol) gère les informations relatives aux erreurs de
transmission. ICMP ne corrige pas les erreurs, mais signale aux autres couches que le message contient des
erreurs.
4. Le protocole RARP (Reverse Address Resolution Protocol) gère l'adresse IP pour les équipements qui ne
peuvent s'en procurer une par lecture d'information dans un fichier de configuration. En effet, lorsqu'un PC
démarre, la configuration réseau lit l'adresse IP qu'elle va utiliser. Ceci n'est pas possible dans certains
équipements qui ne possèdent pas de disques durs (terminaux essentiellement)
5. Le protocole IGMP (Internet Group Management Protocol) permet d'envoyer le même message à des
machine faisant partie d'un groupe. Ce protocole permet également à ces machines de s'abonner ou de se
désabonner d'un groupe. Ceci est utilisé par exemple dans la vidéo conférence à plusieurs machines, envoi de
vidéos,
Ici, on s'occupe donc de transmission des bits de façon brute, l'important est que l'on soit sûr que si l'émetteur
envoie un bit à 1 alors le récepteur reçoit un bit à 1. Les normes et standards de la couche physique définissent
le type de signaux émis (modulation, puissance, portée...), la nature et les caractéristiques des supports (câble,
fibre optique...), les sens de transmission...
La conception de la couche physique peut-être réellement considérée comme faisant partie du domaine de
l'ingénieur électronicien.
Elle a été inventée par Xerox au début des années 70 et normalisée par l'IEEE (Institute for Electrical and
Electronics Engineers) vers 1980 sous la norme IEEE 802.
Ce cœur est dans une gaine isolante elle-même entourée par une tresse de cuivre, le
tout est recouvert d'une gaine isolante.
Certains coaxiaux «large bande» peuvent atteindre un débit maximal de 150 Mhz mais
son encombrement est nettement supérieur à celui de la paire torsadée et ses
performances n'atteignant pas celle de la fibre optique il a tendance à disparaître des nouveaux plans de
câblage.
On le rencontre en version:
- 10 Base2 (ou Ethernet fin 10 Mbit/s sur 200 m maximum) - Couleur noire diamètre 4,4 mm (Câble
RG48)
- 10 Base5 (ou Ethernet épais 10 Mbit/s sur 500 m maximum) pour la réalisation de réseaux locaux à
topologie en bus – couleur jaune diamètre 9,5 mm ((Câble RG11)
Les connexions de chaque poste sur le bus se font à l'aide de connecteur en T et la connexion du câble sur le
poste se fait à l'aide de connecteur AUI pour l'Ethernet épais et BNC pour l'Ethernet fin.
Chaque station est équipée d'une interface réseau " Ethernet " (NIC, Network Interface Card) généralement
appelée carte transporteur ou carte " Ethernet ". Cet équipement assure l'adaptation physique et gère
l'algorithme CSMA/CD.
Comme dans toutes les connexions coaxiales, les 2 extrémités du câble sont raccordées à un bouchon (on
l'appelle également résistance de terminaison), une résistance spécifique qui atténue les réverbérations du
signal sur le câble.
Le drop câble est constitué de paires torsadées et peut avoir une longueur maximale de 50 mètres.
Le câble coaxial est un câble épais de couleur jaune d'un demi-pouce de diamètre de type BELDEN 9580. La
longueur totale du réseau peut atteindre 2,5 kilomètres (si réseau tout en coaxial) avec 100 points de
connexion.
3 segments de coaxial - 2 segments de liaison- 4 répéteurs
Le transceiver est capable de détecter si des signaux numériques transitent sur le câble et de les traduire en
signaux numériques à destination de l'ordinateur, et inversement.
Seuls des transceivers sans test SQE (Signal qualité error) doivent être utilisés avec des répéteurs.
(Le signal SQE ou hearbeat est envoyé par le transceiver vers le contrôleur à chaque fin de trame pour vérifier
le fonctionnement du transceiver. Ce signal ne doit être activé que si le transceiver est relié à un contrôleur.)
Cette version d'Ethernet n'est pratiquement plus utilisée que dans les environnements compromis
(rayonnement électromagnétique) ou lorsque l'on veut garantir la confidentialité des échanges (pas de
rayonnement du câble coaxial).
Segment de liaison
Aussi appelé IRL (Inter Repeater Link)
- FOIRL pour la Fibre Optique
- Liaison point à point (entre 2 segments Ethemet)
- Pas de station sur ce segment
Délai de propagation de la trame < 25,64 bit times
- Un répéteur à chaque extrémité
- Si utilise du coaxial : longueur < 500 m
Transceiver
Appelé MAU: Medium Attachment Unit : Il Permet de raccorder:
Longueur de câble 50 mètres maxi
une station par un "drop" câble au segment coaxial
un répéteur Alimentation électrique par la station
- Vampire (sur un segment coaxial)
Boîtier avec 2 pointes qui percent le câble
1 qui va jusqu'à l'âme (véhicule les données)
1 qui va Jusqu'à la protection référence
- Avantage:
pose sans couper le câble
pose sans interrompre la trafic
- Fonctions du transceiver
Transmettre et recevoir des bits
Détecter les collisions
Moniteur (optionnelle)
Jabber
- 2 modes de fonctionnement
Normal:: reçoit et transmet tous les bits
Moniteur (ou isolé) :
Pour tests ou pour Isoler une station
Ne transmet pas les bits venant du coupleur
reçoit les bits venant du câble
Détecte les collisions
- Jabber fonction
- d'une longueur de segment de 185 m maximum et terminé à chaque extrémité par une résistance de 50 ohms.
- Un maximum de 2 liaisons inter- répéteurs est permis entres les équipements. La longueur totale du câble
coaxial ne doit pas dépasser 925 m
- Seuls des transceivers sans test SQE (Signal qualité error) doivent être utilisés avec des répéteurs.
- Le transceiver et le câble AUI ne sont plus utiles car l'ordinateur est relié directement au câble par
l'intermédiaire d'une prise BNC en T intégrée à la carte Ethernet de l'ordinateur.
1. Eléments de base
Votre prise est prête à l'emploi, mais n'oubliez pas qu'il y a deux côtés dans un câble et que la longueur d'un
segment est limitée à 185 mètres
Cette technologie autorisent, sur de courtes distances, des débits de l'ordre de 10 Mbit/s voire 100 Mbit/s. On la
rencontre très souvent comme support des réseaux 10 Base T, chaque extrémité d'un tel câble étant muni
d'une prise RJ45.
Son intérêt principal est que cette même paire torsadée peut servir au réseau téléphonique, au réseau
informatique et vidéo d'une même entreprise et de plus elle pourra être utilisée ultérieurement pour évoluer vers
des réseaux 100 Base T et même «Gigabits».
Cette architecture (802.3 1 base 5 ou Starlan) complètement obsolète a évolué vers une version 10MBps
(802.3 10 base T). La figure suivante présente le réseau 10 base T.
Le 100 Base TX (le plus répandu) utilise les mêmes 2 paires que le 10 Base T.
Par contre, le 100 Base T4 utilise les 4 paires. Néanmoins, le 100 base T4 (obsolète) utilise 3 paires
simultanément pour l'émission et la réception. Ce mode ne peut donc pas utiliser le Full Duplex. Il peut être
utilisé sur du câble de catégorie 3, 4 ou 5.
En 100 base TX, le câblage est le même que en Ethernet base 10, seul le câble doit être de meilleure qualité
(catégorie 5) et les 4 autres fils doivent être connectés suivant les couleurs ci-dessous. Attention que chaque
"câbleur" utilise souvent son propre code de couleurs. Les câbles croisés utilisent les deux mêmes croisements
qu'en 10 base T.
Pour rappel, le passage d'un courant électrique dans un fils produit un champs électromagnétique dans son
entourage et de ce fait induit un courant dans les fils électriques proches.
Inversons T(-) Le signal et le parasite sont inversés. En additionnant T(+) et T(-) inversé, le signal double mais
le parasite est supprimé.
Le type de câble utilisé détermine la vitesse maximale de transmission des données, ainsi que le standard de
connexion des réseaux.
Dans le cas de la paire torsadée, on utilise du câble type téléphonique. Néanmoins, ces câbles sont repris
suivant leurs caractéristiques physiques (diamètre, isolant, longueur des torsades) dans différentes catégories
ci-dessous:
Le gigabit utilise le même format de trames de données que le 10 Base T et le 100 Base TX et le même
protocole anticollision, à savoir le CSMA-CD
Les premières cartes base 10 de 3Com utilisaient uniquement les connecteurs coaxial et un connecteur AUI.
Actuellement, les cartes 10 MB utilisent deux connecteurs: coaxial et RJ45. Par contre, les cartes base 100
n'utilisent que le RJ45.
Dès lors, l'utilisation d'un réseau en coaxial oblige l'utilisation d'une carte base 10. Comme l'utilisation d'un
câblage RJ45 nécessite l'utilisation d'un concentrateur, celui-ci et les cartes reliées doivent utiliser les mêmes
réglages par défauts.
Les cartes réseaux sont de plus caractérisées par le bus système utilisé: ISA et PCI. Comme toutes cartes PC,
elles sont caractérisées par une adresse et une interruption.
Certaines cartes incluent un socket permettant d'insérer une Eprom pour démarrer le PC via le réseau.
La première, généralement en vert signale que la carte est reliée sur un concentrateur via un câble. La
deuxième, généralement orange parfois verte également, signale la transmission / réception de données.
Les cartes réseau actuelles permettent de commuter sur chaque vitesse Ethernet automatiquement.
Le câblage sur paires torsadées des 1000 C et 1000 TX est identique à celui du 100 Base T4, y compris pour
les câbles Ethernet RJ45 croisés.
Les connecteurs ISA (Industry Standard Architecture) font environ 14cm de long.
Les connecteurs PCI 32 bits (Peripheral Component Interconnect) sont utilisés dans tous les PC Pentium de
bureau. Ils fournissent une performance bien supérieure aux connecteurs ISA.
La vitesse de votre concentrateur, commutateur, ou serveur d'impression - Ethernet (10Mbps) ou Fast Ethernet
(100Mbps).
Le type de connexion dont vous avez besoin - RJ-45 pour les câbles à paire torsadée ou BNC pour les câbles
coaxiaux.
Si vous disposez d'un port USB , vous préférerez peut-être utiliser une interface réseau USB.
- broadcast dans le cas d'une adresse de diffusion générale (tous les bits à 1) qui permet d'envoyer
une trame à toutes les stations du réseau :Adresse FF.FF.FF.FF.FF.FF
- multicast dans le cas d'une adresse multi-destinataire qui permet d'adresser une même trame à un
ensemble de stations qui ont convenu de faire partie du groupe que représente cette adresse
multipoint.
On voit donc qu'un coupleur doit être capable de reconnaître sa propre adresse physique, l'adresse de
multicast, et toute adresse de groupe dont il fait partie.
CISCO = 00 60 2F
L'Eprom contient une adresse physique unique ETHERNET codée sur 6 octets. Les 3 premiers représentent le
constructeurs les 3 suivantes un numéro de série chez ce constructeur.
Dans le cas de DEC, les 3 derniers ne sont pas figés en Eprom, mais sont le résultat d'un calcul effectué à
partir du numéro affecté par l'administrateur de la station
Il existe un protocole ARP (Address Resolution Protocol) qui permet de connaître l'adresse IP d'une station
d'adresse Ethernet donnée. (MAC)
Le protocole inverse RARP (Reverse Address Resolution Protocol ) permet de connaître l'adresse Ethernet
(MAC) d'une station d'adresse IP donnée.
Les adresses MAC sont utilisées par exemple pour s'identifier auprès d'un serveur d'adresses IP dynamique
(protocole DHCP).
Le protocole Ethernet utilise cette adresse MAC pour faire communiquer des équipement entres eux via un
réseau. Quand une machine veut parler à une autre, elle envoie un paquet sur le réseau, contenant l'adresse
MAC destination, l'adresse MAC source, la longueur du packet, les données et le CRC (Cycle Redundancy
Checking), un contrôle d'erreur..
Par contre les cartes Full Duplex (et les concentrateurs associés) peuvent émettre et recevoir en même temps
sur des canaux (câbles) différents.
L'utilisation d'une carte et d'un concentrateur (hub ou switch) associé permet de doubler le taux de transfert sur
le réseau Ethernet. Par exemple, une carte 100 base TX va autorisé un taux de transfert de 200 Mbps pour 100
dans le cas half duplex.
Dans certains cas, il est nécessaire de ralentir le réseau (passer en 100 Half mode ou même en cas de
perturbations réseau d'obliger la carte 100 Base TX à travailler en 10 base T). Le paramétrage se fait dans les
paramètres réseaux en utilisant les propriétés de la carte réseau. Voici par exemple le cas d'une carte à base
du circuit Realtec RTL8139D (10base T et 100 base TX automatique).
La norme TIA/EIA-568-A précise que la configuration physique (topologie), utilisée dans le cas du câblage
horizontal doit être une topologie en étoile. Cela signifie que le raccordement mécanique de chaque connecteur
ou prise murale se situe au niveau du tableau de connexions dans le local technique. Chaque prise est câblée
indépendamment et directement au tableau de connexions.
La norme TIA/EIA-568-A indique que la longueur maximale du câblage horizontal pour du câble UTP est de 90
m. La longueur maximale des câbles de raccordement au niveau du connecteur ou de la prise murale est de 3
m. Enfin, la longueur maximale des câbles de raccordement/cavaliers au niveau de l'interconnexion horizontale
est de 6 m.
La longueur maximale d'un parcours de câble horizontal, qui s'étend du concentrateur à n'importe quelle station
de travail, est de 100 m (il s'agit, en réalité, de 99 m mais la valeur est arrondie à 100 m). Cette longueur
comprend les 90 mètres de câblage horizontal, les trois mètres de câbles de raccordement et les six mètres
pour les cavaliers au niveau de l'interconnexion horizontale. Les parcours de câbles horizontaux dans une
topologie en étoile s'étendent à partir du concentrateur, comme les rayons d'une roue. Cela signifie que le LAN
qui utilise cette topologie peut couvrir une superficie équivalente à celle d'un cercle dont le rayon est de 100 m.
Pour se faire il amplifie et régénère le signal électrique. Il est également capable d'isoler un tronçon défaillant
(Câble ouvert par exemple) et d'adapter deux médias Ethernet différents. (Par exemple 10base2 vers 10baseT).
Cette dernière utilisation qui est la principale actuellement.
Pour les liaisons 1000Base LX (fibre optique) mono-mode, il existe des appareils permettant des liaisons de
plus de 100 kilomètres.
Il travaille sur la couche 1 du modèle OSI et n'opère aucune modification du contenu des paquets. Étant donné
que les répéteurs n'examinent pas le contenu des paquets, ils propagent les collisions d'un segment à l'autre
Un répéteur opère de manière physique uniquement, donc au niveau de la couche 1 du modèle OSI. Il se
contente de retransmettre et d'amplifier tous les signaux qu'il reçoit, sans aucun autre traitement.
- Faire passer tous les signaux (pas uniquement les bits corrects) émis sur un segment sur l'autre
- Délai de propagation environ < 7,5 bit times
- Régénérer électroniquement le signal
- Réformer le Préambule de 56 bits (si nécessaire)
- Ajouter du padding si la trame est < 12 octets
- Si collision sur un segment génère la "Jam" (32 bits) sur les 2 segments
- Fonction Jabber (trames trop longues tronquées)
- Fonction SQE test
désavantages:
- Ne diminue pas la charge
- Ne filtre pas les collisions
L'Hub est le concentrateur le plus simple. Ce n'est pratiquement qu'un répéteur (c'est son nom en Français). Il
amplifie le signal pour pouvoir le renvoyer vers tous PC connectés.
Toutes les informations arrivant sur l'appareil sont donc renvoyées sur toutes les lignes.
Dans le cas de réseaux importants par le nombre de PC connectés ou par l'importance du flux d'informations
transférées, on ne peut utiliser des HUBS.
En effet, dès qu'un PC dit quelque chose, tout le monde l'entend et quand chacun commence à transmettre, les
vitesses diminuent directement. Les HUBS sont caractérisés par un nombre de connexion: 4, 5, 8, 10, 16, 24, ...
Suivant la version, ils intègrent quelques particularités de connexion spécifiques à l'appareil.
Hubs base 10: nombre de connexion suivant le modèle, port inverseur (celui-ci permet de connecter deux Hubs
entre-eux, évitant l'utilisation d'un câble RJ45 croisé), une connexion coaxial. Par connexion, on retrouve une
led signalant la connexion à une carte et une led de collision par canal ou pour l'ensemble. Cette dernière
signale l'état de l'ensemble des connexions.
Hubs base 100: nombre de connexion suivant le modèle, port inverseur (celui-ci permet de connecter deux
Hubs entre-eux), pas de connexion coaxial. Par connexion, on retrouve une LED signalant la connexion à une
carte et une led de collision par canal ou pour l'ensemble. Cette dernière signale l'état de l'ensemble des
connexions. De plus, pour les versions 10/100, on retrouve deux LED pour chaque canal (base 10 et base 100)
Le pont appartient à la couche 2 du modèle OSI car il va filtrer les trames du réseau en fonction de leur origine
et destination (adresses MAC), mais il ne se préoccupe pas du logiciel réseau de niveau supérieur (TCP/IP,
DECNet, IPX, ...).
Buts:
- Augmenter la distance maximum entre 2 stations Ethemet
- Diminuer la charge des réseaux
- Filtrage au niveau 2
Avantages
Débit 10 Mb/s
filtre les trames inutiles et les collisions
pas de limite de distance
peu d'administration
désavantages
Ne filtre pas les adresses broadcast ou multicast.
Cependant, chacun de ses ports est habituellement relié à un segment contenant un nombre restreint
d'ordinateurs, voire à un seul s'il s'agit par exemple d'un serveur très sollicité.
Table de commutation
En recevant une information, il décode l'entête pour connaître le destinataire et ne l'envoie que vers celui-ci
Dans le cas d'une liaison PC vers PC.. Ceci réduit le trafic sur le réseau complet.
Ils travaillent donc sur le niveau 1 et 2 du modèle OSI, pour seulement la couche 1 dans le cas du HUBS.
Les switchs remplacent de plus en plus les HUBS. Les prix deviennent pratiquement équivalents.
HUB SWITCH
Les informations envoyées d'un PC vers un autre (ou Les informations envoyées d'un PC vers un autre ne
une imprimante) sont envoyés à tous les PC qui transitent que vers le destinataire. Si un autre PC
décodent les informations pour savoir si elles sont envoie des informations vers l'imprimante, les deux
destinées. communications peuvent donc se faire simultanément.
La différence entre un hub et un Switch ne rentre généralement pas en compte (sauf Full duplex pour certains
switch et collisions) dans la connexion d'une application "clients - serveur".
Comme toutes les communications sont dirigées vers un seul ordinateur (le serveur), l'utilisation est identique.
Dans le cas d'un switch placé en tête de réseau (sur le serveur), l'utilisation de HUB pour les noeuds suivants
rend transparent pour les switch les adresses des PC, les HUB laissant tout directement passer.
Par contre, connecter des switch en cascade peut poser quelques problèmes de ralentissement suivant le type
de switch utilisé.
Tous les Switch ne sont pas équivalents. La technologie est étroitement liée au type de donnée, à la
topologie du réseau et aux performances désirées.
Le premier procédé, appelé Store and Forward, stocke toutes les trames avant de les envoyer sur le port
adéquat. Avant de stocker l'information, le switch exécute diverses opérations, allant de la détection d'erreur ou
construction de la table d'adresses jusqu'aux fonctions applicables au niveau 3 du modèle OSI, tel que le
filtrage au sein d'un protocole.
Ce mode convient bien au mode client/serveur car il ne propage pas d'erreur et accepte le mélange de divers
médias de liaison. Ceci explique qu'on les utilise dans les environnements mixtes cuivre / fibre ou encore dans
le mélange de débits.
Le mode Cut Through analyse l'adresse Mac de destination (placée en en-tête de chaque trame, codée sur 48
bits et spécifique à chaque carte réseau) puis redirige le flot de données sans aucune vérification. Dans le
principe, l'adresse source est préalablement stockée dans une table avant que le commutateur ne prenne la
décision de transférer la trame vers un autre port.
Les trames dont l'adresse de destination est connue par le switch sont renvoyées directement.
Par contre, si le switch ne connaît pas dans sa table la destination, il l'envoie vers tous les ports pour trouver
l'adresse correcte.
Le mode Cut Through Runt Free est dérivé du Cut Through. Lorsqu'une collision se produit sur le réseau, une
trame incomplète (moins de 64 octets) appelée Runt est réceptionnée par le switch. Dans ce mode, le switch
analyse les 64 premiers bits de trames avant de les envoyer au destinataire. Si la trame est assez longue, elle
est envoyée. Dans le cas contraire, elle est ignorée.
Le mode Early Cut Through est également dérivé du Cut Through. Ce système transmet directement les
trames dont l'adresse de destination est détectée et présente dans la table d'adresse du switch. Pour celà, la
table doit être parfaitement à jour, ce qui est difficile dans le cas de gros réseaux. Par contre, il n'enverra pas
les trames dont l'adresse de destination n'est pas clairement identifiée. Il ne tient pas compte non plus de
l'adresse d'origine. Les temps d'attente sont très bas.
Le mode Adaptive Cut Through se distingue surtout au niveau de la correction des erreurs. Ces
commutateurs gardent la trace des trames comportant des erreurs. Lorsque le nombre d'erreur dépasse un
certain seuil, le commutateur passe automatiquement en mode Store and Forward. Ce mécanisme évite la
propagation des erreurs sur le réseau en isolant certains segments du réseau. Lorsque le taux d'erreur
redevient normal, le commutateur revient au mode Cut Through.
- Certains switch de type Cut Through intègrent des fonctions supplémentaires comme le Meshing qui
permet de créer une table sur plusieurs switch (et de ne plus envoyer les informations sur tous les
ports quand l'appareil de destination n'est pas directement connecté) sur le switch. Le Port Trunking
permet de réserver un certain nombre de ports pour des liaisons entre 2 commutateurs.
- Les Switch (et quelques fois les HUBs) peuvent être stackables (empilables). Dans ce cas, un
connecteur spécial permet de relier plusieurs switch de même marque entre-eux. L'ensemble des
switch est vu comme un seul switch.
- Certains switch sont manageables, on dit qu'ils sont de niveau 3 sur le modèle OSI. Par une
interface de type WEB, vous pouvez bloquer certains lignes, empêchant par exemple, un partie de PC
de se connecter vers un autre bloc de PC ou de déterminer physiquement quel PC a accès à quel
serveur.
- Les nouveaux switch incluent généralement la technique Auto - MDI. Cette technologie détecte
automatiquement les cartes réseaux et les concentrateurs. Ceci permet de ne plus utiliser de câbles croisés.
Avantages:
- Très bon filtre:
Ne laisse pas passer les trames Inutiles, les collisions, les broadcasts, les multicasts
Possibilité de gérer des tables de filtrage au niveau 3
- Sépare proprement 2 administrations (deux entités)
- Une erreur au nIveau d'Etherrnet d'un coté n'affecte pas l'autre coté
- Equipement connu par les protocoles de niveau 3
- Performances
Désavantages
- Coût
- Configuration pas toujours aisée
B-Routeur
- Routeur multi-protocoles
- Fonction de pont
- pour les protocoles non routable: LAT, TOKEN RING
- pour ce qu'il ne sait pas router
- Langage de commandes
- Matériels connus:
- CISCO, BAY Networks, NSC, XYPLEX SPIDER, ACC...
- Peut filtrer aussi sur les adresses IP, ports TCP,...
- Ils répondent à tous les besoins, mais il faut savoir les configurer
Vous avez également la possibilité d'utiliser une Interface de réseau USB pour connecter un PC fonctionnant
sous Windows 98 à un réseau.
Lire avec soin les instructions qui accompagnent votre carte, car
les emplacements PCMCIA et les connexions varient.
Etablir toutes les connexions nécessaires en se référant au manuel de la carte réseau. Evitez de toucher
aux composants du PC et de la carte réseau car ceux-ci peuvent être endommagés très facilement. S'il y
a plus d'un logement du type approprié, insérez la carte réseau dans n'importe lequel de ces logements.
Le nom de l'Ordinateur
C'est le nom par lequel le PC sera identifié sur le réseau. Ce peut être un nom quelconque (comme par
exemple "le PC de Max") mais il doit être différent des noms de tous les autres PC et portables du réseau. Nous
recommandons de tenir un registre de tous les noms du réseau.
Windows 98
présumera que les noms de l'ordinateur et du groupe de travail sont ceux qui ont été entrés lors de l'installation
de Windows 98.
Pour vérifier les noms de l'Ordinateur et du Groupe de travail sous Windows 98,
choisissez Paramètres puis panneau de configuration.
Lorsque le processus de configuration est terminé, redémarrez le PC et Windows lorsqu'on vous le demandera,
Si vous avez déjà ouvert une session sur ce PC, entrez votre Nom d'utilisateur et votre Mot de passe comme
d'habitude.
Sélectionnez Oui pour valider l'option de recherche de nouveau matériel, puis cliquez sur Suivant>.
Un message s'affiche indiquant que le processus de recherche risque de prendre du temps. Cliquer sur Suivant.
L'Assistant Ajout de périphérique essaie de détecter la carte réseau. Selon la vitesse de votre PC, cette
procédure risque de prendre quelques minutes.
Dans les boîtes de liste, sélectionner le fabricant et le modèle de la carte réseau installée.
Si l'icône est absente, c'est que la carte réseau n'est pas installée correctement.
Si l'icône est là, le PC a bien détecté l'installation physique de votre carte réseau. Il se peut que vous deviez
vérifier la configuration logicielle de votre carte réseau si vous avez des problèmes plus tard.
Il vous faut maintenant configurer le PC afin qu'il puisse être reconnu par le réseau.
L'objet Cartes réseau devrait s'agrandir pour indiquer le nom de la carte réseau qui a été installée:
Remarque : la section suivante ne vous concerne que si vous avez un réseau avec certains PC fonctionnant
sous Windows 95 et certains PC fonctionnant sous Windows 98.
Par défaut, Windows 95 et Windows 98 installent différents protocoles de réseau. Windows 95 installe NetBEUI
par défaut, et Windows 98 installe TCP/IP par défaut.
Si des protocoles de réseau différents sont utilisés, les PC Windows 95 et les PC Windows 98 ne pourront
communiquer. Nous vous suggérons de configurer vos PC
Windows 95 pour qu'ils utilisent le protocole TCP/IP.
Dans la boîte de dialogue Partage de fichiers et d'imprimantes, sélectionner les deux cases à cocher et cliquer
sur OK.
Dans l'avenir, lorsque vous mettrez votre PC sous tension et que vous démarrerez Windows 95 ou Windows 98,
il vous sera demandé d'ouvrir une session.
Vous devez entrer votre Nom d'utilisateur dans le champ Nom d'utilisateur (et spécifier un mot de passe s'il en a
été utilisé un auparavant), puis cliquer sur OK pour ouvrir une session sur le réseau.
Pour définir un mot de passe (s'il n'en existe pas déjà un) tapez simplement le mot de passe désiré dans le
champ Mot de passe. Lorsque vous cliquez sur OK, Windows 95 ou Windows 98 vous demande de confirmer le
mot de passe. Saisir à nouveau le mot de passe et cliquer sur OK.
Double-cliquer sur l'icône Poste de travail pour localiser le dossier ou le lecteur à partager.
Une fois le dossier ou lecteur à partager localisé, faire un clic droit sur celui-ci (avec le bouton droit de la souris)
et sélectionner Partager.
Remarque : si l'option Partage n'est pas présente, soit vous essayez de partager un fichier (seuls les dossiers
et les lecteurs peuvent être partagés), soit vous devez configurer votre PC ou votre portable pour le partage.
Sélectionner le type d'accès au dossier ou au lecteur. Cela définit le type d'accès des PC et portables autorisés
à accéder au dossier ou au lecteur. Les options d'accès sont:
- Accès complet- les utilisateurs ont un accès lecture/écriture au dossier et au lecteur. Pour restreindre
l'accès, saisir un mot de passe dans le champ Mot de passe au-dessous.
- Lecture uniquement - les utilisateurs ont un accès lecture au dossier, mais ne peuvent pas modifier son
contenu. Pour restreindre l'accès Lecture seule, saisir un mot de passe.
- Accès selon le mot de passe, si l'accès au dossier ou au lecteur est soit Accès complet, soit Lecture
seule, selon le mot de passe utilisé. Il vous faut spécifier un mot de passe Accès complet et un autre mot
de passe différent Lecture seule, pour spécifier ce mode d'accès.
Remarque : Un dossier partagé donnera accès à tous ses sous-dossiers et à tout son contenu.
Si vous désirez que les utilisateurs aient un accès complet lecture/écriture au dossier ou au lecteur, spécifier
Accès complet et laisser le champ du mot de passe en blanc.
Si vous désirez que certains utilisateurs n'est qu'un accès lecture au dossier ou au lecteur, spécifiez Accès en
lecture uniquement et entrez un mot de passe. Ce mot de passe est alors utilisé sur les PC et portables des
usagers sélectionnés.
Pour accéder à un dossier ou une imprimante partagé sur le réseau à partir d'un autre PC ou portable, suivre la
procédure suivante:
Sur le PC ou portable d'accès au lecteur ou au dossier, double-cliquer sur l'icône Voisinage réseau .
Pour localiser le dossier ou lecteur, double-cliquer sur l'icône du PC ou portable qui contient le dossier ou
lecteur partagé.
Double-cliquer sur le dossier ou lecteur et saisir un mot de passe, si nécessaire. C'est le mot de passe défini sur
le PC ou portable lors de la spécification du dossier ou du lecteur à partager.
Dans la fenêtre Voisinage réseau, faire un clic droit sur le dossier ou lecteur et sélectionner Connecter un
lecteur en réseau. Ne connecter le lecteur en réseau qu'au lecteur ou dossier partagé principal, et non à l'un de
ses sous dossiers.
Pour bloquer le partage d'un dossier ou d'un lecteur partagé, suivre la procédure suivante:
Double-cliquer sur l'icône Poste de travail pou l'explorateur et localiser le dossier ou lecteur.
Lorsque vous avez localisé le dossier ou le lecteur, cliquez dessus avec le bouton droit de la souris et
sélectionnez Partage.
1.1 Cette sous section explique comment ajouter une imprimante locale et comment y accéder. Une imprimante
locale est une imprimante reliée directement à l'un des PC du réseau, par opposition à une imprimante de
réseau qui elle est reliée via un serveur d'impression.
- L'imprimante, un cordon d'alimentation, un câble de connexion (pour connecter l'imprimante au PC), et les CD,
disquettes et manuels livrés avec l'imprimante.
Allumer l'imprimante, la charger de papier et vérifier qu'elle est prête à imprimer (cartouche de toner, etc.).
L'imprimante peut être détectée de manière automatique, auquel cas un écran de configuration s'affiche
pour vous permettre de la configurer.
Si l'imprimante est détectée, la configurer en suivant les instructions données dans le manuel de l'imprimante.
Imprimez une page d'essai Windows pour tester la configuration.
Si la page de test est imprimée correctement, l'imprimante est prête à l'usage. Allez à Partage d'une imprimante
locale.
Dans la boîte de liste, sélectionner le port auquel l'imprimante est connectée et cliquer sur Suivant>. La plupart
des imprimantes sont connectées au port parallèle du PC, qui figure dans la liste sous le sigle 'LPT1'.
Spécifier un nom pour l'imprimante (si vous désirez changer le nom). C'est le nom utilisé pour identifier
l'imprimante sous Windows. Ce peut être un nom quelconque.
Windows vous demande d'insérer le CD Windows 95 ou Windows 98, ou diverses disquettes Windows. Les
insérer comme requis. Windows copie les pilotes d'imprimante appropriés à partir du CD ou des disquettes.
Retirer le CD ou les disquettes une fois l'opération terminée.
Une fois la procédure complétée, l'imprimante devrait imprimer une page de test
Si une page de test est imprimée correctement, l'imprimante est prête à être utilisée.
Cliquer sur Oui dans la boîte de dialogue de l'Assistant ajouter une imprimante. Allez à Partage d'une
imprimante locale.
Si la page de test n'est pas imprimée ou qu'elle est imprimée incorrectement, cliquer sur Non dans la boîte de
dialogue de l'Assistant ajouter une imprimante. Windows démarre l'utilitaire de Résolution des problèmes
d'impression. Utiliser Dépannage imprimante et le manuel de l'imprimante pour rétablir le bon fonctionnement
de l'imprimante.
Si la qualité ou l'alignement de la page imprimée ne sont pas satisfaisants, se référer au manuel de l'imprimante
pour y remédier.
Nom partagé— le nom utilisé pour identifier l'imprimante sur les autres PC et portables y ayant accès.
Mot de passe—si vous désirez restreindre l'accès à l'imprimante, vous pouvez lui attribuer un mot de passe qui
devra être entré sur les autres PC et portables lorsqu'ils souhaiteront y avoir accès. Veiller à ne pas oublier
votre mot de passe.
Dans la fenêtre Imprimantes, l'icône de l'imprimante devrait comporter une main au-dessous de l'imprimante,
pour signaler qu'elle est partagée. L'imprimante est maintenant accessible sur le réseau à partir d'autres PC et
portables.
Pour accéder à une imprimante locale sur le réseau à partir d'un autre PC ou portable:
Localiser l'imprimante dans la boîte de dialogue Parcourir pour identifier l'imprimante. Pour ce faire, double-
cliquer sur l'icône du PC auquel l'imprimante est connectée, mettre l'imprimante en surbrillance et cliquer sur
OK.
Remarque : si vous souhaitez imprimer à partir de programmes fonctionnant sous MS-DOS, assurez-vous que
vous avez coché la case Oui.
Changer le nom de l'imprimante (si nécessaire) et cliquer sur Suivant>. C'est le nom qui est utilisé pour identifier
l'imprimante sur ce PC ou portable.
Si vous avez plusieurs imprimantes et que vous souhaitez que celle-ci soit l'imprimante par défaut pour votre
PC ou portable :
Faire un clic droit sur l'icône de l'imprimante et sélectionner Définir par défaut.
L'imprimante est maintenant définie comme imprimante par défaut, et elle est utilisée pour les tâches
d'impression sur ce PC ou portable.
Un serveur d'impression est un moyen idéal de partager des imprimantes sur un réseau ; il permet de connecter
pratiquement n'importe quelle imprimante dotée d'un port parallèle.
Grâce au serveur d'impression, les imprimantes peuvent être placées n'importe où sur le réseau. Ils reçoivent
les informations et les transmettent à l'imprimante, permettant ainsi aux tâches d'être facilement imprimées.
L'utilisation d'un serveur d'impression évite d'avoir à brancher une imprimante via le serveur de PC ou de
fichiers, et permet ainsi de disposer d'une vitesse d'impression plus rapide et d'une plus grande flexibilité.
Hewlett-Packard (HP) a rejoint la famille de produits de mise en réseau OfficeConnect de 3Com en fournissant
des serveurs d'impression externes HP JetDirect qui se «clipsent» et s'intègrent au reste de la gamme
OfficeConnect.
A partir du 1er janvier 1983, seuls les paquets TCP/IP ont été transmis sur le réseau Arpanet (précurseur
d'Internet). 1983 est donc en quelque sorte l'année de naissance d'Internet.
Il faut encore rajouter que TCP/IP se compose de deux protocoles distincts, IP et TCP,
Le protocole IP
Le Protocole Internet ou IP (Internet Protocol) est la partie la plus fondamentale d'Internet. Si vous voulez
envoyer des données sur Internet, vous devez les "emballer" dans un paquet IP. Il faut savoir que ces derniers
ne doivent pas être trop gros; la plupart du temps, ils ne peuvent pas contenir toute l'information qu'on voudrait
envoyer sur Internet, et cette dernière doit par conséquent être fractionnée en de nombreux paquets IP.
Les paquets IP, outre l'information, sont constitués d'un en-tête contenant l'adresse IP de l'expéditeur (votre
ordinateur) et celle du destinataire (l'ordinateur que vous voulez atteindre), ainsi qu'un nombre de contrôle
déterminé par l'information emballée dans le paquet : ce nombre de contrôle, communément appelé en-tête de
total de contrôle, permet au destinataire de savoir si le paquet IP a été "abîmé" pendant son transport.
L'adresse IP
Une des choses les plus intéressantes du protocole TCP/IP est d'avoir attribué un numéro fixe, comme un
numéro de téléphone, à chaque ordinateur connecté sur Internet; ce numéro est appelé l'adresse IP.
Dans le cadre du standard actuel - IPV4 -, les adresses sont codées sur 32 bits. Ainsi, tout ordinateur sur
Internet, par exemple le vôtre lorsque vous vous connectez par l'entremise de votre provider, se voit attribuer
une adresse IP (par exemple 202.15.170.1)
Dès ce moment, vous êtes le seul au monde à posséder ce numéro, et vous y êtes en principe directement
atteignable.
Un rapide calcul vous montre qu'il y a, en théorie, un maximum de 2564 = 4'294'967'296 adresses possibles, ou,
en d'autres termes, d'ordinateurs directement connectables.
En fait, il y a beaucoup moins d'adresses que ce nombre impressionnant, car de nombreux numéros IP ne sont
pas autorisés ou sont utilisés à des fins "techniques".
Pour l'ordinateur, cette adresse IP est codée en binaire (4 x 8 bits = 32 bits). Par exemple,
202 15 170 1
11001010 00001111 10101010 00000001
Il est clair qu'il est plus facile de retenir 202.15.170.1 que 11001010000011111010101000000001 !
Tout le réseau 127.0.0.0 n'est pas attribué par l'Internic, car l'adresse 127.0.0.1, dite adresse de boucle, est
réservée à des fins techniques. Dommage, car 24 millions d'adresses sont ainsi perdues !
De plus, l'Internic n'attribue pas non plus certains réseaux qui sont laissés à des fins privées. Ces plages
d'adresses généralement non routées par les fournisseurs d'accès, en d'autres termes des plages attribuables
tout à fait légalement pour des réseaux internes, vont
Typiquement, si vous créez votre propre réseau local en TCP/IP, vous utiliserez pour vos ordinateurs ce type
d'adresses.
Il faut ajouter que certaines adresses d'un réseau quelconque ne sont pas attribuables à un ordinateur précis,
mais joue un rôle "technique" dans TCP/IP.
Prenons l'exemple d'un réseau de classe C comme 192.168.0.x, x pouvant varier entre 0 et 255.
Cette plage d'adresses doit être indiquée de manière officielle, et on utilise pour cela l'adresse générale
192.168.0.0, ce qui veut dire "toutes les adresses comprises entre 192.168.0.0 et 192.168.0.255". Remarquez
que cela signifie que vous ne pourrez jamais attribuer l'adresse 192.168.0.0 à un ordinateur précis, puisque
cette dernière fait référence à tout le réseau.
Finalement, vous devez réserver une adresse IP du routeur par défaut (gateway) : c'est l'adresse
"passerelle" qui permettra à des paquets IP de "quitter" votre sous-réseau.
Généralement, un ordinateur ne peut transmettre directement un paquet IP qu'à un ordinateur situé sur le
même sous-réseau.
Par exemple, un ordinateur possédant l'adresse IP 192.168.0.2 pourra directement envoyer de l'information à
un ordinateur "voisin" d'adresse 192.168.0.20, mais il ne pourra pas le faire avec un ordinateur d'adresse
194.38.175.55.
Pour simplifier, on dira en première approche qu'un ordinateur ne peut communiquer directement qu'avec un
ordinateur possédant les trois premiers nombres de l'adresse IP identiques. Cette remarque n'est
malheureusement pas théoriquement juste (même si en pratique, c'est assez souvent le cas pour des réseaux
simples).
En fait, c'est le concept de masque de sous-réseau qui définit ce qu'un ordinateur peut "voir" ou ne pas voir.
Le masque de sous-réseau que vous avez peut-être eu l'occasion d'utiliser, si vous utilisez TCP/IP pour un
réseau local, est 255.255.255.0. Ce masque veut dire que l'ordinateur concerné peut "voir" (ou communiquer
avec) tous les ordinateurs possédant les trois premiers nombres de l'adresse IP identiques, comme je l'ai
indiqué à l'exemple précédent. Comment fonctionne ce système à première vue aussi compliqué ?
En fait, admettons que l'ordinateur A d'adresse IP 199.34.57.10 veuille envoyer un paquet IP à l'ordinateur B
d'adresse IP 199.34.57.20. A priori, A ne sait pas s'il peut communiquer directement avec B. Pour cela, il utilise
le masque de sous-réseau 255.255.255.0 qu'on lui a imposé. Il "convertit" le tout en binaire, ce qui donne :
L'ordinateur A doit s'assurer que partout où le masque de sous-réseau a une valeur de 1, la valeur binaire de
son adresse IP corresponde à celle de B. Dans l'exemple ci-dessus, il n'est pas difficile de voir que c'est le cas;
finalement, les 8 derniers bits de valeur 0 indiquent que le dernier nombre de l'adresse IP est indifférent pour A :
ce dernier verra donc tous les ordinateurs d'adresse 199.34.57.x, x étant compris entre 0 et 255.
Cet exemple paraît simple, pourtant de nombreux réseaux comportent des masques de sous-réseaux moins
compréhensibles (pas uniquement des 0 et des 255), comme par exemple 255.255.255.224. Si vous refaites le
même raisonnement, vous verrez qu'avec un tel masque, l'ordinateur 192.168.0.2 ne peut directement
communiquer avec l'ordinateur 192.168.0.1!
En fait, les 256 adresses de ce réseau de classe C seront comme subdivisées en 8 sous-réseaux de 32
ordinateurs.
nombre de sous-réseaux
IP par sous-réseau masque de sous-réseau
1 256 255.255.255.000
2 128 255.255.255.128
4 64 255.255.255.192
8 32 255.255.255.224
16 16 255.255.255.240
32 8 255.255.255.248
En fait, nous avons vu au paragraphe précédent que pour chaque sous-réseau il faut déduire trois adresses IP
non attribuables à un ordinateur :
1. l'adresse de sous-réseau (généralement le premier IP du sous-réseau), par exemple a.b.c.0 pour un
réseau composé d'un seul sous-réseau.
2. l'adresse de diffusion (généralement le dernier IP du sous-réseau), par exemple, en reprenant les deux
exemples précédents, a.b.c.255 pour un réseau composé d'un seul sous-réseau.
Chaque sous-réseau "perd" donc trois adresses IP; il s'ensuit qu'une subdivision excessive d'un réseau n'est
pas avantageuse (on divise rarement au-delà de 8 sous-réseaux).
Les sur-réseaux.
IPv4 est au bout du rouleau... Les adresses sont rares, les classes A ne sont plus disponibles, en classe B, pas
grand chose de libre et les classes C sont exiguës.
Que faire alors ? Par exemple créer un seul réseau logique avec plusieurs classes C contiguës. Dans ce cas, le
masque de "sous réseau" sera un masque de "sur réseau" et définira un réseau avec plus d'hôtes qu'une
classe C ne le permet.
Sur un réseau privé par exemple, nous pourrions prendre les deux classes C 192.168.0.0 et 192.168.1.0. En
utilisant un masque de type 255.255.254.0, ceci nous permettra de réunir les deux classes C au sein d'un
même réseau logique.
Bidouillage ? Probablement, mais ça fonctionne... Avec quelques restrictions cependant. Certaines piles IP
n'accepteront pas les adresses 192.168.0.255 et 192.168.1.0 comme adresses d'hôtes valides (elles devraient
être réservées dans un réseau "normal", nous l'avons vu, mais dans le cas d'un "sur réseau" constitué comme
celui de l'exemple, il est logiquement possible de les utiliser).
2 Stations dans un même réseau ou même sous-réseau peuvent communiquer directement ou avec de simple
équipement de niveau 2 (hub ou switch).
Par exemple:
un équipement avec l'adresse 12.0.0.0 (classe A) peut directement communiquer avec un équipement
d'adresse TCP/IP 16.23.25.98.
un équipement avec l'adresse 127.55.63.23. (classe B) peut directement communiquer avec un appareil situé à
l'adresse 191.255.255.255 (classe B).
un PC dans un réseau interne avec l'adresse 192.168.1.23 peut communiquer avec l'adresse 192.168.1.63
(classe C identique).
Par contre, la connexion d'un PC avec l'adresse 192.168.1.23 (classe C) devra passer par un routeur pour
communiquer avec une installation situé en 15.63.23.96 (classe A). Ceci est le cas pour un PC qui se connecte
à un site Internet (utilisant des adresses de classes A ou B).
De même, dans un réseau interne, la connexion de deux stations dans des réseaux de classes C différentes
(par exemple 192.168.2.23 et 192.168.3.32) doivent passer par un routeur.
Un réseau sans routeur est donc limité à 254 stations (0 et 255 ne sont pas utilisées).
De même; comme les adresses des sites INTERNET peuvent être pratiquement dans toutes les plages
d'adresses A et de classe B, le raccordement d'un réseau interne à INTERNET passe obligatoirement par un
routeur.
Rien n'oblige à utiliser les adresses de classes C pour un réseau interne, mais c'est préférable.
Le routeur est pratiquement un ordinateur à lui tout seul. Celui-ci décode les trames et reconnaît des parties
s'informations des entêtes et peuvent ainsi transmettre les informations sur d'autres routeurs qui reconduisent
les informations vers les destinataires.
Un routeur réunit des réseaux au niveau de la couche réseau (couche 3), il permet de relier 2 réseaux avec une
"barrière" entre les deux. En effet, il filtre les informations pour n'envoyer que ce qui est effectivement destiner
au réseau suivant.
Les données transitant sur le réseau local (non destinées à Internet) ne sont pas transmises à l'extérieur.
De plus, les routeurs permettent en partie de cacher le réseau. En effet, dans une connexion Internet par
exemple, le fournisseur d'accès donne une adresse TCP/IP qui est affectée au routeur. Celui-ci, par le biais
d'une technologie NAT / PAT (Network adress translation / port adress translation) va rerouter les données vers
l'adresse privée qui est affectée au PC.
Ils sont utilisés pour interfacer différents groupes de PC (par exemple les départements) en assurant un
semblant de sécurité.
Un PC peut également servir de routeur si l'on installe deux cartes réseaux, l'une pour le réseau local et l'autre
pour le réseau externe avec un programme servant de liaison (par exemple Wingate).
Les routeurs ne servent pas qu'à connecter des réseaux à Internet, ils permettent également de servir de pont
(Bridge en anglais) pour se connecter à un réseau d'entreprise. Les connections futures pour ce genre
d'application sécurisée vont plutôt pour les VPN via INTERNET.
Lorsque des ordinateurs de A discutent avec des ordinateurs de B, le routeur a pour rôle de transmettre
l'information du réseau A vers le réseau B (et inversement). Par contre, si des ordinateurs de A s'échangent
entre eux des données, il n'y a pas de raison qu'ils encombrent inutilement le trafic sur le réseau B, et c'est bien
pour cette raison que les réseaux A et B sont distincts.
Autre évidence : si le réseau A tombe en panne, le réseau B n'en est pas affecté. C'est d'ailleurs l'avantage
principal de subdiviser : éviter qu'un ennui technique qui pourrait rester localisé ne perturbe la totalité du réseau
le broadcast (diffusion).
Même quand ils ne s'envoient pas de fichier, les ordinateurs ne cessent de dialoguer entre eux pour signaler
leur présence ou se mettre d'accord sur les protocoles qu'ils sont capables de comprendre.
Si Internet n'était constitué que d'un seul segment : le broadcast seul des ordinateurs utiliserait l'intégralité de la
bande passante avant même qu'un seul octet de données ait pu être transmis ! Pour cette raison, le travail des
routeurs est non seulement de faire transiter les paquets IP, mais aussi de filtrer le broadcast local qui
n'intéresse pas la planète entière.
Vous comprendrez par là que les routeurs jouent un rôle essentiel pour éviter la saturation du trafic.
A partir de là, les routeurs sont généralement configurés pour savoir où diriger les paquets IP qui leur sont
confiés; les routeurs bavardent entre eux (à l'aide de protocoles particuliers de routage, RIP ou OSPF par
exemple) pour savoir quelle est la meilleure route (la plus courte généralement) pour qu'un paquet IP atteigne
sa destination.
De même, si une route est soudainement interrompue, les routeurs sont capables de se reconfigurer et
proposer des nouvelles routes de secours.
Or le protocole IP néglige un point crucial : il ne vérifie pas le bon acheminement des paquets IP.
En d'autres termes, l'ordinateur expéditeur, dans le protocole IP, ne fait qu'envoyer le paquet IP plus loin; il ne
s'intéresse pas du tout de savoir si le paquet a bien été reçu ou s'il a été endommagé pendant le transfert !
Qui doit donc assurer l'intégrité point à point, si ce n'est IP ? Réponse : TCP.
Le protocole de contrôle de transmission ou TCP (Transmission Control Protocol) vérifie donc le bon
acheminement d'un paquet IP.
On entend par "contrôle de flux" la capacité de TCP, entre autres, de reconstituer l'information originale à partir
de paquets IP arrivés (souvent) dans le désordre le plus absolu.
o L'Internic tout d'abord conserve des adresses utilisables à des fins privées, par exemple les
adresses de type 192.168.0.x
o L'administrateur d'un réseau doit toujours mettre de côté trois adresses IP par sous-réseau :
l'adresse de sous-réseau (par exemple 192.168.0.0), l'adresse de diffusion (par exemple
192.168.0.255) et l'adresse du routeur par défaut.
5. Les paquets IP ne peuvent être transmis directement qu'à un ordinateur du même sous-réseau (défini
par le masque de sous-réseau). Si l'ordinateur destinataire ne peut être atteint, l'ordinateur expéditeur
envoit le paquet IP à l'adresse du routeur par défaut qui lui a été spécifié.
6. Le routeur est une machine qui fait transiter les paquets d'un réseau à un autre (ou d'un sous-réseau à
un autre) et qui utilise donc plusieurs adresses IP (une sur chacun des sous-réseaux couverts). Par
exemple, un routeur possédant les deux adresses IP 196.129.0.1 et 197.160.40.91 peut faire passer
des paquets IP du réseau 196.129.0.0 au réseau 197.160.40.0, et inversément.
Ici, on s'occupe donc de transmission des bits de façon brute, l'important est que l'on soit sûr que si l'émetteur
envoie un bit à 1 alors le récepteur reçoit un bit à 1. Les normes et standards de la couche physique définissent
le type de signaux émis (modulation, puissance, portée...), la nature et les caractéristiques des supports (câble,
fibre optique...), les sens de transmission...
La conception de la couche physique peut-être réellement considérée comme faisant partie du domaine de
l'ingénieur électronicien.
Elle permet aux données venant des couches supérieures d'être mises dans des trames et inversement pour
les données venant du réseau d'être extraites pour parvenir aux couches supérieures.
Elle détecte et corrige, si possible, les erreurs dues au support physique et signale à la couche réseau (couche
3) les erreurs irrécupérables.
Elle supervise le fonctionnement de la transmission et définit la structure syntaxique des messages, la manière
d'enchaîner les échanges selon un protocole normalisé ou non.
2. Elle utilise une convention d'attribution de noms non hiérarchique (l'attribution de noms est en fait
l'attribution d'identifiant uniques, c.-à-d. les adresses).
3. Elle fait appel au verrouillage de trame pour organiser ou regrouper les données.
4. La couche 2 utilise Media Access Control (MAC) pour choisir l'ordinateur qui transmettra les données
binaires, parmi un groupe d'ordinateurs qui cherchent tous à transmettre des données en même temps
- Les procédures orientées caractères (BSC de chez IBM) sont assez anciennes et sont utilisées
pour des communications à l'alternat sur le principe send and wait.
- Les procédures orientées bits (HDLC) sont prévues pour des transmissions full-duplex et à haut
débits.
Le rôle du caractère DLE est primordial car il permet d'obtenir une transmission transparente au code.
En effet, si les données peuvent contenir des caractères de commande des confusions deviennent possibles.
Pour éviter cela, tous les caractères de commande sont précédés de DLE lorsque l'alphabet est tel que les
codes de commande sont susceptibles d'apparaître dans les données transmises. De plus, si l'on doit
transmettre dans les données le caractère DLE lui-même, il sera alors lui-même précédé de DLE de manière à
ce que le caractère qui le suit ne soit pas pris à tort pour une commande.
Les messages (données de taille quelconque ) émis selon le protocole BSC sont émis sous forme de blocs de
taille appropriée aux possibilités de la ligne. Ainsi un message constitué d'un en-tête et d'un texte de données,
le tout ne constituant qu'un seul bloc sera émis de la manière suivante
SYN SYN SYN SYN SOH ...en-tête... STX ...texte... ETX BCC EOT
BCC (Block Check Character) est en fait un ensemble de caractères de contrôle pour détecter les erreurs de
transmission.
Pour l'EBCDIC et l'ASCII en mode transparent le BCC est le polynôme de la norme V41
le mode ABM (Asynchronous Balanced Mode) est un mode de réponse asynchrone équilibré utilisé sur une
liaison full-duplex entre 2 machines uniquement (liaison point à point) qui ont chacune le statut de primaire et de
secondaire. Le secondaire peut émettre sans avoir reçu de permission du primaire.
le mode NRM (Normal Response Mode) est utilisé sur une liaison half duplex et ici le secondaire ne peut
transmettre que sur invitation du primaire.
le mode ARM (Asynchronous Response) Mode, connu également sous le nom LAP) est utilisé sur une liaison
half duplex également, mais le secondaire peut émettre sans que le primaire l'ait sollicité. Ceci peut alors
provoquer des problèmes si primaire et secondaire veulent simultanément émettre des données.
Le fanion est égal à 01111110 et pour que la transparence au code soit possible, c'est-à-dire pour que la
présence d'une suite de 6 bits à 1 dans les données ne soit pas interprétée comme un fanion, l'émetteur insère
un 0 après chaque suite de 5 1.
le champ des adresses - permet d'identifier la ou les stations secondaires qui sont impliquées par
l'échange de la trame considérée.
le champ des commandes - contient les commandes ou les réponses, ainsi que les numéros des
trames . Le champ des commandes est utilisé par la station Primaire pour indiquer à la station Secondaire
quelle opération doit être réalisée. Il est utilisé par la station Secondaire pour répondre à la station Primaire.
Entre chaque trame, en Full Duplex, l'émetteur s'il n'a rien à transmettre envoie des Fanions.
Définition
La couche réseau assure toutes les fonctionnalités de relais et d'amélioration de services entre entité de
réseau, à savoir :
- adressage, routage, contrôle de flux
- détection et correction d'erreurs non réglées par la couche 2.
À ce niveau là de l'architecture OSI il s'agit de faire transiter une information complète (un fichier par exemple)
d'une machine à une autre à travers un réseau de plusieurs ordinateurs. Il existe deux grandes possibilités pour
établir un protocole de niveau réseau :
- le mode avec connexion
- le mode sans connexion
Le premier cas est celui adopté dans la norme X25.3 (composante de la norme X25 du CCITT, également
norme ISO 8208 et quasi standard international des années 80, utilisé dans le réseau français TRANSPAC)
Le problème de la congestion.
Malgré tous les efforts pour contrôler le flux d'information dans un réseau celui-ci peut se retrouver face à un
problème de congestion. Il s'agit alors de résoudre le problème sans l'aggraver.
En effet, les problèmes de congestion arrivent lorsque les nœuds d'un réseau saturent leurs files d'attente et
donc perdent des paquets.
Si ces paquets sont réexpédiés ou si des messages de gestion de réseau se mettent à circuler en grand
nombre les performances du réseau vont s'écrouler très vite.
On essaye d'éviter le problème de la congestion en autorisant un paquet à ne rester dans le réseau qu'un
temps limité par un temps maximal fixé par le gestionnaire du réseau. Tout paquet est donc émis avec une date
fixée par une horloge commune au réseau, si un nœud s'aperçoit que le temps de présence dans le réseau
d'un paquet est dépassé il le détruit. Cela permet ainsi de détruire les paquets perdus par erreur d'adressage ou
de routage, ainsi que ceux bloqués dans un nœud.
Mais cette méthode basée sur une horloge est assez difficile à mettre en oeuvre et on utilise souvent une
méthode plus simple consistant à mémoriser simplement dans la zone de temps un nombre décrémenté à
chaque traversée de nœud. Lorsque ce nombre atteint la valeur 0 il est détruit.
Ceci se fait en fonction de la destination finale du paquet et selon une table de routage qui indique pour chaque
destination finale quelles sont les voies de sortie possible.
Routage de paquets.
D'une manière générale le routage est un ensemble de processus algorithmiques devant prendre des décisions
dispersés dans le temps et dans l'espace. Les différents algorithmes sont répartis sur chaque nœud du réseau
et l'ensemble peut fonctionner de manière centralisée ou répartie.
Pour fixer ces tables on prend en compte notamment le coût des liaisons, le coût de passage dans un nœud, le
débit demandé, le nombre de nœuds à traverser, la sécurité de transport de certains paquets, l'occupation des
mémoires des nœuds de commutation,... Le plus souvent un algorithme de plus court chemin donne de bons
résultats en fixant à 1 le coût de franchissement d'un nœud (on peut également pondérer plus fortement les
nœuds qui sont les plus occupés). La mise à jour des tables de routage peut se faire de manière
fixe: en fait il n'y a pas de mise à jour, la table de routage est fixée une fois pour toutes en fonction de la
topologie du réseau.
synchrone: toutes les tables sont mises à jour au même moment par le centre de contrôle qui reçoit des
informations de la part de tous les nœuds à intervalles réguliers (toutes les 10 sec par exemple).
asynchrone: les tables sont mises à jour indépendamment les unes des autres dans certaines parties du
réseau, chaque nœud envoyant un compte-rendu de son état au centre de contrôle lorsqu'il observe des
changements significatifs.
Mais le routage centralisé dans un réseau à grande échelle est peu performant, car un routage est d'autant
meilleur qu'il réagit rapidement aux informations qui lui parviennent. De plus, si une panne survient dans
l'ordinateur qui assure ce contrôle, c'est tout le réseau qui tombe en panne.
Le routage décentralisé
Il ne possède pas de centre de contrôle et les règles de passage d'un paquet (paquet d'appel pour
l'établissement d'un circuit virtuel) sont :
l'inondation: à la réception d'un paquet celui-ci est renvoyé sur toutes les lignes de sortie. Cette technique
simpliste et rapide est efficace dans les réseaux à trafic faible et où le temps réel est nécessaire mais elle est
pénalisante en flux de données, inadaptée aux réseaux complexe et au circuit virtuel.
la technique «hot patatoes» : un paquet reçu est renvoyé le plus tôt possible par la première ligne de sortie
vide.
On améliore ce principe en affectant des coefficients à chaque ligne de sortie en fonction de la destination
voulue.
On tient compte de l'état des nœuds voisins, sans utiliser de paquet de contrôle, mais simplement en
comptabilisant le nombre de paquets reçus de chacun d'eux.
Ils peuvent également envoyer de manière synchrone ou asynchrone un compte-rendu de leur état, permettant
ainsi de choisir la «meilleure» ligne à un instant donné. Mais ceci reste local et une panne du réseau localisée
au-delà du premier nœud voisin ne pourra pas être prise en compte.
le routage adaptatif à la fois dans l'espace et dans le temps demande, de la part de chaque nœud, une
connaissance complète du réseau.
Les différents nœuds s'échangent donc des messages, mais si chacun envoie des messages à tous les autres
le trafic va augmenter de manière beaucoup trop grande.
C'est pourquoi un nœud ne transmet un compte-rendu qu'à ses voisins immédiats qui doivent en tenir compte
dans leur propre compte-rendu.
D'une manière générale, le routage doit éviter l'usage d'algorithmes adaptatifs trop complexes et limiter les
dialogues de services entre les nœuds sinon l'effet obtenu sera à l'opposé de celui recherché.
Comme illustré dans la figure ci-dessus le protocole X25 contient les trois premières couches du modèle OSI et
définit l'interface entre un ETTD (Équipement Terminal de Traitement de Données) et un ETCD (Équipement de
Terminaison de Circuit de Données) pour la transmission de paquets.
Elle fixe donc les règles de fonctionnement entre un équipement informatique connecté à un réseau et le
réseau lui-même.
X25 définit les types de paquets et leur format est le suivant (chaque ligne correspond à un octet)
87654321
identificateur général de format numéro de groupe de voie logique
numéro de voie logique
identificateur général de type de paquet
données
L'établissement du circuit virtuel se fait de bout en bout par l'envoi d'un paquet d'appel (call request).
Chaque circuit virtuel utilise une voie logique repérée par un numéro de groupe logique (entre 0 et 16) et un
numéro de voie (entre 0 et 255).
Ainsi, 4095 (la voie 0 est réservée) voies sont utilisables par une entrée.
- Pour un CVC les deux numéros sont attribués pendant la phase d'établissement de la
communication,
- Pour un CVP ils le sont lors de l'abonnement.
Lorsque le paquet d'appel arrive à l'ETCD destinataire, celui-ci peut refuser la connexion en envoyant une
demande de libération (clear request) ou l'accepter en envoyant un paquet de communication acceptée (call
accepted).
À ce moment-là le circuit virtuel est établi et les données peuvent être échangées, celles-ci emprunteront alors
toutes le même chemin marqué à travers le réseau par le paquet d'appel. Pour leur part la demande et la
confirmation de libération sont traitées localement et la demande peut être traitée par n'importe lequel des deux
équipements.
Définition
La couche transport assure un transfert de données transparent entre entités de session et en les déchargeant
des détails d'exécution.
Elle a pour rôle d'optimiser l'utilisation des services de réseau disponibles afin d'assurer au moindre coût les
performances requises par la couche session. C'est la première couche à résider sur les systèmes d'extrémité.
Elle permet aux deux applications de chaque extrémité de dialoguer directement indépendamment de la nature
des sous-réseaux traversés et comme si le réseau n'existait pas. Au niveau inférieur de la couche réseau seule
la phase d'établissement de la liaison logique s'effectue de bout en bout, alors que les transferts d'information
se font de proche en proche.
La couche transport doit assurer, en mode connecté ou non connecté, un transfert transparent de données
entre utilisateurs de service réseau en leur rendant invisible la façon dont les ressources de communication
sont mises en oeuvre.
Cette notion de transparence implique par exemple de pouvoir acheminer de bout en bout des TPDU (Transport
Protocol Data Unit) dont la taille peut varier de 128 à 8192 octets. Cette taille est cependant fixe une fois que la
valeur a été négociée.
Une autre façon de définir la couche transport est de la considérer garante de la qualité de service (QOS)
rendue par la couche réseau. Si cette dernière est sans faille, alors le travail de la couche transport est minime.
La qualité est évaluée sur certains paramètres avec trois types de valeurs possibles :
- préféré,
- acceptable
- inacceptable
qui sont choisis lors de l'établissement d'une connexion (certains paramètres sont cependant disponibles pour
un mode sans connexion). La couche transport surveille alors ces paramètres pour déterminer si la couche
réseau sous-jacente assure la qualité de service demandée.
la probabilité d'échec d'établissement mesure la chance (ou plutôt malchance) qu'une connexion ne puisse
s'établir dans un délai maximum défini. On ne tient pas compte ici du refus de l'entité distante d'établir cette
connexion, mais on considère plutôt les problèmes d'engorgement de réseau.
le débit de la liaison mesure le nombre d'octets utiles qui peuvent être transférés en une seconde, ce débit est
évalué séparément dans les deux sens.
le temps de transit mesure le temps écoulé entre le moment où l'utilisateur du service de transport envoie un
message et celui où l'entité de transport réceptrice le reçoit, ce temps est évalué séparément dans les deux
sens.
le taux d'erreur résiduel est le rapport entre le nombre de messages perdus ou mal transmis et le nombre total
de messages émis au cours d'une période considérée. Ce nombre, en théorie nul, a une valeur faible.
le temps de déconnexion mesure la durée s'écoulant entre une demande de déconnexion émise et la
déconnexion effective du système distant.
la probabilité d'erreur de déconnexion est le taux de demandes de déconnexion non exécutées pendant le
temps maximum défini.
la protection est définie comme la possibilité de se prémunir contre les intrusions passives (interférences sur
une même ligne) et actives (écoute et modification des données transmises).
La résiliation est la liberté laissée à la couche transport de décider elle-même de la déconnexion suite à un
problème.
Ces paramètres sont utilisés après la couche transport pour fixer des options de protocoles avant d'être soumis
à la couche réseau.
Lorsqu'une connexion est demandée, tous ces paramètres sont transmis par l'utilisateur à la couche transport,
les valeurs désirées et minimales sont spécifiées. Les différents cas de figure et étapes peuvent alors se
présenter.
Si la demande semble irréaliste pour certains paramètres alors la demande de connexion n'est même pas
exécutée et un message d'erreur est renvoyé pour expliquer le problème.
Si la demande ne peut pas être satisfaite complètement mais partiellement (par exemple avec un débit moindre
mais acceptable), alors c'est cette demande avec des objectifs moindres qui est soumise.
Si l'ordinateur distant ne peut satisfaire complètement la demande, mais reste au-dessus du minimum requis,
alors il modifie aussi le paramètre.
Enfin, la couche transport avertit son utilisateur de la bonne fin (ou non) de la procédure de connexion et lui
transmet les paramètres acceptés.
Cette procédure s'appelle la négociation des options qui, une fois fixées, restent inchangées pendant toute la
connexion. Pour que tous les utilisateurs ne demandent pas une qualité de service optimale, les prix pratiqués
par les fournisseurs de réseaux croissent avec cette qualité de service.
Les services qu'offrent la couche transport en mode connecté sont rendues par les primitives données ci-
dessous. Celles-ci se décomposent comme dans tout dialogue entre couches en quatre catégories comme
illustré dans la figure ci-dessus .
T_DATA.indication (données_utilisateur)
pour indiquer un transfert de données
T_EXPEDITED_DATA.request (données_utilisateur)
pour demander le transfert de données exprès
T_EXPEDITED_DATA.indication (données_utilisateur)
pour indiquer un transfert de données exprès
La figure ci-dessous détaille les différents enchaînements de primitives possibles. Pour chaque cas, un
utilisateur est placé à gauche des lignes doubles et son homologue est à droite, la couche transport est entre
les lignes et le temps s'écoule de haut en bas.
Seules les successions de primitives décrites dans l'automate de la figure ci-dessus sont autorisés assurant
ainsi qu'une machine réalisant le service de transport ne peut se trouver que dans l'un des quatre états
représentés à savoir
veille : aucune connexion n'est établie, une demande de connexion peut être émise ou reçue
connexion sortante en attente : la machine a demandé une connexion et la réponse de l'autre extrémité n'est
pas encore arrivée
connexion entrante en attente : la machine a reçu une demande de connexion qu'elle n'a pas encore
acceptée ou rejetée.
transfert de données prêt : une connexion a été établie, les transferts de données peuvent commencer
Pour ce qui est du mode non connecté seules les primitives suivantes sont disponibles.
Les principales fonctions réalisées pendant l'établissement de la connexion sont les suivantes.
La sélection d'une connexion réseau appropriée.
La décision de mettre en place un multiplexage ou un éclatement.
- Le multiplexage a pour but de regrouper plusieurs connexions de transport sur une même connexion
de réseau, ce qui va permettre de minimiser les ressources utilisées au niveau réseau, donc de
diminuer les coûts de communication.
Ceci est surtout utile si l'on a de nombreuses connexions de faible débit à établir. À l'inverse,
l'éclatement consiste à répartir une connexion de transport simultanément sur plusieurs
connexions réseau dans le but d'accroître le débit et la fiabilité.
- la détermination de la taille optimale des TPDU
- la mise en relation des adresses transport et réseau
- l'identification de la connexion
Lors de la phase de transfert les données exprès (interruptions, alarmes de petite taille) ne sont pas soumises
au contrôle de flux et sont assurées d'être délivrées avant toutes données normales émises après elle.
La fragmentation – ré assemblage permet, si nécessaire, de découper des TSDU (Transport Service Data Unit)
afin de tenir dans un seul TPDU.
Ainsi les «lettres» trop grandes sont découpées en fragments de taille fixe (sauf éventuellement le dernier),
numérotés et expédiés chacun dans un paquet pour être ré-assemblés à l'arrivée.
La numérotation des paquets permet également de détecter les paquets perdus ou dupliqués.
Les erreurs de transmission étant normalement détectées par les couches inférieures, il n'est pas toujours
nécessaire de protéger chaque TPDU. Cependant, si la qualité de service réseau est médiocre, on ajoute des
mécanismes de détection d'erreur par total de contrôle associé à un mécanisme de retransmission.
Enfin, la libération de la connexion de transport peut être décidée et déclenchée de manière inconditionnelle par
l'un quelconque des correspondants, ce qui peut provoquer des pertes de données. Cette libération est explicite
quand il y a échanges d'unités de données spéciales ou implicite quand en fait c'est la connexion réseau sous-
jacente qui est libérée.
Pour simplifier le choix des fonctions à mettre en oeuvre, l'ISO a défini 5 classes de protocoles chacune étant
adaptée à un type de réseau particulier et choisi lors de l'établissement de la connexion. L'appelant déclare sa
classe préférée et des classes de repli, l'appelé choisi parmi ces propositions ; si aucune classe ne lui convient
il refuse la connexion. Succinctement, on trouve
la classe 0 : Elle assure une connexion standard pour les réseaux de type A (établissement négociée
de la connexion, libération implicite, transfert de données normales, segmentation et réassemblage
des données.
la classe 1 : pour les réseaux de type B elle ajoute à la classe 0 le transport de données exprès, la
reprise sur erreurs signalées, la déconnexion et la reprise sur réinitialisation du réseau.
la classe 2 : pour les réseaux de type A elle ajoute à la classe 0 le multiplexage et un contrôle de flux
amélioré.
la classe 3 : pour les réseaux de type B elle est constituée des fonctionnalités des classes 1 et 2.
la classe 4 : pour les réseaux de type C elle correspond à la classe 3 à laquelle on ajoute la détection
et la reprise d'erreurs non signalées et l'éclatement de connexions de transport.
Une session peut par exemple être utilisée pour la connexion à distance d'un terminal à un ordinateur ou pour
le transfert d'un fichier et ceci en mode connecté.
Bien que très similaires la session et la connexion de transport ne sont pas identiques, trois cas peuvent se
présenter.
- b) Plusieurs sessions successives sont établies sur une seule et même connexion de transport.
Par exemple, ceci peut être utilisé dans le contexte d'une agence de voyage dans laquelle chaque
employé utilise un terminal relié à un ordinateur local.
Celui-ci est relié à une base de données centrale de la compagnie pour enregistrer les réservations.
Chaque fois qu'un employé veut faire une réservation, une session est ouverte avec l'ordinateur
central et elle est fermée lorsque la réservation est terminée.
Mais il est inutile de libérer la connexion de transport sous-jacente car celle-ci sera utilisée quelques
instants plus tard par un autre employé.
- c) Plusieurs connexions de transport successives sont nécessaires pour une seule et même session.
Ceci peut arriver lorsqu'une connexion de transport tombe en panne, la couche session établit alors
une nouvelle connexion de transport de manière à poursuivre la connexion commencée.
Par contre, il n'est pas possible de multiplexer plusieurs sessions sur une même connexion de transport. Celle-
ci ne transporte à tout instant qu'au plus une session.
Le transfert des données est régi par les trois phases habituelles :
- établissement de la session - transfert des données - libération de la session.
- Responsable de la synchronisation
- Fonctions de type .
- Gestion du dialogue (bi- ou unidirectionnel)
- Points de reprise,
- Retour arrière
- etc.
- Orchestration
- Gestion des transactions
Par exemple, sur un ordinateur à base d'un processeur de la famille des 68 000 les entiers sont représentés
avec les bits de poids fort à gauche et ceux de poids faible à droite.
Or, c'est l'inverse sur un ordinateur basé sur un processeur de la famille du 80x86. Cette difficulté sera prise en
compte par la couche présentation qui effectuera les opérations nécessaires à la communication correcte entre
ces deux familles de machines.
Pour ce faire l'ISO a défini une norme appelée syntaxe abstraite numéro 1 (Abstract Syntax Notation 1)
permettant de définir une sorte de langage commun (une syntaxe de transfert) dans lequel toutes les
applications représentent leurs données avant de les transmettre.
C'est aussi à ce niveau de la couche présentation que peuvent être implantées des techniques de compression
(code de Huffman par exemple) et de chiffrement de données (RSA, DSE, etc...).
Exemple: La syntaxe abstraite ASN.1 (ISO 8824, UIT X208) normalisée par l'ISO.- utilisée dans la messagerie
X400 et les annuaires X500.
En fait, la couche application gère les programmes de l'utilisateur et définit des standards pour que les différents
logiciels commercialisés adoptent les mêmes principes, comme par exemple :
- Notion de fichier virtuel représenté sous forme d'arbre pour les applications de transfert de fichiers,
opérations permises sur un fichier, accès concurrentiels, ...
- Découpage des fonctions d'une application de courrier électronique qui se compose d'un contenu
(en-tête et corps) et d'une enveloppe. Une fonctionnalité de l'application gère le contenu et une autre
le transfert en interprétant l'enveloppe.
Exemple :
- terminal de réseau virtuel
- transfert de fichiers
- courrier électronique
- consultation des annuaires.
Pour vous connecter à l'Internet, il vous faudra une adresse IP (Protocole Internet) unique. L'adresse IP vous
est normalement fournie par votre prestataire de services Internet (ISP en anglais).
- Pour communiquer avec des ordinateurs fonctionnant sous Windows 98, vous devez allouer une
adresse IP compatible avec celles utilisées par les ordinateurs Windows 98. Le format de cette adresse
vous est fournie plus loin dans cette section.
Dans l'onglet Configuration, sélectionner TCP/IP dans la boîte de liste et cliquer sur Propriétés.
Les adresses IP et les masques de sous-réseau sont écrits sous le format xxx.xxx.xxx.xxx, où xxx est un chiffre
entre 0 et 255.
Pour disposer d'une compatibilité avec les ordinateurs fonctionnant sous Windows 98, le masque de sous-
réseau devrait être 255.255.0.0 et l'adresse IP devrait être 169.254.xxx.xxx, comme par exemple 169.254.1.1.
L'adresse IP de chaque ordinateur doit être unique.
Nous vous suggérons de prendre note des adresses allouées à chaque ordinateur.
Cliquez sur OK. Windows 95 vous demande d'insérer votre CD de Windows 95 ou diverses disquettes de
Windows 95. Les insérer comme requis. Windows 95 copie alors les pilotes appropriés depuis le CD ou les
disquettes.
Répéter la procédure pour chaque PC ou portable qui requiert une adresse IP.
Pour vérifier qu'une nouvelle adresse IP a été installée correctement, utiliser PING (Packet INternet Groper)
pour communiquer depuis un PC ou portable vers un autre PC ou portable du réseau possédant déjà une
adresse IP.
Sur l'autre PC ou portable, dans le menu Démarrer, sélectionner Programmes puis Invite MS-DOS. La fenêtre
d'invite MS-DOS s'affiche.
Saisir la commande "ping xxx.xxx.xxx.xxx" (où xxx.xxx.xxx.xxx est la nouvelle adresse IP qui vient d'être
assignée).
L'application PING sous MS-DOS essaie de communiquer avec le PC ou portable associé à la nouvelle adresse
IP et affiche le résultat de son opération:
Si la communication n'est pas établie, c'est indiqué par un message de Dépassement de délai de requête,
Attention : si vous ignorez ce message d'erreur, le PC ou le portable continuera de rechercher le serveur DHCP,
et utilisera inutilement le processeur. Votre PC ou portable peut ralentir ou même s'arrêter.
Pour éviter ce problème, choisissez, parmi les solutions suivantes, celle qui s'applique à votre cas et suivez la
procédure appropriée:
Par exemple, vous n'aurez sans doute pas besoin de TCP/IP pour la mise en réseau si :
- Votre réseau n'est constitué que de PC ou de portables Windows 95 (vous n'avez aucun PC ou
portable Windows 98 sur votre réseau).
- Vous n'avez pas besoin d'avoir accès à l'Internet ou à un site distant par l'intermédiaire d'un routeur
ou d'un modem exigeant IP.
- Vous n'aurez aucun jeu exigeant IP.
Si vous n'avez pas besoin de TCP/IP, vous pouvez l'enlever en retirant l'association entre le protocole TCP/IP
et votre carte réseau ou PCMCIA :
Si votre réseau ne possède pas de serveur DHCP, ou s'il y a un problème de connexion entre votre PC/portable
et le serveur DHCP, vous obtiendrez peut-être un message d'erreur DHCP.
Si vous avez un serveur DHCP et que vous souhaitez que votre PC ou portable obtienne automatiquement une
adresse IP auprès de ce serveur, vérifiez le chemin du réseau entre le PC/portable et le serveur DHCP.
Par exemple, si vous avez un LAN Modem 56k OfficeConnect, celui-ci contient son propre serveur DHCP. Si
l'ordinateur est directement relié au LAN Modem, le problème pourrait être dû au câble de connexion ou au LAN
Modem. Si vous êtes relié au LAN Modem par l'intermédiaire d'un concentrateur, il vous faudra également
vérifier le concentrateur et les connexions des câbles.
Si vous n'avez pas de serveur DHCP, il vous faudra allouer manuellement une adresse IP à votre PC ou
portable.
Remarque : pour les utilisateurs dont le réseau contient des ordinateurs Windows 95 et Windows 98. Pour
bénéficier d'une compatibilité avec les ordinateurs fonctionnant sous Windows 98, le masque de réseau devrait
être 255.255.0.0 et l'adresse IP devrait être 169.254.xxx.xxx (où xxx doit être un nombre compris entre 1 et
254), par exemple 169.254.1.1.
L'adresse IP de chaque ordinateur doit être unique. Nous vous suggérons de prendre note des adresses
allouées à chaque ordinateur.
Pour vérifier si vous avez bien ouvert une session sur le réseau :
Redémarrez le PC ou le portable.
A l'invite d'ouverture de session sur le réseau, saisissez votre nom d'utilisateur du réseau et le mot de passe.
Vérifiez à nouveau le Voisinage de réseau. Si la navigation sur le réseau est toujours impossible,
Vérifier que votre PC a bien le même nom de groupe de travail que les autres PC du réseau :
Le nom de groupe de travail de votre PC est affiché dans le champ Groupe de travail. Assurez-vous que le nom
du groupe de travail (qui correspond au nom du réseau) est le même pour tous les PC et portables devant
communiquer les uns avec les autres.
Lorsqu'un nouveau périphérique est ajouté au réseau, il se peut que Microsoft Browse Master prenne quelque
temps à reconnaître que ce périphérique a été ajouté.
Au lieu d'attendre que les informations relatives au réseau soit mise à jour, vous pouvez utiliser l'option
Rechercher pour trouver un PC ou tous les PC du réseau :
Dans le champ Nommé, saisissez le nom de l'ordinateur que vous essayez de trouver. Les résultats de la
recherche sont affichés dans la boîte de liste Rechercher.
Nous présumons que Windows 95 ou Windows 98 est déjà installé sur le PC.
Certains portables n'ont pas de lecteurs de disquettes intégré et utilisent à la place l'emplacement de la carte
PCMCIA pour rattacher un lecteur de disquettes externe au portable. Si le portable dans lequel vous insérez la
carte PCMCIA est de ce type, il peut être nécessaire de copier divers fichiers de configuration vers le portable,
(depuis le disque fourni avec la carte PCMCIA) avant de pouvoir insérer la carte PCMCIA. Se référer au manuel
de la carte PCMCIA.
Pour permettre l'installation, les Services de carte (Card Services) doivent être activés sur le portable. Pour
vérifier cela :
- Mettez le portable sous tension et démarrez Windows 95 ou Windows 98.
- Dans le menu Démarrer, sélectionner Paramètres, puis Panneau de configuration.
Si la boîte de dialogue des Propriétés de la PC Card (PCMCIA) apparaît, les Services de Carte sont activés.
(Les Services de Carte sont exigés pour détecter l'insertion d'une carte PCMCIA dans un portable.)
- Se référer au manuel de la carte PCMCIA pour vérifier si le câble adaptateur doit être connecté avant
que la carte ne soit insérée dans le portable. Si c'est le cas, connecter le câble.
- Insérer la carte PCMCIA dans le portable (en vérifiant qu'elle est engagée du bon côté).
la carte PCMCIA est détectée automatiquement. Si c'est le cas, des écrans de configuration apparaîtront pour
vous permettre de la configurer
Si la carte réseau a été détectée automatiquement et que les noms de l'Ordinateur et du Groupe de travail ont
déjà été spécifiés, il se peut que Windows vous demande d'ouvrir une session.
Si l'icône est présente, cela signifie que la carte réseau a bien été installée. Aller à la page suivante.
Si l'icône ne figure pas, la carte PCMCIA n'est pas installée correctement.
Si la carte PCMCIA est détectée (et que son icône n'est pas entourée d'un cercle jaune ni accompagnée d'un
point d'exclamation (!)), la carte PCMCIA est configurée correctement.
Dans l'avenir, lorsque vous démarrerez votre portable et Windows, il vous sera demandé d'ouvrir une session.
Vous devez préciser le nom d'utilisateur dans le champ Nom d'utilisateur (et spécifier un mot de passe s'il en a
été utilisé un auparavant) et cliquer sur OK pour ouvrir une session sur le réseau.
Pour changer le pilote, il vous faut le logiciel du nouveau pilote et la documentation qui l'accompagne.
Localisez le pilote (s'il est copié sur le disque dur du PC ou du portable) ou bien cliquez sur Disquette fournie et
utilisez la disquette du nouveau pilote (si nécessaire, consultez la documentation livrée avec la disquette du
pilote et la carte réseau ou la carte PCMCIA). Il est possible qu'il vous soit demandé de sélectionner le pilote
approprié dans une liste.
Windows vous demande d'insérer le CD Windows 95 ou Windows 98, ou diverses disquettes Windows. Insérer
les disquettes comme requis, et les retirer après usage.
Il est possible qu'il vous faille saisir à nouveau certaines informations de réseau relatives au PC ou portable
pour finir de préparer le pilote à sa connexion au réseau.
- Le périphérique OfficeConnect et l'adaptateur secteur, ainsi que le guide de l'utilisateur livré avec
l'équipement.
Les câbles à paire torsadée de Catégorie 5 ne sont pas des câbles téléphoniques. Le réseau ne peut pas
fonctionner avec des câbles téléphoniques.
Positionnement du périphérique
La première tâche à effectuer est de décider ou placer le périphérique, de manière à ce qu'il se trouve à une
distance de câblage raisonnable d'une prise secteur et des PC et portables à brancher.
Veiller à ce qu'il soit dans un endroit sûr où il ne risque pas d'être facilement cogné ou perturbé. Si vous
souhaitez placer le périphérique sur une surface horizontale (telle qu'une table).
Si vous souhaitez fixer le périphérique au mur, consultez le guide de l'utilisateur fourni avec l'équipement.
Branchez l'adaptateur secteur dans la prise de courant et dans la prise d'alimentation du périphérique. Les DEL
du périphérique devraient s'allumer brièvement au moment où l'appareil est mis sous tension.
Si le périphérique fait déjà partie d'un réseau actif, vous pouvez brancher les nouveaux PC et portables sans
que cela n'interfère avec le réseau.
Pour chaque PC, utiliser un câble droit à paire torsadée de Catégorie 5. Pour chaque PC, connecter une
extrémité du câble au connecteur approprié de la carte réseau du PC à l'arrière du PC.
Branchez l'autre extrémité du câble à un port RJ-45, à l'arrière du périphérique OfficeConnect. Maintenez le port
Liaison ascendante/Normal (MDI/MDI-X) libre à moins que tous les autres ports soient indisponibles.
Sur la façade du périphérique, vérifiez que les DEL d'Etat de Port des ports utilisés sont allumées.
Si vous avez utilisé le port Liaison ascendante/Normal sur le dispositif, activez/désactivez le commutateur
Liaison ascendante/Normal (situé à l'arrière du dispositif) jusqu'à ce que la DEL appropriée s'allume(le port est
à présent un port Normal).
Si toutes les DEL appropriées sont allumées, passez à la section Vérification des nouvelles connexions.
Si certaines des DEL des ports utilisés ne sont pas allumées, il existe un problème au niveau de ces
connexions.
Les ordinateurs de bureau et portables devraient maintenant être connectés par l'intermédiaire de votre
périphérique OfficeConnect.
La fenêtre Voisinage réseau devrait contenir une icône pour chacun des PC et portables du réseau (y compris
les PC et portables nouvellement connectés):
Si tous les nouveaux PC et portables sont affichés, ils sont prêts à utiliser le réseau.
Si certains des nouveaux PC et portables ne sont pas affichés dans le Voisinage réseau:
Windows recherche le PC ou le portable. S'il est détecté, il figure dans la liste qui s'affiche, et ce PC ou portable
est prêt à utiliser le réseau.
Veuillez noter qu'aucun serveur de messagerie électronique n'est fourni avec Windows 98. Si vous désirez
installer la messagerie électronique sous Windows 98, il vous faudra acheter un logiciel approprié, ou bien
utiliser le logiciel de messagerie fourni avec Internet Explorer ou Netscape Navigator.
Un des PC du réseau doit être configuré comme un bureau de poste qui stocke tous les messages
électroniques.
Pour utiliser une messagerie électronique, les utilisateurs doivent disposer d'un compte de messagerie
électronique installé dans un bureau de poste.
Tout utilisateur peut disposer d'un compte de messagerie électronique, y compris l'utilisateur du PC qui assume
le rôle de bureau de poste.
La procédure d'installation décrite ne porte que sur la création d'une messagerie électronique pour le réseau
poste à poste que vous avez créé. Pour une messagerie électronique Internet, il vous faut une connexion
Internet et un logiciel Internet capable d'installer une messagerie électronique.
Créez un nouveau dossier de bureau de poste, par exemple 'C:\postoffice', et notez son nom. (Ceci s'appelle
nomdechemin.
Dans l'onglet Partage, sélectionner Partagé en tant que et spécifier le type d'accès : Accès complet.
2.11 Dans l'onglet Installation de Windows, cliquer sur OK pour que Windows 95 installe le logiciel de
messagerie de Windows.
L'Assistant d'installation de la boîte de réception est lancé automatiquement. Cela n'est pas encore requis,
cliquer donc sur Annuler puis sur Oui pour confirmer l'annulation.
Une fenêtre s'affiche qui vous souhaite la bienvenue dans l'utilitaire d'administration d'un bureau de poste.
Sélectionner Créer un nouveau bureau de poste de groupe de travail puis cliquer sur Suivant>.
Sélectionner Parcourir et localiser le dossier Bureau de poste que vous avez créé auparavant. Cliquer sur OK
puis sur Suivant>.
Une fenêtre s'affiche vous avertissant que le dossier doit être partagé. Ceci a déjà été fait. Cliquez sur OK.
Spécifier le chemin d'accès du dossier Bureau de poste qui a été créé . Le chemin d'accès figure peut être déjà
dans le champ. Puis cliquer sur Suivant>.
Entrez le nom de la boîte aux lettres et le mot de passe de l'administrateur, puis cliquez sur Suivant> pour
démarrer le Gestionnaire de bureau de poste.
L'administrateur est maintenant prêt à créer des comptes de messagerie électronique pour les utilisateurs du
réseau.
Pour créer un nouveau compte de messagerie électronique sur le PC servant de Bureau de poste, suivre la
procédure suivante:
Si le gestionnaire de bureau de poste n'est pas ouvert, dans la fenêtre Panneau de configuration, double-cliquer
sur Bureau de poste Microsoft.
Sélectionner Administrer un bureau de poste de groupe de travail existant et cliquer sur Suivant>.
Le chemin d'accès du dossier Bureau de poste devrait être déjà saisi. Cliquer sur Suivant>.
Saisir le mot de passe et cliquer sur Suivant> pour lancer le gestionnaire de bureau de poste.
Saisir le nom du nouvel utilisateur (nom de l'utilisateur), la boîte aux lettres (nom de la boîte aux lettres) et le
mot de passe. Prendre note de ces informations pour les communiquer au nouvel utilisateur et lui suggérer de
changer le mot de passe une fois la messagerie électronique installée sur son PC ou portable. Cliquez sur OK.
Tous les noms de boîtes aux lettres doivent être différents. Les mots de passe du système de messagerie
électronique ne sont pas affectés par la distinction majuscules/minuscules.
Vous pouvez créer des comptes de messagerie électronique pour d'autres utilisateurs en effectuant ces
opérations pour chaque utilisateur, puis en cliquant sur Fermer.
Dans l'onglet Installation de Windows, cliquer sur OK pour que Windows 95 installe le logiciel de messagerie
de Windows.
Si c'est le PC sur lequel est installé le Bureau de poste, sélectionner Parcourir pour localiser le dossier Bureau
de poste, puis cliquer sur OK et sur Suivant>.
Si ce n'est pas le PC ou portable sur lequel est installé le dossier Bureau de poste, localiser le dossier.
Pour ce faire, double-cliquer sur l'icône du PC ou portable qui contient le dossier Bureau de poste et
sélectionner le dossier Bureau de poste. Cliquer sur OK puis sur Suivant>.
Si ce n'est pas le cas, consultez les sections Création de comptes d'utilisateur de courrier électronique et
Installation du courrier électronique sur un PC ou un ordinateur portable.
Pour lancer la messagerie électronique sur le bureau de Windows 95, double-cliquer sur l'icône Boîte de
réception .
Dans le menu Outils, sélectionner Outils de messagerie Microsoft puis Changer le mot de passe de la boîte aux
lettres.
Spécifier le mot de passe actuel puis le nouveau mot de passe deux fois dans les champs appropriés.
Pour afficher les noms des dossiers de messagerie (à côté du dossier de messagerie actuellement affiché)
choisir Dossiers dans le menu Affichage.
Le dossier Boîte de réception contient les messages électroniques qui vous ont été envoyés et les nouveaux
messages sont marqués en caractères gras.
La Messagerie de Windows vérifie périodiquement si vous avez reçu de nouveaux messages dans le Bureau
de poste. Cependant, pour vérifier manuellement si vous avez reçu du courrier, sélectionner Remettre le
courrier dans le menu Outils.
Pour ouvrir un fichier qui accompagne un message électronique (appelé fichier attaché) double-cliquer sur
l'icône du fichier dans le message. Le fichier s'ouvre dans l'application qui lui est associée.
Spécifier les utilisateurs qui sont les destinataires du message. Pour ce faire:
Cliquez sur A.
La boîte de dialogue du Carnet d'adresse s'affiche. Les utilisateurs de la messagerie électronique sont listés
dans la boîte de liste à gauche. Sélectionner les utilisateurs qui sont les destinataires de votre message, puis
cliquer sur A ou Cc comme requis.
Pour attacher un fichier au message (une copie de ce fichier sera transmise avec le message électronique):
Pour stocker des messages dans les dossiers messagerie, suivre la procédure suivante:
Sélectionner le dossier messagerie dans lequel transférer le(s) message(s), et cliquer sur OK.
Ne pas redémarrer !
Enter le mot de passe et cliquer Suivant (demander à l'administrateur pour connaître le mot de passe)
Mettre sur "Ne pas ajouter le boite de réception au groupe de démarrage" et cliquer suivant puis Terminer
Onglet Connexion
Entrer le chemin du Bureau de Poste si il n'y est pas et selectionner "Réseau Local (LAN)"
Onglet Remise
Mettre la valeur désirée pour la vérification de l'arrivée du nouveau courrier. Plus la durée sera courte, plus
rapidement le courrier arrivera.
Vous avez vu plus haut que tout ordinateur connecté à Internet possède un numéro IP qui lui est propre. Pour
communiquer avec un autre ordinateur, il vous faut connaître son adresse IP. Or, lorsque vous "surfez" sur le
net, vous écrivez très rarement de tels numéros dans votre browser. C'est tout simplement que vous faites
appel, sans le savoir, à un serveur DNS.
Un serveur DNS est simplement une machine qui associe le numéro IP à une adresse plus facilement
mémorisable, bref une sorte d'annuaire téléphonique pour Internet.
Ainsi, la machine qui répond lorsque vous tapez http://www.microsoft.com dans votre browser possède en fait
l'adresse IP 207.68.137.65. Si vous tapiez http://207.68.137.65, vous obtiendriez exactement le même résultat.
Un (ou plusieurs) serveur DNS se trouvent généralement chez votre provider; vous avez d'ailleurs sûrement
reçu une feuille de configuration vous indiquant une ou deux adresses IP pour ces serveurs lors de la
configuration de votre connexion à votre provider.
Une manière simple de constater l'utilité d'un serveur DNS est d'ouvrir (sous Windows) une fenêtre DOS, et de
taper ping 'adresse de l'hôte', par exemple ping www.microsoft.com. "Ping" est une fonction très utile dans
l'établissement de réseau : c'est une commande qui envoie un paquet IP tout simple à un ordinateur et lui
demande simplement de répondre.
Sous Windows, quatre paquets IP sont envoyés, et si vous avez tapé 'ping www.microsoft.com' par exemple,
votre ordinateur devrait ensuite vous écrire une ligne de type :
Ces quatre dernières lignes vous indiquent que le serveur Microsoft a répondu à vos appels et vous montrent le
temps total qu'a pris la transaction pour chaque ping (par exemple 550 millisecondes). Vous noterez surtout que
le serveur DNS de votre provider aura fait automatiquement la translation
www.microsoft.com vers 207.68.137.65.
Beaucoup d'entre vous ont cependant sûrement entendu parler du système WINS (Windows Internet Naming
Service) présent sur les systèmes Microsoft (serveurs NT), et qui, de loin, semble faire la même chose.
Hors des réseaux Microsoft, le problème se réduit simplement à dire que les machines sont identifiées par une
adresse IP et un FQDN (Fully Qualified Domain Name ou nom de domaine pleinement qualifié) de type Internet
(par exemple machine1.beaubleu.com; machine1 est le hostname de la machine; beaubleu.com est le domaine
Internet).
Pour résoudre un FQDN en adresse IP, ou inversement, c'est le système DNS qui est utilisé. Un point c'est tout.
Revenons dans le monde Microsoft. Les anciens réseaux Microsoft étaient basés sur le protocole NetBEUI (ce
protocole est encore largement utilisé dans les petits réseaux locaux).
Sur ces réseaux, les machines sont identifiées par un nom NetBIOS, par exemple, machine2, et leur adresse
physique de carte réseau.
C'est tout. Mais dites-vous bien que ce nom NetBIOS n'a, à priori, rien à voir avec un hostname Internet !
Lorsque vous installez le protocole TCP/IP sur un ordinateur Microsoft, vous remarquez que l'OS remplit le
champ "hostname" (de l'onglet DNS) avec le même nom que le nom NetBIOS, mais ce sont bien deux choses
différentes.
- les applications basées sur l'API Windows Sockets (Winsocks); généralement, les applications TCP/IP
utilisent quasi exclusivement cet API
Le protocole TCP/IP de Microsoft a ceci de particulier qu'il supporte ces 2 API grâce à une couche discrète :
NBT (NetBIOS Over TCP/IP).
Un exemple typique est celui de la commande NET de Microsoft (par exemple Net Use) : cette commande est
fondamentalement une commande basée NetBIOS; elle ne devrait, en principe, pas fonctionner avec des
hostnames TCP/IP.
Pourtant, grâce à NBT, une commande 'Net Use * \\hostname_TCPIP\ressource' sur un réseau n'utilisant que le
protocole TCP/IP fonctionne très bien.
Imaginons un réseau Microsoft n'utilisant que TCP/IP comme protocole, et regardons ce qui se passe au niveau
de la liste d'ordinateurs présents dans le voisinage réseau.
Bien que cette liste, appelée "liste browse", soit une applications basée NetBIOS, tous les ordinateurs
(fonctionnant sous Microsoft je précise) pourront se voir dans le voisinage réseau, pour peu qu'ils soient sur le
même segment Ethernet, cela grâce à NBT.
Dans un tel réseau, un ordinateur du réseau A ne verra dans son voisinage réseau que les ordinateurs de son
sous-réseau, et non les ordinateurs du sous-réseau B; de façon analogue, un ordinateur du réseau B ne verra
dans son voisinage réseau que les ordinateurs de son sous-réseau, et non les ordinateurs du sous-réseau A
(bien évidemment, seuls des ordinateurs basés Microsoft sont susceptibles d'être vus dans le voisinage
réseau).
Conséquence : les clients TCP/IP Microsoft ont besoin d'une assistance pour connaître les noms
NetBIOS.
Les serveurs WINS font un travail un peu analogue aux serveurs DNS, mais corrélant les adresses IP non pas
avec un FQDN, mais avec un nom NetBIOS :
WINS permet donc d'utiliser des noms NetBIOS dans un environnement TCP/IP.
- DNS est que ce dernier est "statique" (il faut introduire manuellement les hostnames avec leur
correspondance IP).
- WINS est "dynamique" : un ordinateur à qui on a précisé un serveur WINS va immédiatement s'y
annoncer lorsqu'il sera allumé sur le réseau.
La base de données WINS est ainsi créée et maintenue dynamiquement, même si on peut y ajouter des
entrées statiques.
Ainsi, pour notre réseau coupé par le routeur, il suffira de mettre en place un serveur WINS sur un des sous-
réseau (A ou B) et d'indiquer son adresse IP aux ordinateurs de A et B pour que, cette fois, la liste browse soit
complète de chaque côté.
Usuellement, on installe même un serveur WINS sur chaque segment Ethernet, et on crée des règles de
"synchronisation" entre les différents serveurs WINS.
Le h-node est le mode de noeud par défaut d'un client Microsoft utilisant WINS. Si un client WINS ne peut pas
contacter son serveur WINS, il se retransforme en b-node.
Notez que vous pouvez savoir facilement quel est le mode de nœud en utilisant la commande IPCONFIG /ALL
sous Windows NT, ou le programme WINIPCFG.EXE sous Windows 9x.
NB : Evitez de faire cohabiter des b-nodes et des p-nodes sur le même réseau : à cause des modes de
résolution, deux ordinateurs avec le même nom NetBIOS pourraient exister simultanément sur le même réseau
Le fichier lmhosts est son pendant par rapport à une requête WINS (il est utilisé en cas d'échec d'une requête
WINS).
Le fichier hosts contient des corrélations adresse IP<--->FQDN (hostname)
Le fichier lmhosts contient des corrélations adresse IP<-->nom NetBIOS.
Ordre de recherche :
un ordinateur sans WINS ni DNS (= b-node) recherche un ordinateur du réseau dans l'ordre suivant :
o diffusion UDP
un ordinateur avec un DNS spécifié recherche un ordinateur du réseau dans l'ordre suivant :
o diffusion UDP
2. Les paramètres IP, tels que masque de sous-réseau, adresses IP du gateway et des éventuels
serveurs WINS ou DNS. Imaginez que vous changiez le serveur WINS d'un réseau de 200 machines :
vous devrez passer sur les 200 machines pour modifier ce paramètre :
Au niveau des clients, il suffit de configurer une seule fois "attribution d'une adresse IP par un serveur DHCP
pour ne plus jamais avoir à s'occuper ultérieurement de questions IP.
En cas de modification d'un paramètre sur le serveur DHCP (par exemple, modification de l'adresse IP du
gateway), la modification sera effective sur tous les postes du réseau à leur prochain reboot (ou regénération
DHCP).
un (ou plusieurs) serveur DHCP qui entend la requête répond en offrant une adresse IP disponible
le client sélectionne une adresse IP qui lui convient et en demande l'utilisation au serveur DHCP
concerné
le serveur DHCP accuse réception et accorde l'adresse IP pour une durée déterminée (bail)
Si on reboote la machine cliente, cette dernière tentera généralement d'obtenir l'adresse IP qu'elle possédait
préalablement.
Elle en profite pour mettre à jour les paramètres IP (masque de sous-réseau, IP du gateway, DNS, WINS). A
chaque reboot, le bail est réinitialisé (souvent, le bail est configuré à 3-4 jours sur un LAN).
Si le bail de l'adresse IP arrive à échéance, le client se met à ré-émettre des requêtes DHCP pour obtenir un
renouvellement du bail.
S'il n'obtient pas satisfaction et que le bail arrive définitivement à échéance, le client "supprime" son IP, et se
remet en quête d'une nouvelle adresse IP disponible.
Dans le datagramme, en plus de l'ID de transaction précédent, les serveurs DHCP proposent une adresse IP et
une durée de bail.
ID transaction : 18336
Tant que le client ne reçoit pas de DHCPACK, il ré-émet la DHCP Request toutes les 2 minutes jusqu'à 87.5%
de la durée du bail. Sans réponse alors, il repart à l'étape du DHCP Discover.
Si le réseau est composé de routeurs, le problème peut être résolu avec des routeurs utilisant le protocole
"BootP distant" qui sont alors capables de relayer des diffusions DHCP.
Dans l'exemple illustré ci-dessus, le routeur avec BootP distant relaie les requêtes DHCP du client avec la
particularité de rajouter à la requête le netID (ici 128.0.0.0) du client. De cette façon, les serveurs DHCP du
réseau ne répondront à la requête que s'ils sont capables de fournir une adresse IP dans cette étendue.
Lorsqu'il attribue une adresse, il le fait par l'intermédiaire d'un bail. Ce bail a normalement une durée limitée
dans le temps. Sur un réseau d'entreprise où l'on dispose largement d'assez d'adresses pour le nombre de
postes et que ces derniers sont en service toute la journée, le bail peut être d'une semaine ou plus encore. Sur
le câble, le bail était seulement d'une heure.
Après expiration du bail, ou résiliation par le client, les informations concernant ce bail restent mémorisées dans
la base de données du serveur pendant un certain temps. Bien que l'adresse IP soit disponible, elle ne sera pas
attribuée en priorité à une autre machine. C'est ce qui explique que l'on retrouve souvent la même adresse
d'une session à l'autre.
Cette liste est loin d'être complète, il existe en effet une grande quantité d'options qui peuvent êtres transmises.
Lorsque le bail arrive à environ la moitié de son temps de vie, le client va essayer de renouveler ce bail, cette
fois-ci en s'adressant directement au serveur qui le lui a attribué. Il n'y aura alors qu'un DHCPREQUEST et un
DHCPACK.
Si, au bout des 7/8e de la durée de vie du bail en cours, ce dernier n'a pu être renouvelé, le client essayera
d'obtenir un nouveau bail auprès d'un DHCP quelconque qui voudra bien lui répondre. Il pourra alors se faire
que le client change d'adresse IP en cours de session. Normalement, cette situation ne devrait pas se produire,
sauf en cas de panne du DHCP.
Dans les manuels, il est recommandé de ne pas créer de baux inutilement courts, ceci entraînant une
augmentation significative du broadcast sur le réseau. Le compromis est à trouver entre la durée moyenne de
connexion des utilisateurs, la réserve d'adresses IP du serveur, le nombre d'abonnés...
En règle générale, un FAI dispose toujours de moins d'adresses que d'abonnés, parce que tous les abonnés ne
se connectent pas en même temps. Une mauvaise analyse des statistiques peut alors entraîner de graves
problèmes (que nous avons connu sur le câble) aux heures de pointe.
Mais alors, comment la négociation peut-elle se faire, puisque, normalement, un "broadcast" n'est pas
retransmis par les routeurs ?
Les requêtes DHCP doivent pouvoir atteindre le serveur qui est situé sur un autre réseau logique, elles doivent
donc passer les routeurs, ce qui n'est théoriquement pas possible. Il est alors nécessaire d'installer sur un ou
plusieurs routeurs un agent de relais qui va intercepter les requêtes en broadcast et les transmettre à un
serveur DHCP connu de cet agent.
C'est l'agent de relais situé sur la passerelle qui va faire l'intermédiaire et le client réussira tout de même à
obtenir une adresse, donnée par un DHCP situé sur un autre réseau, mais relayé par l'agent de relais.
Avec Windows 98, Microsoft TCP/IP offre un nouveau mécanisme d'adressage IP, appelé adressage IP privé
automatique.
Si votre réseau est de taille réduite et qu'il ne comporte pas de Client DHCP vous pouvez attribuer une adresse
IP unique à votre carte réseau à l'aide de la plage réservée d'adresse IP " réseau LINKLOCAL ". Les adresses
réseau LINKLOCAL commencent toujours par 169.254 et ont le format suivant : 169.254.X.X
Les adresses réseau LINKLOCAL sont réservées aux adresses privées et internes et ne sont pas adaptées aux
ordinateurs hôtes visibles sur Internet. Elles ne peuvent pas être utilisées sur les ordinateurs reliés par le
Partage de connexion Internet.
Après l'attribution à la carte réseau d'une adresse IP réseau LINKLOCAL, les ordinateurs peuvent, via le
protocole TCP/IP, communiquer avec n'importe quel autre ordinateur sur le réseau qui utilise le même
adressage.
Un ordinateur Windows 98 dont la configuration prévoit un adressage IP privé automatique peut s'attribuer une
adresse IP privée dans l'un des cas suivants :
o - Si l'ordinateur n'est pas configuré comme un portable, il peut s'attribuer au démarrage une adresse IP
automatique en l'absence de bail DHCP valide et de serveur DHCP sur le réseau.
o - Si l'ordinateur est configuré comme un portable, il peut s'attribuer une adresse IP automatique en
l'absence de serveur DHCP sur le réseau, qu'il dispose ou non d'un bail DHCP.
Remarques :
o - L'adressage IP automatique permet la configuration automatique de l'adresse IP. Cette méthode
présente l'avantage de réduire le temps d'administration et permet la réutilisation des adresses IP.
Cette méthode est recommandée pour les réseaux de toutes tailles ne disposant pas d'une connexion
directe à Internet ou d'un service DHCP disponible.
o - L'adressage IP statique vous permet d'entrer manuellement une adresse IP permanente. L'utilisation
de cette méthode n'est recommandée qu'en dernier recours.
o - Si un service DHCP est trouvé ultérieurement, l'ordinateur arrête d'utiliser l'adresse IP automatique et
utilise l'adresse IP attribuée par le service DHCP. Une adresse IP DHCP ne remplace pas une adresse
IP statique ; elle doit être modifiée manuellement.
o - En cas de déplacement d'un ordinateur d'un réseau local (LAN, Local Area Network) disposant d'un
service DHCP à un LAN sans service DHCP, vous pouvez utiliser l'utilitaire de configuration IP
(WINIPCFG) pour diffuser l'adresse DHCP attribuée. Vous pouvez ensuite faire en sorte que
l'ordinateur affecte automatiquement une adresse IP privée.
A chaque protocole d'un Workgroup donné est associé un seul Master Browser, mais pour ce Master Browser il
peut y avoir un ou plusieurs serveurs Backup associés. Chaque serveur Backup appelle de manière périodique
(toutes les 15') le Master Browser afin d'obtenir une liste réactualisée.
Lorsqu'une machine rejoint le réseau, elle commence par vérifier la présence du Master Browser de son
Workgroup (ou Domaine) :
Si le Master Browser du Workgroup n'existe pas ou est inaccessible alors la machine nouvellement connectée
déclenche une procédure d'élection (envoi d'une trame d'élection) du Master Browser du Workgroup.
Si le Master Browser existe déjà, la machine nouvellement connectée annonce sa présence auprès du Master
Browser de son Workgroup, le Master Browser ajoute cette machine dans sa liste des machines disponibles sur
le réseau puis cette liste réactualisée sera transmise aux différents serveurs de Backup lors de la mise à jour
périodique.
Remarque :
L'arrivée d'une nouvelle machine sur le réseau peut impliquer qu'une des machines du workgroup devienne
Backup du Master Browser.
La première fois, qu'une station souhaite obtenir la liste des machines disponibles sur le réseau, elle s'adresse,
dans un premier temps, au Master Browser (via l'envoi d'un broadcast "GetBackupListRequest") afin de
récupérer le nom des Backup du Master Browser (capables de lui fournir la liste des machines disponibles sur
le réseau).
Parmi l'ensemble des noms reçus, la station en conserve trois au hasard. Puis, la station s'adressera alors
aléatoirement à un des trois Backup ou au Master Browser (via broadcast "NetServerEnum") pour obtenir la
liste des machines. .
Quand un utilisateur arrête "correctement" une machine (connectée au réseau), celle-ci informe le Master
Browser de sa déconnexion permettant ainsi au Master Browser de réactualiser sa liste des machines.
Dans le cas où une machine est arrêtée "brutalement", le Master browser ne réactualisera sa liste qu'au bout
d'un certain temps (la machine ne s'annoncera plus, puis le Master Browser au bout de 3 périodes sans
nouvelle de la machine finira par la retirer de la liste).
Le mécanisme de browsing se complique lors d'interconnexions de segments de réseaux par des routeurs, car
les broadcasts ne sont pas propagés par ces derniers. Plusieurs configurations sont à étudier et ce en fonction
des associations logiques utilisées (Workgroup et/ou Domaine).
Workgroups
Un Workgroup unique "recouvrant" deux segments se présente comme deux Workgroups séparés. Le principe
du browsing s'applique de part et d'autre du routeur de façon totalement indépendante. Les Workgroups
n'intègrent pas de mécanismes de propagation de liste des machines d'un segment vers un autre.
Dans tous les cas, même si la liste globale des machines n'existe pas, les connexions réseaux via routeurs
resteront possible à condition d'utiliser un protocole routable (IP par exemple).
Ces deux éléments du domaine jouent un rôle important dans le principe du "Browsing" de réseaux multi-
segments :
Le contrôleur de domaine principal (PDC : Primary Controler Domain) implémente le Master Browser de
Domaine.
Le contrôleur de domaine de backup (BDC : Backup Controler Domain se trouvant sur un autre segment que
celui du PDC) implémente le rôle de Master Browser de Segment.
Remarque importante : Windows 9x est capable de jouer le rôle de Master Browser de Segment.
Chaque machine annonce sa présence auprès du Master Browser de son Workgroup ou de son domaine (via
des broadcasts). .
De la même façon, les Master Browser de chaque Workgroup ou Domaine annoncent leur présence auprès du
Master Browser de Segment (BDC) ou directement auprès du Master Browser du Domaine (PDC) (en fonction
du segment où ils se trouvent). L'annonce est faite via des broadcasts. .
Dés que le Master Browser de Segment (BDC) dispose de la liste des machines de son segment, il en informe
le Master Browser du Domaine (PDC) se trouvant sur l'autre segment via l'envoi d'un datagramme. .
A la réception de datagramme, le Master Browser de Domaine (PDC) demande au Master Browser de Segment
(BDC) de lui envoyer la liste des machines. .
Le Master Browser de Domaine construit alors la liste globale des machines en fusionnant sa propre liste avec
les listes qu'il reçoit ....
Ainsi les Master Browser et leurs Backups sont capables de fournir la liste globale aux stations de leur
Workgroup ou Domaine lorsque celles-ci le demandent.
Domaines sur réseau muti-segments avec WINS (Windows Internetwork Name Service) L'utilisation d'un
serveur WINS modifie le principe de browsing en deux points principaux
La liste des domaines et de leur Master Browser de Domaine est collectée de façon différente.
Le serveur WINS est le responsable de la collecte des noms de tous les domaines (fourni par tous les Masters
Browser de Domaine). Le serveur WINS maintient ainsi à jour une liste secondaire des domaines, cette liste est
alors distribuée aux différents Master Browser de Domaine sur demande et vers tous les segments du réseau.
Notons que ce mécanisme travaille en parallèle avec le principe développé dans la section précédente, chaque
Master Browser de Domaine obtient une liste globale en fusionnant leur liste propre avec la liste des domaines
obtenue via WINS. . Une machine cliente WINS est capable d'obtenir la liste des machines d'un domaine
distant
Pour la lancer, ouvrez une fenêtre MS-DOS en passant par le menu Démarrer/Programmes/Commandes MS-
DOS. Exécutez une première fois la commande net diag . Un message vous indique qu'aucun serveur de
diagnostic n'a été trouvé sur le réseau. Un résultat peu surprenant puisque c'est l'ordinateur sur lequel vous
venez de saisir cette commande qui est devenu le serveur de diagnostic.
Passez sur un autre ordinateur et lancez la même commande net diag . Cette fois un message doit vous
indiquer que le serveur en question a bien été trouvé, et il vous donne des indications sur le problème
rencontré.
Dans Windows, le service de Browsing (parcourir) maintient à jour une liste de domaines, de Workgroups, et
d'ordinateurs, puis il fournit cette liste aux applications la lui demandant. L'utilisateur voit la liste des ordinateurs
dans les circonstances suivantes .
La liste des ordinateurs est affichée dans les boites de dialogue telles que Connecter un Lecteur Réseau,
Connecter une Imprimante Réseau; ainsi que dans tous les cas où les ressources réseau peuvent être
listées.
La liste des ordinateurs peut également être affichée en utilisant la commande en ligne NET VIEW.
La liste peut contenir des noms de domaines, de Workgroups et d'ordinateurs dans lesquels un des service de
partage de fichiers ou bien de partage d'imprimantes est activé.
Par exemple :
- Domaines et Serveurs Windows NT
Le serveur Master Browser informe alors les serveurs de Backup du Master Browser que la liste des
ordinateurs a changé. Les serveurs de Backup du Master Browser demandent alors le contenu du changement
afin d'actualiser la liste des ordinateurs qu'ils possèdent. Il peut s'écouler jusqu'à 15 minutes avant que les
serveurs de Backup du Master Browser aient une mise à jour de la liste d'ordinateurs. Ceci explique donc
pourquoi un ordinateur qui rejoint le réseau peut ne pas apparaître instantanément dans la liste, et cela dans
l'intervalle des 15 minutes.
Une adresse IPv6 comprend 8 double-octets, notés en hexadécimal (qui comprend des chiffres et des lettres) et
séparés par ":" Exemple: 1080:0:FF:0:8 :800:20C:417A.
Dans ces 128 bits, sont délimités des champs, qui correspondent à différents niveaux d'adressage, afin d'établir
un plan d'adressage "agrégé" permettant de limiter la taille des tables de routage, et donc la charge dévolue
aux routeurs.
La même démarche avait été suivie pour les adresses IPv4 (notées sur 4 octets : 90.45.3.0, par
exemple) pour lesquelles on avait défini plusieurs classes (A, B, C).
Pour l'IPv6, le plan d'adressage comprend une topologie publique (notée sur les 48 premiers bits de l'adresse),
Une topologie de site (sur les 16 bits suivants) et un identifiant d'interface de réseau (sur les 64 derniers bits).
Pour les adresses "unicast" (à destination unique) publiques, la topologie publique comprend 3 bits pour le type
d'adresse, 13 bits pour les agrégateurs de premier niveau (TLA), 8 bits réservés pour un usage futur, et 24 bits
pour les agrégateurs de niveau suivant (NLA).
La topologie de site permet de hiérarchiser les organisations qui gèrent les réseaux, par exemple les
entreprises ou les administrations.
Enfin, l'identifiant d'interface est basé sur l'adresse MAC. Il existe d'autres types d'adresses. Outre les adresses
privées, comparables à celles définies dans la RFC 1918, et celles valables sur un lien point à point, l'IPv6
définit des adresses de diffusion très souples d'emploi.
Le "broadcast" de l'IPv4 (diffusion générale) est abandonné au profit d'une diffusion plus ciblée avec des
adresses de "multicast" et "anycast"
Ainsi, on peut désormais n'atteindre que les stations d'un réseau local ou de son organisation.
Ils remplacent le champ ToS (Type of service) de l'IPv4. Le second champ définit le flux auquel se rattache le
paquet. Il facilite le travail des routeurs pour mettre en oeuvre les protocoles de qualité de service comme le
RSVP.
Enfin, le champ TTL, qui déterminait la durée de vie, est remplacé par le nombre de sauts maximum que le
paquet peut effectuer.
Plusieurs mécanismes de l'IPv6 simplifient la mise en place des réseaux. Grâce à des messages ICMPv6, les
machines découvrent leur voisinage et les routeurs du réseau. Cela rend possible la découverte de paramètres
(MTU ou route par défaut, par exemple) et l'auto-configuration des tables de routage et des adresses des
stations.
L'attribution d'adresses se fait soit à travers le protocole DHCPv6 (avec état), soit sans état. Ces mécanismes
sont utilisés dans le cadre de la mobilité des hôtes.
Dans leurs déplacements, les appareils mobiles associent leur adresse temporaire, qu'ils construisent avec les
mécanismes de découverte, à leur adresse permanente. Le routeur de leur réseau d'origine fait suivre dans un
tunnel les données qui leur sont adressées.
Demandeurs d'adresses IP
La multiplication des appareils mobiles - PDA, Tablet PC - la téléphonie résidentielle en IP, qui se développe au
Japon, et peut-être demain la mise en réseau des appareils électroniques autres que les PC vont dans le même
sens: la demande d'adresses IPfixes
Certains fournisseurs d'accès à Internet sont en avance dans le déploiement de l'IPv6. Nerim propose à ses
clients l'attribution d'adresses IPv6, un service qui deviendra assez vite un véritable enjeu "Les causes de
pénurie d'adresses IPv4 sont nombreuses.
Par exemple, la demande croissante de serveurs HTTP sécurisés (HTTPS), lesquels ne peuvent héberger
qu'un seul site par adresse IP.
Grâce à la connexion permanente. les abonnés peuvent avoir leurs propres serveurs, avec une adresse pour
chacun.
Le réseau domestique a peut-être un bel avenir, avec la multiplication des réseaux Wi-Fi et la miniaturisation
des machines.
Les PME, qui payent cher l'achat de blocs d'adresses fixes et doivent en justifier la demande, y trouveront aussi
leur compte.
Parmi les demandeurs d'adresses, on trouve d'abord les opérateurs de téléphonie Mobile qui risquent d'être
gênés pour développer les services GPRS et UMTS. Le NAT qu'ils utilisent aujourd'hui limite les possibilités de
connexion entre mobiles, et l'attribution dynamique des adresses complique la gestion du réseau.
Le ministère américain de la Défense a créé le modèle de référence TCP/IP parce qu'il avait besoin d'un réseau
pouvant résister à toutes les conditions, même à une guerre nucléaire
La couche application
Les concepteurs du modèle TCP/IP estimaient que les protocoles de niveau supérieur devaient inclure les
détails des couches session et présentation. Ils ont donc simplement créé une couche application qui gère les
protocoles de haut niveau, les questions de représentation, le code et le contrôle du dialogue. Le modèle
TCP/IP regroupe en une seule couche tous les aspects liés aux applications et suppose que les données sont
préparées de manière adéquate pour la couche suivante.
La couche transport
La couche transport est chargée des questions de qualité de service touchant la fiabilité, le contrôle de flux et la
correction des erreurs. L'un de ses protocoles, TCP (Transmission Control Protocol - protocole de contrôle de
transmission), fournit d'excellents moyens de créer, en souplesse, des communications réseau fiables, circulant
bien et présentant un taux d'erreurs peu élevé. Le protocole TCP est orienté connexion. Il établit un dialogue
entre l'ordinateur source et l'ordinateur de destination pendant qu'il prépare les informations de couche
application en unités appelées segments. Un protocole orienté connexion ne signifie pas qu'il existe un circuit
entre les ordinateurs en communication (ce qui correspondrait à une commutation de circuits). Ce type de
fonctionnement indique qu'il y a un échange de segments de couche 4 entre les deux ordinateurs hôtes afin de
confirmer l'existence logique de la connexion pendant un certain temps. C'est ce que l'on appelle la
commutation de paquets.
La couche Internet
Le rôle de la couche Internet consiste à envoyer des paquets source à partir d'un réseau quelconque de
l'interréseau et à les faire parvenir à destination, indépendamment du trajet et des réseaux traversés pour y
arriver. Le protocole qui régit cette couche est appelé protocole IP (Internet Protocol).
L'identification du meilleur chemin et la commutation de paquets ont lieu au niveau de cette couche. Pensez au
système postal. Lorsque vous postez une lettre, vous ne savez pas comment elle arrive à destination (il existe
plusieurs routes possibles), tout ce qui vous importe c'est qu'elle arrive à bon port.
Le modèle TCP/IP met l'accent sur une souplesse maximale, au niveau de la couche application, à l'intention
des développeurs de logiciels.
La couche transport fait appel à deux protocoles : le protocole TCP (protocole de contrôle de transmission) et le
protocole UDP (User Datagram Protocol).
La couche inférieure, soit la couche d'accès au réseau, concerne la technologie LAN ou WAN utilisée.
Dans le modèle TCP/IP, IP (Internet Protocol) est le seul et unique protocole utilisé, et ce, quels que soient le
protocole de transport utilisé et l'application qui demande des services réseau. Il s'agit là d'un choix de
conception délibéré. IP est un protocole universel qui permet à tout ordinateur de communiquer en tout temps et
en tout lieu.
Similitudes
Tous deux comportent des couches.
Tous deux comportent une couche application, bien que chacune fournisse des services très différents.
Tous deux supposent l'utilisation de la technologie de commutation de paquets (et non de commutation
de circuits).
Différences
TCP/IP intègre la couche présentation et la couche session dans sa couche application.
TCP/IP regroupe les couches physique et liaison de données OSI au sein d'une seule couche.
Les protocoles TCP/IP constituent la norme sur laquelle s'est développé Internet. Aussi, le modèle
TCP/IP a-t-il bâti sa réputation sur ses protocoles. En revanche, les réseaux ne sont généralement pas
architecturés autour du protocole OSI, bien que le modèle OSI doit la référence en matière d'étude de
réseau
2°/ Le client à l'aide de la pile de protocoles de communication (0SI) crée ensuite des paquets à envoyer au
serveur CISCO. L'adresse IP du serveur est entrée avec la commande Ping. Quand l'ordinateur constate que
Cisco.com n'est pas une adresse locale, il envoie au routeur la trame de données qu'il a créée.
La trame de données générée apparaît sous les couches OSI
4°/ Le router retire la trame Ethernet et recherche l'adresse IP dans sa table de routage. Pour atteindre l'hôte
198.150.11.163, il doit utiliser l'interface 198.159.11.65.
Il consulte l'en-tête réseau afin de prendre une décision. A ce moment le paquet de données n'a pas de trame.
6°/ Le routeur suivant retire l'encapsulation de la trame PPP et recherche l'adresse IP 198.150.11.163. Il trouve
que cette adresse est directement connectée à l'interface 198.150.11.161
8°/ Le commutateur vérifie l'adresse MAC de destination de la trame (FE:ED:F9:EF:ED:EC) dans sa table
d'hôtes.
10°/ Le serveur vérifie l'adresse MAC, retire la trame de données, vérifie si l'adresse IP est la sienne, puis retire
l'en-tête IP et traite les données.
La règle des quatre répéteurs d'Ethernet stipule qu'un maximum de quatre répéteurs ou concentrateurs sont
autorisés entre deux ordinateurs de réseau.
Pour garantir le bon fonctionnement d'un réseau 10Base-T répété, la condition suivante doit être vraie : (délais
du répéteur + délais du câble + délais de la carte réseau) x 2 < délai maximal entre deux hôtes. En général, le
délai d'un répéteur 10Base-T est inférieur à 2 microsecondes; les délais du câble sont d'environ 0,55
microseconde tous les 100 mètres ; les délais des cartes réseau sont d'environ 1 microseconde par carte
réseau et le délai maximal entre deux hôtes (bit 10Base-T x 0,1 microseconde x taille minimale d'une trame de
512 bits) est de 51,2 microsecondes
Il est possible de réduire la taille des domaines de collision en les segmentant à l'aide d'équipements de réseau
intelligents. Les ponts, les commutateurs et les routeurs sont des exemples d'équipements de réseau
intelligents. Ce processus est appelé segmentation.
Un pont élimine le trafic inutile d'un réseau occupé en divisant ce dernier en segments et en filtrant le trafic en
fonction de l'adresse de la station. Ainsi, le trafic entre les équipements d'un même segment ne traverse pas le
pont et n'a donc pas d'effet sur les autres segments.
Cette technique fonctionne tant que le trafic entre les segments n'est pas trop élevé. Sinon, le pont devient un
goulot d'étranglement, ce qui ralentit la vitesse de communication. (rajouter des ponts)
L'envoi de trames a pour but de faire parvenir les données de couche supérieure et, au final, les données
d'application utilisateur, de l'ordinateur source à l'ordinateur de destination.
Le paquet de données que vous souhaitez livrer comporte deux parties. 1°/ le message que vous voulez
envoyer et,2°/ les octets encapsulés qui doivent parvenir à l'ordinateur de destination.
Ces données doivent être accompagnées de quelques autres octets. Appelés octets de remplissage, il sont
parfois ajoutés pour que les trames aient une longueur minimale à des fins de synchronisation.
Des octets LLC sont également ajoutés au champ de données dans les trames IEEE standard. Pour rappel, la
sous-couche LLC ajoute aux données du protocole réseau, (paquet IP), des informations de contrôle qui
facilitent l'acheminement du paquet IP. La couche 2 communique avec les couches de niveau supérieur par le
biais de la sous-couche LLC.
Toutes les trames, ainsi que les bits, les octets et les champs qu'elles contiennent, peuvent comporter des
erreurs provenant d'une multitude de sources. Une méthode de détection efficace, mais peu productive,
consiste à envoyer chaque trame deux fois ou à faire retourner par l'ordinateur de destination une copie de la
trame initiale à l'ordinateur source avant que celui-ci ne puisse envoyer une autre trame.
Un méthode de détection efficace consiste à éliminer uniquement les trames erronées, puis à les retransmettre.
Le champ de la séquence de contrôle de trame contient un nombre, calculé par l'ordinateur source, qui repose
sur les données contenues dans la trame. Lorsque l'ordinateur de destination reçoit la trame, il calcule à
nouveau la séquence de contrôle de trame et la compare à celle qui est incluse dans la trame. Si les deux
nombres sont différents, il y a une erreur, la trame est abandonnée et l'ordinateur source est invité à transmettre
à nouveau.
Il existe trois façons principales de calculer la séquence de contrôle de trame :
Code de redondance cyclique (CRC) - Exécution de calculs polynomiaux sur les données.
Parité bidimensionnelle - Ajout d'un 8ème bit grâce auquel une séquence de huit bits contient un nombre pair
ou impair de 1 binaires.
Somme de contrôle Internet - Somme résultant de l'addition des valeurs de tous les bits de données.
L'ordinateur qui transmet les données doit attirer l'attention des autres unités afin de commencer une trame. Il
doit ensuite procéder de la même manière pour mettre fin à la trame. Le champ de longueur implique la fin de la
trame. Celle-ci est terminée après la séquence de contrôle de trame (FCS). Il existe parfois une séquence
formelle d'octets appelée " délimiteur de fin de trame ".
L'expression MAC (Media Access Control) fait référence aux protocoles qui, dans un environnement à média
partagé (domaine de collision), déterminent l'ordinateur autorisé à transmettre des données. Avec la procédure
LLC, la procédure MAC forme la version IEEE de la couche 2, c'est-à-dire qu'elles sont toutes deux des sous-
couches de la couche 2. Il existe deux grandes catégories de protocoles MAC : les protocoles déterministes
(chacun son tour) et les protocoles non déterministes (premier arrivé, premier servi).
La couche réseau assure le transport des données parmi un ensemble de réseaux (interréseau). Les unités
utilisent le système d'adressage de la couche réseau pour déterminer la destination des données pendant leur
acheminement.
Les protocoles dépourvus de couche réseau ne conviennent qu'aux petits réseaux internes. Ces protocoles
n'utilisent généralement qu'un nom (l'adresse MAC) pour identifier les ordinateurs d'un réseau. L'inconvénient
de cette méthode est qu'il devient de plus en plus difficile de gérer les noms à mesure que le réseau s'étend (et
notamment d'assurer l'unicité des noms).
Les protocoles qui supportent la couche réseau utilisent un système d'adressage hiérarchique qui garantit
l'unicité des adresses au-delà des limites du réseau, ainsi qu'une méthode de sélection du chemin
d'acheminement des données entre les réseaux. Les adresses MAC, en revanche, utilisent un système
d'adressage linéaire qui rend difficile la localisation des unités dans d'autres réseaux.
L'adressage hiérarchique permet aux données de circuler dans des réseaux multiples et de trouver leur
destination de manière efficace. Le système téléphonique est un exemple de système d'adressage
hiérarchique.
Le système téléphonique utilise un indicatif régional pour diriger un appel vers son premier relais (saut). Les
trois chiffres suivants représentent le central téléphonique local (deuxième saut). Les quatre derniers chiffres
correspondent au numéro de l'abonné demandé (dernier saut, jusqu'à la destination).
Les unités d'un réseau ont besoin d'un système d'adressage cohérent leur permettant d'acheminer des paquets
d'un réseau à un autre dans l'inter réseau (ensemble de réseaux segmentés ou non utilisant le même système
d'adressage). Les unités utilisent le système d'adressage de la couche réseau pour déterminer la destination
des données tout au long de leur cheminement dans l'inter réseau.
Les routeurs sont des unités d'interconnexion de réseaux qui fonctionnent au niveau de la couche 3 OSI
(couche réseau). Ils interconnectent des segments de réseau ou des réseaux entiers. Leur rôle consiste à
acheminer les paquets de données entre les réseaux, en fonction des informations de la couche 3.
Les routeurs prennent des décisions logiques d'optimisation pour choisir la meilleure voie d'acheminement des
données d'un réseau à un autre et dirigent ensuite les paquets vers le port de sortie qui correspond au segment
de réseau suivant. Le routeur reçoit des paquets de données des unités LAN (stations de travail, par exemple)
et, en fonction des informations de couche 3, les achemine dans le réseau. Le routage est parfois appelé
commutation de couche 3
La sélection du chemin est le processus que le routeur utilise pour choisir le prochain saut du trajet que le
paquet empruntera vers sa destination. Ce processus est également connu sous le nom de routage du paquet.
Exemple:
Vous voulez envoyer des données d'un réseau à l'autre. Le réseau source est A, le réseau de destination est B
et un routeur est relié aux réseaux A, B, C et D. Lorsque les données (trames) provenant du réseau A
atteignent le routeur, celui-ci exécute les fonctions suivantes :
1. Il supprime l'en-tête de liaison de données transporté par la trame (l'en-tête de liaison de données
contient les adresses MAC d'origine et de destination).
3. Il consulte ses tables de routage pour déterminer l'interface par laquelle les données doivent être
envoyées au réseau de destination.
Dans notre exemple, le routeur détermine qu'il doit envoyer les données du réseau A au réseau B par l'interface
ayant d'adresse B1. Avant d'envoyer les données par l'interface B1, le routeur les encapsule dans la trame de
liaison de données appropriée.
L'adresse MAC est semblable au nom d'une personne. Quant à son adresse réseau, elle est comparable à une
adresse postale. Ainsi, lorsqu'une personne déménage, elle conserve son nom, mais son adresse postale
indique son nouvel emplacement.
Les unités réseau (tant les routeurs que les ordinateurs individuels) sont dotées d'une adresse MAC et d'une
adresse de protocole (couche réseau). Si un ordinateur est déplacé physiquement vers un autre réseau, il
conserve son adresse MAC, mais une nouvelle adresse réseau doit lui être attribuée
Le protocole IP détermine le format de l'en-tête IP (qui comprend les informations d'adressage et de contrôle),
mais ne se préoccupe pas des données proprement dites. Il accepte tout ce qui provient des couches
supérieures.
L'adresse IP
Une des choses les plus intéressantes du protocole TCP/IP est d'avoir attribué un numéro fixe, comme un
numéro de téléphone, à chaque ordinateur connecté sur Internet; ce numéro est appelé l'adresse IP.
Dans le cadre du standard actuel - IPV4 -, les adresses sont codés sur 32 bits. Ainsi, tout ordinateur sur
Internet, par exemple le vôtre lorsque vous vous connectez par l'entremise de votre provider, se voit attribuer
une adresse de type a.b.c.d (où a,b,c,d sont des nombres compris entre 0 et 255), par exemple 202.15.170.1.
Dès ce moment, vous êtes le seul au monde à posséder ce numéro, et vous y êtes en principe directement
atteignable.
Un rapide calcul vous montre qu'il y a, en théorie, un maximum de 2564 = 4'294'967'296 adresses possibles, ou,
en d'autres termes, d'ordinateurs directement connectables, ce qui est plus que suffisant même à l'échelle
mondiale (du moins à l'heure actuelle !).
En fait, il y a beaucoup moins d'adresses que ce nombre impressionnant, car de nombreux numéros IP ne sont
pas autorisés ou sont utilisés à des fins "techniques".
Pour l'ordinateur, cette adresse IP est codée en binaire (4 x 8 bits = 32 bits). Par exemple,
202 15 170 1
11001010 00001111 10101010 00000001
Il est clair qu'il est plus facile de retenir 202.15.170.1 que 11001010000011111010101000000001 !
classe adresses
A 0.0.0.0 à 127.255.255.255
B 128.0.0.0 à 191.255.255.255
C 192.0.0.0 à 223.255.255.255
D 224.0.0.0 à 239.255.255.255
E 240.0.0.0 à 247.255.255.255
Ainsi, les adresses de classe A sont utilisées pour les très grands réseaux qui comportent plus de 216=65 536
ordinateurs. Au niveau mondial, il ne peut exister plus de 127 tels réseaux, par exemple celui de la défense
américaine ou du MIT, mais la politique actuelle est de ne plus définir de tels réseaux. Les adresses de classe
B sont utilisées pour les réseaux ayant entre 28=256 et 216=65 536 ordinateurs, 14 bits définissent l'adresse du
réseau et 16 bits celle d'une machine sur le réseau. Seules 256 machines sont possibles sur un réseau de
classe C dont le nombre possible dépasse les 2 millions (=221).
La classe D (adresse multicast) est utilisé pour les réseaux point – multipoint, pas de structuration
utilisée pour les système de vidéo-conférence par exemple
L'obtention d'une adresse IP pour créer un nouveau réseau est gérée par l'INTERNIC de manière
décentralisée, à savoir qu'un organisme national gère les demandes pour chaque pays. En France c'est l'INRIA
(Institut National de Recherche en Informatique et Automatique) qui est chargé de cette tâche. Au lieu d'utiliser
un adressage plat 1, 2, 3, ... la méthode retenue est plus efficace car elle permet une extraction rapide du
numéro de réseau à l'intérieur d'une adresse IP ce qui facilitera le routage.
Toutes les combinaisons mathématiquement possibles pour identifier un réseau ou une machine ne sont pas
permises car certaines adresses ont des significations particulières.
0.0.0.0 est utilisée par une machine pour connaître sa propre adresse IP lors d'une processus d'amorçage par
exemple
<id. de réseau nul>.<id. de machine> est également utilisée pour désigner une machine sur son réseau lors
d'un boot également
<id. de réseau>.<id. de machine nul> n'est jamais affectée à une machine car elle permet de désigner le réseau
lui-même
<id. de réseau>.<id. de machine avec tous ses bits à 1> est une adresse de diffusion ou de broadcasting, c'est-
à-dire qu'elle désigne toutes les machines du réseau concerné. Un datagramme adressé à cette adresse sera
ainsi envoyé à toutes les machines du réseau.
255.255.255.255 est une adresse de diffusion locale car elle désigne toutes les machines du réseau auquel
appartient l'ordinateur qui utilise cette adresse. L'avantage par rapport à l'adresse précédente est que l'émetteur
n'est pas obligé de connaître l'adresse du réseau auquel il appartient.
127.X.Y.Z est une adresse de rebouclage qui est utilisée pour permettre les communications inter-processus
sur un même ordinateur ou réaliser des tests de logiciels car tout logiciel de communication recevant des
données pour cette adresse les retourne simplement à l'émetteur.
Le système des adresses IP permet également la définition d'adresses de sous-réseaux en découpant la partie
réservée à l'adresse des machines sur un réseau en deux parties dont la première sera un identificateur de
sous-réseau. Ainsi un seul réseau de classe B, sur lequel on pourrait nommer 65 536 machines pourra être
décomposé en 254 sous-réseaux de 254 machines, de la manière décrite ci-dessous.
<id. de réseau sur 16 bits>.<id. de sous-réseau sur 8 bits>.<id. de machine sur 8 bits>
L'administrateur d'un réseau peut décider de découper où il veut la zone des identificateurs de machines, mais
le découpage «autour du .» facilite le travail des routeurs. On peut également adopter le même principe pour un
réseau de classe C. Cette technique a pour effet de provoquer un routage hiérarchique.
Les masques de sous-réseau utilisent le même format que les adresses IP. Leur longueur est de 32 bits et ils sont divisés en quatre octets
exprimés au format décimal. La portion réseau des masques de sous-réseau (déterminée par la classe d'adresses), ainsi que les bits de
sous-réseau voulus, ne contiennent que des 1. Tous les autres bits sont réglés sur 0, ce qui les identifie comme la portion hôte de l'adresse.
Par défaut, si aucun bit n'est emprunté, le masque de sous-réseau d'un réseau de classe B est 255.255.0.0, ce qui correspond au format
décimal d'une série de 1 dans les 16 bits représentant le numéro de réseau de classe B.
Si 8 bits sont empruntés pour le champ de sous-réseau, le masque de sous-réseau comprend 8 bits à 1 supplémentaires, soit
255.255.255.0.
Par exemple, si le masque de sous-réseau 255.255.255.0 était mis en correspondance avec l'adresse de classe B 130.5.2.144 (8 bits
empruntés pour le sous-réseau), le routeur saurait qu'il doit acheminer le paquet au sous-réseau 130.5.2.0 plutôt qu'au réseau 130.5.0.0.
Un autre exemple est l'adresse de classe C 197.15.22.131 avec un masque de sous-réseau de 255.255.255.224. La valeur 224 de l'octet
final (11100000 en format binaire) indique que la portion réseau de classe C de 24 bits a été prolongée de 3 bits pour un total de 27 bits. La
valeur 131 du dernier octet représente maintenant la troisième adresse hôte utilisable du sous-réseau 197.15.22.128. Les routeurs
Internet (qui ignorent le masque de sous-réseau) se chargeront simplement d'acheminer le paquet au réseau de classe C 197.15.22.0, alors
que les routeurs au sein de ce réseau, qui connaissent le masque de sous-réseau, analyseront 27 bits avant de prendre une décision de
routage.
Avec sept bits dans le champ de sous-réseau, le nombre de sous-réseaux est limité à 126. Combien d'hôtes
chaque sous-réseau peut-il recevoir ? Quelle est la longueur du champ d'hôte ? Avec neuf bits disponibles pour
les numéros d'hôte, chacun des 126 sous-réseaux peut recevoir 510 hôtes.
Pour acheminer un paquet de données, le routeur doit d'abord déterminer l'adresse du réseau/sous-réseau de
destination. Pour ce faire, le routeur exécute une opération AND logique sur l'adresse IP de l'hôte de destination
et le masque de sous-réseau.
Les deux schémas de cette page montrent une façon différente d'exprimer le masque de sous-réseau. Vous
savez que les 1 du masque représentent les bits de routage : le réseau plus le sous-réseau. 255.255.255.0
indique qu'il y a, au total, 24 bits de routage.
Ces informations sont parfois exprimées par " /24 " après une adresse IP, comme dans 131.108.3.1 /24 ; cela
est identique à la version plus longue du masque de sous-réseau.
Le paquet/datagramme de couche 3 se
transforme en données de la couche 2,
lesquelles sont ensuite encapsulées dans
des trames (comme nous l'avons déjà
mentionné).
HLEN (IP header length - Longueur de l'en-tête IP) - indique la longueur de l'en-tête du datagramme en mots
de 32 bits (4 bits).
Type de service - indique l'importance qui lui a été accordée par un protocole de couche supérieure donné (8
bits).
Longueur totale - précise la longueur du paquet IP en entier, y compris les données et l'en-tête, en octets (16
bits).
Identification - contient un nombre entier qui identifie le datagramme actuel (16 bits).
Indicateurs - un champ de 3 bits dont les 2 bits inférieurs contrôlent la fragmentation – un bit précise si le
paquet peut être fragmenté et le second indique si le paquet est le dernier fragment d'une série de paquets
fragmentés (3 bits).
Décalage de fragment - ce champ sert à rassembler les fragments du datagramme (13 bits).
Durée de vie - un compteur qui décroît graduellement, par incréments, jusqu'à zéro. À ce moment, le
datagramme est supprimé, ce qui empêche les paquets d'être continuellement en boucle (8 bits)
Protocole - précise le protocole de couche supérieure qui recevra les paquets entrants après la fin du
traitement IP (8 bits).
Options - cet élément permet au protocole IP de supporter différentes options, telles que la sécurité (longueur
variable).
Données - cet élément contient des informations de couche supérieure (longueur variable, maximum 64 Ko).
Remplissage - des zéros sont ajoutés à ce champ pour s'assurer que l'en-tête IP est toujours un multiple de 32
bits.
Les ponts et les commutateurs utilisent les adresses physiques, ou adresses MAC, pour prendre leurs
décisions de transmission. Les routeurs recourent à un système d'adressage de couche 3 pour prendre leurs
décisions de transmission. Ils utilisent les adresses IP, ou adresses logiques, au lieu des adresses MAC.
Comme les adresses IP sont mises en œuvre dans le logiciel et se réfèrent au réseau auquel appartient
l'équipement, ces adresses de couche 3 sont souvent appelées adresses de niveau protocole ou adresses
réseau.
les ponts et les commutateurs permettent principalement de relier les segments d'un même réseau. Les
routeurs servent à relier des réseaux distincts et à accéder à Internet. Pour ce faire, ils assurent le routage de
bout en bout.
Attribution d'adresses Ip
Après avoir déterminé la méthode d'adressage d'un réseau, vous devez choisir la méthode d'attribution des
adresses aux hôtes. Les deux méthodes essentielles permettant d'attribuer des adresses IP sont la méthode
statique et la méthode dynamique. Quelle que soit la méthode choisie, deux interfaces ne peuvent jamais avoir
la même adresse IP.
Adressage statique
Si vous attribuez des adresses IP de manière statique, vous devez accéder à chaque équipement pour
configurer son adresse IP. Cette méthode exige que vous teniez à jour méticuleusement vos enregistrements,
car l'utilisation d'adresses en double provoque des problèmes sur le réseau. Certains systèmes d'exploitation
tels que Windows 95 et Windows NT envoient une requête ARP pour vérifier qu'il n'existe pas d'adresses IP en
double lors de l'initialisation de TCP/IP. S'ils détectent une adresse en double, ils n'initialisent pas TCP/IP et
génèrent un message d'erreur. La tenue à jour des enregistrements est également importante dans le cas où le
système d'exploitation ne détecte pas les adresses IP en double.
Le protocole de résolution inverse d'adresses utilise le même format de paquet que le protocole ARP.
Cependant, dans une requête RARP, les en-têtes MAC et IP ainsi que le " code de fonctionnement " sont
différents de ceux d'une requête ARP. La structure du paquet RARP contient des champs pour les adresses
MAC d'origine et de destination. Le champ de l'adresse IP d'origine est vide. Le message de broadcast étant
envoyé à tous les équipements du réseau, l'adresse IP de destination est définie sur tous les 1 binaires. Les
stations de travail exécutant le protocole de résolution inverse d'adresses comportent des codes en mémoire
ROM qui déclenchent le processus RARP et repèrent le serveur RARP.
Au démarrage, un client DHCP passe à l'état d'initialisation. Il envoie des messages de broadcast
DHCPDISCOVER, qui sont des paquets UDP dont le numéro de port est celui du port BOOTP. Après avoir
envoyé les paquets DHCPDISCOVER, le client passe à l'état de sélection et recueille les réponses
DHCPOFFER du serveur DHCP.
Le client sélectionne ensuite la première réponse reçue et négocie avec le serveur DHCP la période d'utilisation
(période pendant laquelle il peut conserver l'adresse sans avoir à la renouveler) en envoyant un paquet
DHCPREQUEST. Le serveur DHCP accuse réception de la requête du client par un paquet DHCPACK. Le
client passe à l'état de liaison et commence à utiliser l'adresse.
Requête ARP
Pour que des équipements puissent communiquer, les équipements émetteurs ont besoin des adresses IP et
MAC des équipements de destination. Lorsqu'un équipement tente de communiquer avec un autre équipement
dont il connaît l'adresse IP, il doit en déterminer l'adresse MAC. La pile de protocoles TCP/IP comprend un
protocole appelé ARP qui peut obtenir automatiquement l'adresse MAC. Le protocole ARP permet à un
ordinateur de trouver l'adresse MAC de l'ordinateur associé à une adresse IP.
Remarque : L'unité de base du transfert de données IP est le paquet IP. Le traitement des paquets a lieu au
niveau du logiciel ; autrement dit, leur contenu et leur format ne sont pas tributaires du matériel. Un paquet
comporte deux éléments principaux : l'en-tête, qui contient les adresses d'origine et de destination, ainsi que les
données. D'autres types de protocole ont un format qui leur est propre. Le paquet IP est spécifique au protocole
IP.
Remarque : Le protocole ICMP (Internet Control Message Protocol) est un autre élément clé du protocole IP.
Ce protocole permet à un équipement de signaler un problème à l'expéditeur d'un message. Par exemple, si un
routeur reçoit un paquet qu'il ne peut pas acheminer, il envoie un message à l'expéditeur de ce paquet. L'une
des nombreuses caractéristiques du protocole ICMP est la composante echo-request/echo-reply qui vérifie si
un paquet peut atteindre une destination en envoyant une requête (ping) à cette destination.
Les protocoles de couche 3 déterminent si les données sont transmises aux niveaux supérieurs du modèle OSI.
Un paquet de données doit contenir une adresse MAC de destination et une adresse IP de destination. Si l'une
ou l'autre manque, les données ne sont pas transmises depuis la couche 3 aux couches supérieures.
Ainsi, les adresses MAC et IP se contrôlent et s'équilibrent mutuellement. Une fois que les équipements ont
déterminé les adresses IP des équipements de destination, ils peuvent ajouter les adresses MAC de destination
aux paquets de données.
Les équipements disposent de différentes méthodes pour déterminer les adresses MAC à ajouter aux données
encapsulées.
Certains tiennent à jour des tables contenant toutes les adresses MAC et IP des autres équipements connectés
au même réseau local. Ces tables, appelées tables ARP, mappent les adresses IP avec les adresses MAC
correspondantes. Les tables ARP sont des sections de mémoire RAM dans lesquelles la mémoire cache est
mise à jour automatiquement dans chaque équipement. Il est très rare que vous ayez à entrer manuellement
des informations dans une table ARP. Chaque ordinateur du réseau met à jour sa propre table ARP. Chaque
fois qu'un équipement souhaite envoyer des données sur le réseau, il utilise les informations contenues dans sa
table ARP.
Lorsqu'une source détermine l'adresse IP d'une destination, elle consulte sa table ARP pour trouver l'adresse
MAC de destination. Si la source trouve une entrée dans sa table (adresse IP de destination correspondant à
l'adresse MAC de destination), elle relie ou associe l'adresse IP à l'adresse MAC et l'utilise pour encapsuler les
données.
Pour qu'un équipement puisse communiquer avec un équipement d'un autre réseau, il a besoin d'une
passerelle par défaut. Une passerelle par défaut est l'adresse IP de l'interface du routeur qui est connectée au
segment de réseau sur lequel se trouve l'hôte source. L'adresse IP de la passerelle par défaut doit se trouver
sur le même segment de réseau que l'hôte source.
Si aucune passerelle par défaut n'est définie, la communication n'est possible que sur le segment de réseau
logique de l'équipement. L'ordinateur qui envoie les données établit une comparaison entre l'adresse IP de
destination et le contenu de sa table ARP. S'il ne trouve aucune correspondance, l'ordinateur doit pouvoir
utiliser une adresse IP par défaut. Sans passerelle par défaut, l'ordinateur source n'a pas d'adresse MAC de
destination et le message ne peut pas être acheminé.
Communication inter-réseau
Un des principaux problèmes à résoudre dans le domaine des réseaux est la manière de communiquer avec
des équipements qui ne se trouvent pas sur le même segment de réseau physique. Le problème comporte
deux volets. Le premier consiste à obtenir l'adresse MAC de l'hôte de destination et le second, à transférer les
paquets de données d'un segment de réseau vers un autre pour parvenir à l'hôte de destination.
Le protocole ARP utilise des paquets de broadcast pour exécuter sa fonction. Cependant, les routeurs ne
transmettent pas les paquets de broadcast.
Pour qu'un équipement puisse envoyer des données à l'adresse d'un équipement situé sur un autre segment du
réseau, il doit envoyer les données à une passerelle par défaut. La passerelle par défaut est l'adresse IP de
l'interface du routeur qui est connectée au même segment de réseau physique que l'hôte source. L'hôte source
compare l'adresse IP de destination à sa propre adresse IP afin de déterminer si les deux adresses sont situées
sur le même segment. Si l'hôte de destination ne se trouve pas sur le même segment, l'hôte d'origine envoie les
données à la passerelle par défaut.
Proxy ARP
Proxy ARP est une variante du protocole ARP. Dans ce cas, un équipement intermédiaire (par exemple, un
routeur) envoie une réponse ARP pour le compte d'un nœud d'extrémité à l'hôte demandeur. Les routeurs
exécutant le protocole proxy ARP capturent les paquets ARP. Ils répondent avec leurs adresses MAC aux
requêtes dans lesquelles l'adresse IP n'est pas comprise dans la plage d'adresses du sous-réseau local.
Dans la description précédente qui expliquait la façon dont les données étaient envoyées à un hôte situé sur un
autre sous-réseau, la passerelle par défaut était configurée. Si aucune passerelle par défaut n'est configurée
pour l'hôte source, il envoie une requête ARP. Tous les hôtes du segment, y compris le routeur, reçoivent la
requête ARP. Le routeur compare l'adresse IP de destination à l'adresse IP du sous-réseau afin de déterminer
si l'adresse IP de destination se situe sur le même sous-réseau que l'hôte source.
Si l'adresse du sous-réseau est la même, le routeur ignore le paquet, car l'adresse IP de destination se trouve
sur le même segment que l'adresse IP de l'hôte source. Autrement dit, un autre équipement du segment doit
Si l'adresse de sous-réseau est différente, le routeur répond avec sa propre adresse MAC pour l'interface qui
est directement reliée au segment sur lequel se trouve l'hôte source. Il s'agit du protocole proxy ARP. Comme
l'adresse MAC n'est pas disponible pour l'hôte de destination, le routeur fournit son adresse MAC pour obtenir
le paquet. Il peut alors transmettre la requête ARP (basée sur l'adresse IP de destination) au sous-réseau
approprié pour qu'elle soit acheminée à destination.
Processus ARP
Les protocoles de routage donnent à des routeurs interconnectés les moyens de cartographier le chemin vers
n'importe quel autre routeur dans le même réseau ou sur Internet. Cela permet le routage, c'est à dire la
sélection du meilleur chemin, puis la commutation. Ces cartes sont intégrées dans la table de routage de
chaque routeur.
Les protocoles IGP (Interior Gateway Protocols) et EGP (Exterior Gateway Protocols) sont deux types de
protocole de routage. Les protocoles EGP acheminent les données entre des systèmes autonomes. BGP
(Border Gateway Protocol) est un exemple de protocole EGP, qui est le principal protocole de routage externe
d'Internet.
Routage IGRP
Le protocole IGRP a été spécifiquement développé pour résoudre les problèmes associés au routage dans de
grands réseaux multifournisseurs, qui dépassaient la portée des protocoles tels que RIP. Tout comme RIP, le
protocole IGRP est un protocole à vecteur de distance. Toutefois, pour déterminer le meilleur chemin, il tient
compte d'autres facteurs tels que la bande passante, la charge, le délai et la fiabilité. Les administrateurs
réseau peuvent déterminer l'importance donnée à chacune de ces métriques ou autoriser le protocole IGRP à
calculer automatiquement le meilleur chemin.
Le protocole EIGRP est une version perfectionnée du protocole IGRP. Il est plus efficace et combine les
avantages des protocoles à état de liens à ceux des protocoles à vecteur de distance
OSPF est l'acronyme de Shortest Path First (" plus court chemin d'abord "). Il serait toutefois plus juste de
décrire ce protocole IGP en tant que protocole " déterminant le chemin optimal ", car il utilise plusieurs critères
pour sélectionner le meilleur chemin vers une destination. Ces critères incluent des métriques de coût qui
tiennent comptent notamment de la vitesse d'acheminement, du trafic, de la fiabilité et de la sécurité.
Les routeurs utilisent des protocoles de routage pour échanger des tables de routage et d'autres informations
de routage. Dans un réseau, le protocole le plus utilisé pour transférer les informations de routage entre les
routeurs est le protocole RIP. Ce protocole IGP (Interior Gateway Protocol) calcule la distance jusqu'à un hôte
de destination selon le nombre de sauts (c'est-à-dire le nombre de routeurs) par lesquels doit passer un paquet.
Le protocole RIP permet aux routeurs de mettre à jour leurs tables de routage à des intervalles programmables,
généralement toutes les 30 secondes. Les routeurs utilisant le protocole RIP présentent l'inconvénient de se
connecter constamment aux routeurs voisins pour mettre à jour leurs tables de routage, ce qui augmente
considérablement le trafic sur le réseau.
Le protocole RIP permet également aux routeurs de déterminer le meilleur chemin à utiliser pour envoyer des
données. Pour ce faire, il utilise un concept appelé vecteur de distance. Lorsque les données passent par un
routeur et, donc, par un nouveau numéro de réseau, cette action équivaut à un saut. Un chemin dont le nombre
de sauts est égal à quatre, indique que les données empruntant ce chemin doivent passer par quatre routeurs
avant d'atteindre leur destination finale. S'il existe plusieurs chemins vers une destination, le chemin sélectionné
par le routeur est celui qui comporte le moins de sauts.
Comme le nombre de sauts est la seule métrique de routage utilisée par le protocole RIP, il n'est pas garanti
que le chemin sélectionné soit le plus rapide. Une métrique sert à prendre des décisions. Vous apprendrez
bientôt que d'autres protocoles de routage utilisent d'autres métriques en plus du nombre de sauts pour
déterminer le meilleur chemin de transmission des données. Néanmoins, l'utilisation du protocole RIP est
toujours très répandue. Sa popularité est probablement due au fait qu'il a été l'un des premiers protocoles de
routage à être développé.
Le protocole RIP présente un autre inconvénient, car il arrive parfois que la destination choisie ne peut pas être
atteinte en raison de son éloignement. Avec le protocole RIP, les données ne peuvent pas passer par plus de
15 sauts. Par conséquent, il n'est pas possible d'atteindre un réseau de destination situé à une distance de plus
de 15 sauts.
Les routeurs peuvent prendre en charge simultanément de nombreux protocoles de routage indépendants et
tenir à jour les différentes tables de routage associées aux protocoles routés. Un routeur peut ainsi livrer les
paquets de plusieurs protocoles routés sur les mêmes liaisons de données.
Tables de routage
Un routeur peut être connecté à plusieurs réseaux ou sous-réseaux. En règle générale, les équipements de
réseau mappent les adresses IP avec les adresses MAC qu'ils rencontrent régulièrement. En d'autres termes,
un équipement type contient les informations de mappage appartenant uniquement aux équipements de son
propre réseau. Il dispose de très peu d'informations concernant les équipements externes à son réseau local.
Les routeurs créent des tables qui décrivent tous les réseaux auxquels ils sont connectés. Les tables ARP
gérées par les routeurs peuvent donc contenir les adresses IP et MAC des équipements de plusieurs réseaux.
En outre, elles mappent non seulement les adresses IP avec les adresses MAC, mais aussi les ports.
201.100.100.0 201.100.100.1
201.100.101.0 201.100.101.1
201.100.120.0 201.100.120.1
201.100.150.0 201.100.150.1
Il arrive parfois qu'une source résidant sur un réseau ait un numéro de réseau différent de celui de la destination
souhaitée. Si cette source ne connaît pas l'adresse MAC de destination, elle doit recourir aux services d'un
routeur. Avec l'aide d'un routeur, les données de la source peuvent parvenir à leur destination. Le routeur utilisé
à cette fin est appelé passerelle par défaut.
Pour obtenir les services d'une passerelle par défaut, la source encapsule les données de manière à ce qu'elles
contiennent l'adresse MAC de destination du routeur. Dans l'en-tête IP, la source utilise l'adresse IP de
destination de l'équipement hôte, et non celle du routeur, parce qu'elle veut transmettre les données à cet
équipement et non au routeur.
Lorsqu'un routeur prélève des données, il supprime les informations de la couche liaison de données utilisées
dans l'encapsulation. Il transmet ensuite les données jusqu'à la couche réseau où il examine l'adresse IP de
destination. Il compare cette adresse aux informations incluses dans ses tables de routage. S'il trouve l'adresse
IP de destination mappée avec l'adresse MAC et apprend que le réseau de destination est relié à l'un de ses
ports, il encapsule les données avec la nouvelle adresse MAC puis les achemine vers la destination appropriée.
S'il ne trouve pas l'adresse de destination mappée avec l'adresse MAC de l'équipement de destination finale, il
recherche l'adresse MAC d'un autre routeur qui peut assurer cette fonction, puis lui transmet les données. Ce
type de routage est appelé routage indirect.
L'expression " qualité de service " est souvent utilisée pour décrire l'utilité de la couche 4, la couche transport.
Son rôle principal est de transporter et de contrôler le flux d'informations de la source à la destination et ce, de
manière fiable et précise.Le contrôle de bout en bout, assuré par des fenêtres glissantes, la fiabilité des
numéros de séquençage et des accusés de réception sont des fonctions essentielles de la couche 4.
Pour comprendre la fiabilité et le contrôle du flux, imaginez un étudiant qui fait l'apprentissage d'une nouvelle
langue pendant un an. Imaginez ensuite qu'il visite le pays dans lequel cette langue est parlée couramment.
Lorsqu'il communique dans cette langue, il doit demander à la personne de répéter chacune de ses phrases
(fiabilité) et de parler lentement, pour s'assurer de saisir chacun des mots (contrôle de flux).
Ce cursus met l'accent sur les réseaux Ethernet TCP/IP. Le protocole TCP/IP de la couche 4 (couche transport)
du modèle OSI comprend deux protocoles : TCP et UDP.
Le protocole TCP assure un circuit virtuel entre les applications utilisateur. Ses caractéristiques sont les
suivantes :
Il est orienté connexion.
Il est fiable.
Il divise les messages sortants en segments.
Il assemble des messages au niveau de la station de destination.
Il renvoie toute donnée non reçue.
Il assemble des messages à partir des segments entrants.
UDP transporte les données de manière non fiable entre les hôtes. Les caractéristiques du protocole UDP sont
les suivantes :
Il n'est pas orienté connexion.
Il est peu fiable.
Il transmet des messages (appelés datagrammes utilisateurs).
Il n'offre pas de vérification logicielle pour la livraison des messages (non fiable).
Il n'assemble pas les messages entrants.
Il n'utilise pas d'accusés de réception.
Il n'assure aucun contrôle de flux.
Le protocole de contrôle de transmission (TCP) est un protocole de couche 4 (couche transport) orienté
connexion qui fournit une transmission de données fiable en mode full duplex. TCP fait partie de la pile de
protocoles TCP/IP.
Le protocole de datagramme utilisateur (UDP) est le protocole de transport non orienté connexion de la pile de
protocoles TCP/IP. UDP est un protocole simple qui échange des datagrammes, sans accusé de réception, ni
distribution garantie. Le traitement des erreurs et la retransmission doivent être effectués par d'autres
protocoles.
Le protocole UDP n'utilise ni fenêtrage, ni accusé de réception. Par conséquent, les protocoles de couche
application doivent assurer la fiabilité. Le protocole UDP est conçu pour les applications qui ne doivent pas
assembler de séquences de segments.
Les protocoles TCP et UDP utilisent des numéros de port (ou de socket) pour transmettre des informations aux
couches supérieures. Les numéros de port servent à distinguer les différentes conversations qui circulent
simultanément sur le réseau. Les développeurs d'applications ont convenu d'utiliser les numéros de port bien
connus qui sont définis dans la spécification RFC1700. Toute conversation destinée à l'application FTP utilise le
numéro de port standard 21.
Les conversations qui ne visent pas des applications ayant des numéros de port reconnus se voient attribuer
des numéros aléatoires sélectionnés à l'intérieur d'une plage donnée. Ces numéros de port sont utilisés comme
adresses d'origine et de destination dans le segment TCP.
Certains ports sont réservés au sein des protocoles TCP et UDP, bien que les applications ne soient pas
nécessairement écrites pour les supporter. Les plages attribuées aux numéros de port sont les suivantes :
Numéros inférieurs à 255 - réservés aux applications publiques.
Numéros entre 255 et 1023 - attribués aux entreprises pour les applications commercialisables.
Les services orientés connexion comportent trois phases. Au cours de la phase d'établissement de la
connexion, un chemin unique entre les unités d'origine et de destination est déterminé. Les ressources sont
généralement réservées à ce moment pour assurer une qualité de service constante. Pendant la phase de
transfert des données, celles-ci sont transmises de manière séquentielle par le chemin établi et arrivent à
destination dans l'ordre où elles ont été envoyées. La phase de fermeture de la connexion consiste à mettre fin
à la connexion entre la source et la destination lorsqu'elle n'est plus nécessaire.
Les hôtes TCP établissent une session orientée connexion entre eux suivant un protocole d'échange en trois
étapes. Un processus d'échange en trois étapes, appelé aussi " à connexion ouverte ", assure la
synchronisation d'une connexion aux deux extrémités avant que les données transférées n'arrivent aux
extrémités. Cet échange de numéros de séquence préliminaires, qui a lieu au cours de la séquence de
connexion, est important. Il garantit en effet la récupération de toute donnée perdue à la suite de problèmes de
transmission.
Tout d'abord, un ordinateur hôte amorce une connexion en envoyant un paquet indiquant son numéro de
séquence initial, " x ", avec un bit donné dans l'en-tête pour indiquer une demande de connexion. Ensuite,
l'autre ordinateur hôte reçoit le paquet, consigne le numéro de séquence de " x ", répond par un accusé de
réception de " x+1 " et inclut son propre numéro de séquence initial de " y ". Le numéro d'accusé de réception
de " x+1 " indique que l'hôte a reçu tous les octets, jusqu'à " x " inclusivement, et qu'il attend maintenant
l'arrivée de " x+1 ".
La technique PAR, acronyme de Positive Acknowledgement and Retransmission, est utilisée par de nombreux
protocoles comme gage de fiabilité. Selon la technique PAR, la source envoie un paquet, démarre un compteur
et attend un accusé de réception avant d'envoyer le paquet suivant. Si le compteur arrive à expiration avant que
la source n'ait reçu un accusé de réception, elle retransmet le paquet et redémarre le compteur.
La taille de la fenêtre détermine la quantité de données que vous pouvez transmettre en même temps avant de
recevoir un accusé de réception de la destination. Plus la taille (en octets) de la fenêtre est grande, plus la
quantité de données qui peuvent être transmises par l'hôte est importante. Après avoir transmis le nombre
d'octets déterminé par la taille de la fenêtre, un hôte doit recevoir un accusé de réception, confirmant que les
données ont bien été reçues, avant de pouvoir transmettre de nouveaux messages. Par exemple, si la taille de
la fenêtre est 1, un accusé de réception doit être émis pour confirmer la réception d'un segment avant que vous
puissiez envoyer le segment suivant.
Le protocole TCP utilise des accusés de réception prévisionnels, ce qui signifie que le numéro de l'accusé de
réception indique le prochain octet attendu. On dit que la fenêtre est glissante car la taille de la fenêtre est
déterminée de manière dynamique au cours de la session TCP. Il s'ensuit une utilisation inefficace de la bande
passante par les hôtes.
Le protocole TCP assure le séquençage des segments grâce à des accusés de réception vers l'avant. Chaque
datagramme est numéroté avant la transmission. Au niveau de la station de réception, le protocole TCP
assemble le segment en un message complet. Si un numéro de séquence est absent de la série, le segment
correspondant est retransmis. Les segments qui ne font pas l'objet d'un accusé de réception dans un délai
donné sont retransmis.
Vous discutez avec un ami, Vous utilisez la fonctionnalité " Instant Mail " d'AOL (America On Line) ou le
protocole de conversation IRC (Internet Relay Chat). Deux problèmes, toutefois, peuvent perturber votre
session. Le premier est que vos messages peuvent se croiser pendant la conversation. Vous pouvez tous les
deux rédiger des messages simultanément, ce qui a pour effet d'interrompre l'autre. Le deuxième problème est
la nécessité pour vous de faire des pauses (pour enregistrer la conversation sous forme de fichier), de vérifier
ce qui a été dit auparavant (pour déterminer les causes de la dispute) ou de resynchroniser la communication
après une interruption.
Pour résoudre le premier problème, vous devriez définir un protocole, ou un ensemble de protocoles, afin de
définir les règles de la communication. Cela signifie que chaque interlocuteur doit accepter de respecter un
ensemble de règles au cours de la conversation (comme envoyer des messages à tour de rôle afin d'éviter les
interruptions, par exemple). Ce type d'échange se nomme communication bidirectionnelle alternée. Une autre
solution serait que chaque interlocuteur puisse envoyer des messages quand bon lui semble, peu importe qui
transmet, en supposant qu'il y ait toujours des informations en route. Ce type d'échange se nomme
communication bidirectionnelle simultanée.
Pour résoudre le deuxième problème, chaque interlocuteur devrait envoyer un point de contrôle à l'autre partie
et enregistrer la conversation sous forme de fichier. Chaque interlocuteur devrait alors relire la dernière portion
de la conversation et vérifier l'heure sur l'horloge. Ce processus est appelé synchronisation.
Deux contrôles très importants marquent le début et la fin de la conversation. Ces contrôles se nomment
lancement ordonné et fin de la conversation. Par exemple, lorsque vous utilisez la messagerie instantanée ou
l'IRC, il est courant de dire au revoir à son interlocuteur avant de terminer la session pour s'assurer que l'autre
personne comprend bien que l'on se prépare à mettre fin à la conversation.
La couche session ouvre, gère et ferme les sessions entre les applications. Cela comprend le lancement, l'arrêt
et la resynchronisation de deux ordinateurs qui communiquent. La couche session coordonne les applications
lorsqu'elles interagissent sur deux hôtes qui communiquent. Les communications de données sont effectuées
par des réseaux à commutation de paquets plutôt que par des réseaux à commutation de circuits, comme c'est
le cas pour les appels téléphoniques. Les communications entre ordinateurs impliquent de nombreuses
conversations courtes pour s'assurer que les ordinateurs peuvent communiquer de manière efficace. Ces
conversations exigent que chaque hôte joue deux rôles distincts : chacun est à la fois un demandeur de
services, ou client, et un fournisseur de services, ou serveur. L'identification des rôles de chacun à un moment
donné s'appelle le contrôle du dialogue.
Une synchronisation majeure exigerait davantage d'échanges et d'interactivité que ce qui est illustré dans ce
schéma.
Les points de contrôle sont semblables à la manière dont un logiciel de traitement de texte fait une pause d'une
seconde pour effectuer la sauvegarde automatique d'un document sur un ordinateur autonome. Ces points de
contrôle servent toutefois à séparer les parties d'une session, préalablement appelées dialogues.
L'un des rôles de la couche présentation est de présenter les données dans un format que le dispositif
récepteur est capable de comprendre. Pour expliquer ce concept, utilisez l'analogie de deux personnes
s'exprimant dans des langues différentes. Pour communiquer, elles doivent avoir recours aux services d'un
interprète. La couche présentation joue donc un rôle d'interprète entre les unités qui doivent communiquer par
le biais d'un réseau.
La couche 6, la couche présentation, assure trois fonctions principales, à savoir :
Pour comprendre le formatage des données, imaginez deux systèmes informatiques différents. Le premier
utilise le code EBCDIC (Extended Binary Coded Decimal Interchange Code) pour représenter les caractères à
l'écran, tandis que le second utilise le code ASCII (American Standard Code for Information Interchange). La
couche 6 assure la traduction d'un code à l'autre (transcodage).
Les normes de la couche 6 définissent également la présentation des graphiques. Les trois principaux formats
graphiques sont :
PICT - Format d'image servant à transférer des graphiques QuickDraw entre des applications
exécutées sous le système d'exploitation MAC-OS
TIFF (Tagged Image File Format) - Format de fichier graphique utilisé pour les images " bitmap " haute
résolution.
JPEG (Joint Photographic Experts Group) - Format graphique le plus utilisé pour la compression des
images fixes complexes et des photographies.
D'autres normes de la couche 6 concernent la présentation des sons et des séquences animées. Les normes
suivantes appartiennent à cette catégorie :
MIDI (Musical Instrument Digital Interface) - Format pour la musique électronique.
MPEG (Motion Picture Experts Group) - Format de compression et de codage de vidéo animée pour
CD ou tout autre support de stockage numérique.
QuickTime - Format de données audio et vidéo destiné aux applications exécutées sous les systèmes
d'exploitation MAC et PC.
Dans le contexte du modèle de référence OSI, la couche application (ou couche 7) fournit des services au
module de communication d'une application. La couche application assure les fonctions suivantes :
Identification et vérification de la disponibilité des " partenaires de communication " voulus.
Synchronisation des applications qui doivent coopérer.
Entente mutuelle sur les procédures de correction d'erreur.
Contrôle de l'intégrité des données.
Dans le modèle OSI, la couche application est la plus proche du système terminal. Celle-ci détermine si les
ressources nécessaires à la communication entre systèmes sont disponibles. Sans la couche application, il n'y
aurait aucun support des communications réseau. Elle ne fournit pas de services aux autres couches du
modèle OSI, mais elle collabore avec les processus applicatifs situés en dehors du modèle OSI Ces processus
applicatifs peuvent être des tableurs, des traitements de texte, des logiciels de terminaux bancaires, etc. De
plus, la couche application crée une interface directe avec le reste du modèle OSI par le biais d'applications
réseau (navigateur Web, messagerie électronique, protocole FTP, Telnet, etc.) ou une interface indirecte, par le
biais d'applications autonomes (comme les traitements de texte, les logiciels de présentation ou les tableurs),
avec des logiciels de redirection réseau.
La plupart des applications exécutées dans un environnement réseau sont de type client-serveur. Ces
applications (logiciels FTP, navigateurs Web ou applications de messagerie électronique) se composent de
deux modules, l'un jouant le rôle du client et l'autre, le rôle du serveur. Le module client tourne sur l'ordinateur
local : c'est le " demandeur de services ". Le module serveur tourne sur un ordinateur distant et fournit des
services en réponse aux demandes du client.
Bien qu'elle ne soit pas aussi courante aujourd'hui que la technologie Token Ring ou Ethernet, la technologie
FDDI compte de nombre partisans et son utilisation ne cesse d'augmenter à mesure que son prix baisse.
L'interface FDDI est souvent utilisée comme technologie de base, ainsi que pour relier des ordinateurs à haute
débit au sein d'un LAN.
1°/ Media Access Control (MAC) - définit le mode d'accès au média, y compris :
la configuration de la trame,
le traitement des jetons,
l'adressage,
l'algorithme permettant de calculer les mécanismes de code de redondance cyclique (CRC) et de
correction d'erreurs.
2°/ Protocole de couche physique (PHY) - définit les procédures de codage et de décodage, y compris :
les exigences en terme de synchronisation,
le verrouillage de trame,
d'autres fonctions.
3°/ Support de transmission physique (PMD) - définit les caractéristiques du média de transmission, y
compris :
la liaison par fibre optique,
les niveaux de puissance,
les taux d'erreur sur les bits,
les composants optiques,
les connecteurs.
4°/ Gestion de stations (SMT) - définit la configuration des stations FDDI, y compris :
la configuration de l'anneau,
les caractéristiques de commande de l'anneau,
l'insertion et le retrait de stations,
l'initialisation,
l'isolation des défaillances et la reprise après panne,
la planification,
le rassemblement de statistiques,
Délimiteur de début de trame - Indique le début de la trame. Il est constitué de signaux qui diffèrent de
ceux de l'ensemble de la trame.
Contrôle de trame - Indique la taille des champs d'adresse, si la trame contient des données synchrones
ou asynchrones, ainsi que d'autres informations de contrôle.
Adresse de destination - Contient une adresse d'unicast (une seule station), de multicast (groupe de
stations) ou de broadcast (toutes les stations). Les adresses de destination ont une taille de 6 octets
(comme celles des réseaux Token Ring ou Ethernet).
Adresse d'origine - Identifie l'adresse de la station qui a transmis la trame. Les adresses d'origine ont 6
octets (comme celles des réseaux Token Ring ou Ethernet).
Séquence de contrôle de trame (FCS) - Code de redondance cyclique calculé indiqué par la station
d'origine. Cette valeur dépend du contenu de la trame (comme dans le cas des réseaux Token Ring et
Ethernet). La station de destination recalcule la valeur afin de déterminer si la trame a été endommagée
pendant le transport. Le cas échéant, la trame est rejetée.
Délimiteur de fin de trame - Contient des symboles non porteurs de données qui indiquent la fin de la
trame.
État de la trame - Permet à la station d'origine de déterminer si une erreur s'est produite et si une station
réceptrice a reconnu et copié la trame.
L'interface FDDI utilise une stratégie de passage de jeton semblable à celle utilisée par les réseaux Token Ring.
Ces réseaux font circuler une petite trame, appelée jeton, autour du réseau. La possession du jeton confère le
droit de transmettre des données. Si le nœud qui reçoit le jeton n'a aucune information à transmettre, il le passe
à la station d'extrémité suivante. Chaque station peut conserver le jeton pour un délai maximal qui varie selon la
technologie particulière en place.
Lorsqu'une station en possession d'un jeton a des informations à transmettre, elle le saisit et en altère un bit. Le
jeton se transforme alors en une séquence de début de trame. Ensuite, la station annexe les informations
qu'elle veut transmettre au jeton et envoie ces données à la prochaine station sur l'anneau.
Aucun jeton n'est présent sur le réseau lorsque la trame d'information circule sur l'anneau, à moins que
l'anneau ne supporte la libération anticipée du jeton. Les autres stations de l'anneau doivent attendre que le
jeton soit disponible. Aucune collision ne survient sur les réseaux FDDI. Si le réseau supporte la fonction de
libération anticipée du jeton, un nouveau jeton peut être libéré une fois la transmission de la trame terminée.
La trame d'information circule autour de l'anneau jusqu'à ce qu'elle atteigne la station de destination prévue.
Cette station copie alors les informations dans le but de les traiter. La trame continue à circuler autour de
l'anneau jusqu'à ce qu'elle atteigne la station émettrice où elle est alors supprimée. La station émettrice peut
contrôler la trame qui a circulé sur l'anneau afin de s'assurer que la station de destination l'a reçue, puis l'a
copiée.
Contrairement aux réseaux CSMA/CD, du type Ethernet, les réseaux de passage du jeton sont déterministes.
Cela signifie que vous pouvez calculer la période maximale qui s'écoulera avant que toute station d'extrémité
soit en mesure de transmettre. En plus de contrôler que toutes les stations ont l'occasion de transmettre, le
double anneau de l'interface FDDI s'assure que, si une partie d'un anneau est endommagée ou mise hors
service pour une raison quelconque, l'autre anneau puisse être utilisé. Cela rend l'interface FDDI très fiable.
L'interface FDDI autorise l'allocation en temps réel de la bande passante réseau, ce qui la rend idéale pour
différents types d'applications. L'interface FDDI fournit ce support en définissant deux types de trafic :
synchrone et asynchrone.
Le trafic synchrone
Le trafic synchrone peut utiliser une portion de la bande passante totale de 100 Mbits/s d'un réseau FDDI
et le trafic asynchrone peut utiliser le reste.
La bande passante synchrone est allouée aux stations qui requièrent une capacité de transmission
continue. Cela s'avère particulièrement utile pour transmettre des données voix et vidéo. Le reste de la
bande passante est utilisé pour les transmissions asynchrones.
La spécification FDDI SMT définit un schéma d'attribution distribué pour allouer de la bande passante
FDDI.
L'interface FDDI permet des dialogues étendus, au cours desquels les stations peuvent temporairement
utiliser toute la bande passante asynchrone.
Le mécanisme de priorité FDDI peut neutraliser les stations qui ne peuvent pas utiliser de la bande
passante synchrone et dont la priorité asynchrone est trop faible.
Codage 4B/5B
L'interface FDDI utilise une méthode de codage appelée 4B/5B. Chaque ensemble de 4 bits de données est
transmis en tant que code de 5 bits. Les sources de signaux dans les émetteurs-récepteurs FDDI sont des LED
ou des lasers.
Fibre optique
L'interface FDDI définit les deux types de fibre : monomode et multimode. Les modes peuvent être considérés
comme des faisceaux de rayons lumineux pénétrant dans la fibre selon un angle particulier. La fibre monomode
permet à un seul mode lumineux de se propager à travers la fibre, tandis que la fibre multimode permet à
plusieurs modes lumineux de s'y propager. Plusieurs modes lumineux qui se propagent à travers la fibre
peuvent parcourir des distances différentes, selon leur angle de pénétration. Par conséquent, ils arrivent à
destination à des moments différents. Ce phénomène est appelé distorsion modale. La fibre monomode permet
d'utiliser une bande passante plus élevée et des parcours de câbles plus longs que la fibre multimode. En
raison de ces caractéristiques, la fibre monomode est souvent utilisée pour la connectivité entre deux
immeubles et la fibre multimode pour la connectivité à l'intérieur d'un immeuble. La fibre multimode utilise des
LED comme dispositifs générateurs de signaux lumineux, tandis que la fibre monomode utilise généralement
les lasers.
La norme FDDI définit l'utilisation de deux anneaux dans le cas des connexions physiques. Le trafic circule
dans des directions opposées sur chaque anneau. Sur le plan physique, l'anneau est constitué de deux
connexions point à point ou plus entre deux stations voisines. L'un des deux anneaux FDDI est appelé anneau
primaire et l'autre, anneau secondaire. L'anneau primaire est utilisé pour la transmission de données. Quant à
l'anneau secondaire, il est généralement utilisé comme anneau de secours.
Les stations de classe B, ou stations à connexion unique (SAS), sont reliées à un anneau et les stations de
classe A, ou station à connexion double (DAS), sont reliées aux deux anneaux. Les stations SAS sont reliées à
l'anneau primaire par le biais d'un concentrateur, lequel fournit des connexions à plusieurs stations SAS. Le
concentrateur veille à ce qu'une panne ou une mise hors circuit de toute station SAS n'interrompe pas l'anneau.
Cela s'avère particulièrement utile lorsqu'un PC, ou un appareil semblable souvent mis en fonction et hors
fonction, est connecté à l'anneau
IBM a mis au point le premier réseau Token Ring dans le courant des années 1970. Il s'agit, aujourd'hui encore,
de la principale technologie LAN d'IBM. Elle se situe juste derrière la norme Ethernet (IEEE 802.3) en terme
d'implémentations LAN.
La norme IEEE 802.5 est pratiquement identique au réseau Token Ring d'IBM, avec lequel elle est entièrement
compatible.
Les jetons Les jetons ont une longueur de trois octets et sont composés d'un délimiteur de début de trame,
d'un octet de contrôle d'accès et d'un délimiteur de fin de trame. Le délimiteur de début de trame informe
chaque station de l'arrivée d'un jeton ou d'une trame de données/contrôle. Ce champ comporte également des
signaux qui distinguent l'octet de l'ensemble de la trame en violant le codage utilisé ailleurs dans la trame.
L'octet de contrôle d'accès L'octet de contrôle d'accès comprend un champ priorité et un champ réservation,
ainsi qu'un bit représentant le jeton et un bit de comptage moniteur. Le bit représentant le jeton fait la distinction
entre le jeton et la trame de données/contrôle, tandis que le bit de comptage moniteur détermine si la trame
circule constamment autour de l'anneau. Le délimiteur de fin de trame indique la fin du jeton ou de la trame de
données/contrôle. Il comprend des bits indiquant une trame endommagée et d'autres indiquant la dernière
trame d'une séquence logique.
Les trames de données/contrôle La taille des trames de données/contrôle varie selon la taille du champ
d'information. Les trames de données transportent des informations à l'intention des protocoles de couche
supérieure. Les trames de contrôle contiennent des informations de contrôle, mais ne possèdent aucune
donnée pour les protocoles de couche supérieure.
Dans le cas des trames de données/contrôle, un octet de contrôle de trame suit l'octet de contrôle d'accès.
L'octet de contrôle de trame indique si la trame comporte des données ou des informations de contrôle. Dans le
cas des trames de contrôle, cet octet précise le type d'information de contrôle.
À la suite de l'octet de contrôle de trame, se trouvent deux champs d'adresse qui identifient les stations de
source et de destination. Comme dans le cas de la norme IEEE 802.5, ces adresses ont une taille de 6 octets.
Le champ de données suit le champ d'adresse. La longueur de ce champ est limitée par le jeton de l'anneau qui
comprend la période maximale durant laquelle une station peut conserver le jeton.
À la suite du champ de données, se trouve le champ séquence de contrôle de trame (FCS). Dans ce champ, la
station source indique une valeur calculée en fonction du contenu de la trame. La station de destination
recalcule la valeur afin de déterminer si la trame a été endommagée pendant le transport. Les trames
endommagées sont supprimées. Comme dans le cas du jeton, la trame de données/contrôle se termine par un
délimiteur de fin de trame.
Le passage de jeton
Les réseaux Token Ring et IEEE 802.5 sont les principaux exemples de réseaux de passage de jeton en
réseaux. Ces réseaux font circuler une petite trame, appelée jeton, autour du réseau. La possession du jeton
confère le droit de transmettre des données. Si le nœud qui reçoit un jeton n'a aucune information à
transmettre, il passe le jeton à la station d'extrémité suivante. Chaque station peut conserver le jeton pour un
délai maximal qui varie selon la technologie mise en place.
Lorsqu'un jeton parvient à un hôte qui a des informations à transmettre, il le saisit et en altère un bit. Le jeton se
transforme en une séquence de début de trame. Ensuite, la station ajoute au jeton les informations à
transmettre et envoie ces données à la prochaine station sur l'anneau. Il n'y a aucun jeton sur le réseau
pendant que la trame d'information circule sur l'anneau, à moins que l'anneau n'ait la capacité d'effectuer des
libérations anticipées du jeton. Les autres stations de l'anneau ne peuvent pas transmettre pendant ce temps.
Elles doivent attendre que le jeton soit disponible. Aucune collision ne survient dans les réseaux Token Ring. Si
le réseau possède des capacités de libération anticipée du jeton, un nouveau jeton peut être libéré une fois la
transmission de la trame terminée.
La trame d'information circule autour l'anneau jusqu'à ce qu'elle atteigne la station de destination prévue. Cette
station copie alors les informations dans le but de les traiter. La trame continue à circuler autour de l'anneau
jusqu'à ce qu'elle atteigne la station émettrice où elle est alors supprimée. La station émettrice peut vérifier si la
trame a été reçue et copiée par la station de destination.
Contrairement aux réseaux CSMA/CD, du type Ethernet, les réseaux de passage du jeton sont déterministes.
Cela signifie que vous pouvez calculer la période maximale qui s'écoulera avant qu'une station d'extrémité soit
en mesure de transmettre. Cette caractéristique, ainsi que plusieurs fonctions de fiabilité, font des réseaux
Token Ring une infrastructure parfaitement adaptée aux applications où tout retard doit être prévisible et où la
robustesse du réseau est vitale. Les environnements d'automatisation d'usine sont autant d'exemples de
réseaux où la prévisibilité et la robustesse sont cruciales.
Système de priorité
Les réseaux Token Ring font appel à un système de priorité de pointe qui permet à certaines stations
prioritaires définies par l'utilisateur de se servir du réseau plus souvent. Les trames des réseaux Token Ring
comportent deux champs qui contrôlent la priorité : le champ priorité et le champ réservation.
Seules les stations dont la priorité est égale ou supérieure à la valeur de priorité contenue dans un jeton
peuvent saisir ce jeton. Une fois le jeton saisi et transformé en trame d'information, seules les stations dont la
valeur de priorité est supérieure à la valeur de la station émettrice peuvent réserver le jeton pour le prochain
passage sur le réseau. Le prochain jeton généré comprend la priorité plus élevée de la station qui a effectué la
réservation. Les stations qui élèvent le niveau de priorité d'un jeton doivent remettre le jeton au niveau de
priorité où il se trouvait une fois leur transmission terminée.
L'un de ces mécanismes consiste à définir une station du réseau Token Ring comme moniteur actif. Cette
station agit comme une source centralisée de renseignements de synchronisation pour les autres stations de
l'anneau et exécute un éventail de fonctions de maintenance de l'anneau.
Toute station du réseau est un moniteur actif en puissance. L'une des fonctions de cette station est de retirer de
l'anneau les trames qui sont en circulation constante. Lorsqu'une unité émettrice tombe en panne, sa trame
peut continuer à circuler sur l'anneau et empêcher les autres stations de transmettre leurs propres trames, ce
qui peut bloquer le réseau. Le moniteur actif peut détecter ces trames, les retirer de l'anneau et générer un
nouveau jeton.
La topologie en étoile du réseau Token Ring d'IBM contribue aussi à la fiabilité globale du réseau. Les MSAU
(unités d'accès multistation) actives peuvent voir toutes les informations contenues dans un réseau Token Ring,
ce qui leur permet de détecter les problèmes et de retirer, au besoin, des stations de l'anneau de façon
sélective. La trame Beacon, une formule Token Ring, détecte et essaie de réparer les incidents réseau.
Lorsqu'une station détecte un problème grave sur le réseau (un bris de câble, par exemple), elle envoie une
trame Beacon.
La trame Beacon définit un domaine de panne. Le domaine de panne comprend la station signalant la
défaillance, son voisin actif le plus proche (NAUN, nearest active upstream neighbour) et tout ce qui se trouve
entre les deux.
La trame Beacon lance un processus appelé reconfiguration automatique, par lequel les nœuds qui se trouvent
à l'intérieur du domaine de panne effectuent automatiquement des diagnostics. Ce processus tente de
reconfigurer le réseau en contournant la zone où la panne s'est produite. Sur le plan physique, les MSAU
peuvent accomplir cela par le biais d'une reconfiguration électrique.
Les stations d'un réseau IBM Token Ring (qui utilisent souvent les câbles STP et UTP comme média) sont
directement connectées aux unités MSAU (unités d'accès multistation) et peuvent être raccordées afin de
former un grand anneau. Des câbles de raccordement connectent les unités MSAU aux unités MSAU voisines.
Des câbles de lobe connectent les unités MSAU aux stations. Ces unités comportent des relais bypass Token
Ring permettant de retirer des stations de l'anneau
Jean-Baptiste Fourier a fait l'une des plus importantes découvertes mathématiques. Il a démontré qu'un nombre
particulier d'ondes sinusoïdales, de fréquences en relation harmonique, qui sont des multiples d'une certaine
fréquence fondamentale, pouvaient être additionnées en vue de créer un train d'ondes quelconque. C'est sur
base de ce principe que fonctionnent les dispositifs de reconnaissance vocale et les stimulateurs cardiaques.
Une onde carrée, ou en créneau, peut être fabriquée en utilisant la bonne combinaison d'ondes sinusoïdales.
Le graphique principal illustre comment l'onde carrée (signal numérique) peut être fabriquée à l'aide d'ondes
sinusoïdales (signaux analogiques). Il est important de garder cela en mémoire lorsque vous examinerez ce
qu'il advient d'une impulsion numérique lorsqu'elle circule sur un média réseau.
La composante de base de l'information est un symbole binaire. Le chiffre binaire 0 peut représenter une
donnée aussi simple que 0 volt et le chiffre binaire 1, +5 volts. Ils peuvent également représenter des
informations plus complexes.
Afin de fonctionner correctement, une mise à la terre de signalisation de référence doit se trouver à proximité
des circuits numériques d'un ordinateur. Les ingénieurs ont réalisé cela en intégrant des plans de masse dans
les cartes de circuits imprimés. Les carcasses d'ordinateur servent de point de connexion commun pour
permettre aux plans de masse des cartes d'établir la mise à la terre de signalisation de référence. La mise à la
terre de signalisation de référence établit la ligne 0 volt dans les graphiques de signalisation.
Dans le cas des signaux sans fil, le chiffre binaire 0 pourrait représenter une courte rafale d'ondes, tandis que le
chiffre binaire 1 pourrait représenter une rafale d'ondes plus longue ou d'autres configurations plus complexes.
Propagation signifie déplacement. Lorsqu'une carte réseau envoie une tension ou une impulsion lumineuse sur
un support physique, cette impulsion carrée, constituée d'ondes, voyage dans le média ou se propage. La
propagation signifie qu'une masse d'énergie, qui représente un bit, se déplace d'un endroit à un autre. La
vitesse de propagation dépend du matériau qui constitue le média, de la géométrie (structure) du média et de la
fréquence des impulsions. Le temps que prend le bit pour effectuer l'aller-retour et être traité est désigné par le
terme temps de propagation aller-retour (Round Trip Time ou RTT ). En supposant qu'il n'y ait pas d'autres
retards, le temps que prend le bit pour se déplacer sur le média jusqu'à sa destination équivaut au RTT divisé
par 2.
Si le délai de propagation est trop court, il est possible que vous deviez ralentir les bits ou les stocker
temporairement (technique connue sous le nom de mise en mémoire tampon) afin que l'ensemble de
l'équipement du réseau puisse les rattraper.
Atténuation
Les signaux optiques peuvent eux aussi être atténués. La fibre optique peut absorber et dissiper une certaine
quantité d'énergie lumineuse, alors que l'impulsion lumineuse, 1 bit, voyage par la fibre optique. Le choix de la
longueur d'onde, ou couleur, de la lumière, permet de réduire cette perte au minimum. L'utilisation d'une fibre
monomode ou multimode et la nature du verre utilisé dans la fibre ont aussi un impact sur la réduction de la
perte. Malgré ces choix, une perte de signal est inévitable.
Les ondes radioélectriques et les micro-ondes subissent également une atténuation, dans la mesure où elles
sont absorbées et dispersées par des molécules particulières dans l'atmosphère. L'atténuation peut affecter le
réseau, car elle limite la longueur de câblage sur lequel un message peut être transmis. Si le câble est trop long
ou trop atténuant, un bit 1 transmis à partir de la source peut ressembler à un bit 0 une fois arrivé à destination.
Reflexion
La réflexion se produit dans les signaux électriques. Lorsque les impulsions de tension, ou bits, atteignent
une discontinuité, de l'énergie peut être réfléchie. Si elle n'est pas rigoureusement contrôlée, cette énergie peut
perturber les autres bits. Selon le câblage et les connexions utilisés dans le réseau, la réflexion peut constituer
ou non un problème.
La réflexion se produit aussi dans le cas des signaux optiques. Les signaux optiques sont réfléchis chaque fois
qu'ils atteignent une discontinuité dans la fibre de verre, comme c'est le cas lorsqu'un connecteur est branché
sur un dispositif. Vous pouvez voir cet effet en regardant par la fenêtre la nuit. Vous voyez votre propre reflet
dans la fenêtre, bien que celle-ci ne soit pas un miroir. Une partie de la lumière qui est réfléchie par votre corps
est réfléchie dans la fenêtre. Ce phénomène se produit également dans le cas des ondes radioélectriques et
des micro-ondes, car elles traversent différentes couches de l'atmosphère.
Le bruit
Signal numérique
Paradiaphonie-A et paradiaphonie-B
Lorsque le bruit électrique sur un câble provient des signaux émis par d'autres fils dans le câble, on parle de
diaphonie. Paradiaphonie signifie diaphonie rapprochée. Lorsque deux fils non torsadés se trouvent à proximité
l'un de l'autre, l'énergie d'un fil peut se propager dans le fil adjacent, et inversement. Cela peut entraîner du bruit
aux deux extrémités d'un câble raccordé. Il existe en fait plusieurs formes de diaphonie qui doivent être prises
en compte au moment de la conception d'un réseau.
Le problème de la paradiaphonie peut être réglé grâce à la technologie de raccordement, au respect rigoureux
des procédures de raccordement type et à l'utilisation de câbles à paires torsadées de qualité.
Idéalement, la mise à la terre de référence doit être complètement isolée de la mise à la terre électrique.
L'isolation de la mise à la terre de référence éviterait que les fuites d'alimentation secteur et les pointes de
tension ne l'atteignent. Cependant, le boîtier d'un ordinateur sert de mise à la terre de référence, mais aussi de
mise à la terre du secteur électrique. Puisqu'il existe un lien entre la mise à la terre de référence et celle de
l'alimentation, des problèmes avec cette dernière peuvent entraîner des interférences dans le système
informatique. De telles interférences peuvent être difficiles à détecter et à localiser. Habituellement, cela
provient du fait que les entrepreneurs en électricité et les installateurs ne se préoccupent pas de la longueur du
fil neutre et du fil de terre qui mènent à chaque prise de courant. Malheureusement, lorsque ces fils sont longs,
ils peuvent agir comme une antenne et attirer le bruit d'origine électrique. C'est ce bruit qui interfère avec les
signaux numériques (bits) que doit reconnaître et traiter un ordinateur.
Vous découvrirez que le bruit d'alimentation secteur émanant d'un moniteur ou d'un disque dur situé à proximité
d'un système informatique peut être suffisant pour entraîner des erreurs dans ce système. Le bruit crée de
l'interférence (modification de la forme de l'onde et du niveau de tension) avec les signaux désirés et empêche
les portes logiques d'un ordinateur de détecter les flancs avant et arrière des ondes carrées. Ce problème peut
s'aggraver encore davantage si la mise à la terre d'un ordinateur n'est pas effectuée correctement.
Chaque fil dans un câble peut agir comme une antenne. Lorsque cela se produit, le fil absorbe en fait les
signaux électriques des autres fils du câble et des sources électriques situées à l'extérieur du câble. Si le bruit
électrique résultant atteint un niveau suffisamment élevé, les cartes réseau peuvent éprouver de la difficulté à
distinguer le bruit du signal de données. Cela s'avère particulièrement problématique dans la mesure où la
plupart des réseaux locaux utilisent des fréquences comprises entre 1 et 100 Mégahertz (MHz), qui se trouve
aussi être la bande de fréquences qu'utilisent les signaux de radio FM, de télévision et de bon nombre
d'appareils électriques.
Examinons à présent comment le bruit d'origine électrique, indépendamment de sa source, affecte les signaux
numériques. Supposons que vous souhaitiez transmettre sur le réseau les données représentées par le nombre
binaire 1011001001101. Votre ordinateur convertit le nombre binaire en signal numérique. Le graphique
indique à quoi ressemble le signal numérique du nombre binaire 1011001001101. Le signal numérique se
propage dans le média réseau vers sa destination. La destination se situe à proximité d'une prise de courant
alimentée par un long fil neutre et un long fil de terre. Ces fils agissent comme des antennes potentielles pour le
bruit d'origine électrique. Le graphique montre à quoi ressemble le bruit électrique.
Comme le boîtier de l'ordinateur de destination est utilisé à la fois pour la mise à la terre électrique et la mise à
la terre de référence, le bruit créé interfère avec le signal numérique reçu par l'ordinateur.
Le graphique 4 montre ce qui arrive au signal lorsqu'il est associé à du bruit d'origine électrique. Au lieu de lire
le signal 1011001001101, l'ordinateur lit 1011000101101, affectant ainsi la fiabilité des données.
Contrairement aux fils de cuivre, les systèmes optiques et sans fil sont sensibles à certains de ces bruits, mais
ils sont insensibles à d'autres. Ainsi, la fibre optique est insensible à la paradiaphonie, ainsi qu'aux bruits
d'alimentation secteur et de mise à la terre de référence. Quant aux systèmes sans fil, ils sont particulièrement
sensibles aux interférences électromagnétiques et aux interférences de radiofréquences. L'accent a été mis sur
le bruit dans les systèmes à fils de cuivre. Le problème de la paradiaphonie peut être réglé grâce à la
technologie de raccordement, au respect rigoureux des procédures de raccordement type et à l'utilisation de
câbles à paires torsadées de qualité.
Il n'y a rien à faire contre le bruit thermique, si ce n'est donner aux signaux une amplitude suffisamment
importante pour que l'impact du bruit soit insignifiant. Pour éviter le problème de mise à la terre de
référence/alimentation secteur décrit précédemment, il importe de travailler en étroite collaboration avec
l'entrepreneur en électricité et la compagnie d'électricité avec lesquels vous faites affaire. Cela vous permettra
d'obtenir la meilleure et la plus courte mise à la terre électrique. Une façon d'atteindre cet objectif est d'examiner
Lorsque vous travaillez avec votre entrepreneur en électricité, demandez-lui d'installer des tableaux de
distribution du courant, aussi connus sous le nom de boîtes de disjoncteurs, distincts pour chaque bureau.
Comme les fils neutres et les fils de terre de chaque prise se rejoignent dans la boîte de disjoncteurs, cette
mesure augmentera vos chances de raccourcir la longueur de la terre de signalisation. Bien que l'installation de
panneaux de distribution du courant distincts pour chaque grappe d'ordinateurs puisse augmenter les coûts de
l'installation initiale, elle permet de réduire la longueur des fils de mise à la terre et de limiter plusieurs types de
bruits électriques qui " étouffent " les signaux.
Il existe plusieurs façons de limiter les interférences électromagnétiques et de radiofréquences. L'une d'elles
consiste à augmenter la taille des fils conducteurs. Une autre est d'améliorer le type de matériau isolant utilisé.
Toutefois, ces changements augmentent davantage la taille et le coût du câble qu'ils n'en améliorent la qualité.
C'est pourquoi les concepteurs de réseaux optent généralement pour un câble de bonne qualité et précisent la
longueur de câble maximale recommandée entre les nœuds.
Le blindage et l'annulation sont deux techniques utilisées par les concepteurs de câbles pour résoudre les
problèmes liés aux interférences électromagnétiques et de radiofréquences. Dans le cas d'un câble qui utilise le
blindage, une tresse ou une feuille métallique entoure chaque paire de fils ou chaque groupe de paires de fils.
Ce blindage agit comme un écran et bloque tout signal parasite. Toutefois, comme dans le cas de
l'augmentation de la taille des conducteurs, l'utilisation d'une tresse ou d'une gaine augmente le diamètre du
câble, ainsi que son coût. C'est pourquoi l'annulation est la technique la plus couramment utilisée pour protéger
le fil des interférences indésirables.
Lorsque du courant électrique circule dans un fil, il crée un petit champ magnétique circulaire autour de celui-ci.
La direction de ces lignes de force magnétique est déterminée par la direction du courant dans le fil. Si deux fils
font partie du même circuit électrique, les électrons circulent de la source de tension négative vers sa
destination dans un fil. Ensuite, les électrons circulent de la destination vers la source de tension positive dans
l'autre fil. Lorsque deux fils d'un circuit électrique sont situés à proximité, leurs champs magnétiques sont
exactement opposés l'un à l'autre. Dès lors, les deux champs magnétiques s'annulent. Ils annuleront également
tout autre champ magnétique extérieur. La torsion des fils rehausse cet effet d'annulation. Grâce à l'utilisation
conjuguée de l'annulation et de la torsion des fils, les concepteurs de câbles peuvent offrir une méthode de
blindage efficace pour les paires de fils à l'intérieur du média réseau.
La dispersion, la gigue et la latence sont trois phénomènes différents qui peuvent influencer un bit. Ces
phénomènes sont groupés car ils concernent tous trois la même chose : la synchronisation des bits. Puisque
vous essayez de comprendre les problèmes qui peuvent se produire lorsque des millions ou des milliards de
bits circulent au sein du média en une seconde, le principe de synchronisation revêt une importante capitale.
Tous les systèmes numériques sont synchronisés, ce qui signifie que tout est réglé par des impulsions
d'horloge. Les impulsions d'horloge permettent au processeur de calculer les données à stocker en mémoire, et
à la carte réseau d'envoyer les bits. Si l'horloge de l'hôte source n'est pas synchronisée avec celle de l'hôte
cible, ce qui est fort probable, vous obtenez une gigue de synchronisation. Cela signifie que des bits arriveront à
destination un peu trop tôt ou un peu trop tard. La gigue peut être corrigée par une série de synchronisations
d'horloge complexes, notamment au niveau du matériel, du logiciel et des protocoles.
La latence, un retard de transmission, peut avoir deux origines principales. Tout d'abord, la théorie de la
relativité d'Einstein nous apprend que " rien ne peut se déplacer à une vitesse supérieure à celle de la lumière
dans le vide (3 x 108 m/s) ". Les signaux de réseaux sans fil se déplacent à une vitesse légèrement inférieure à
celle de la lumière dans le vide. Dans un support de cuivre, les signaux réseau se déplacent dans une plage de
vitesses allant de 1,9 x 108 m/s à 2,4 x 108 m/s. Dans la fibre optique, ces mêmes signaux voyagent à une
vitesse d'environ 2 x 108 m/s. Par conséquent, pour parcourir une certaine distance, un bit met au moins un
petit peu de temps pour atteindre sa destination. Par ailleurs, si les bits transitent par des dispositifs
électroniques, les transistors et autres composants introduisent une latence supplémentaire. La latence peut
être réduite par une utilisation judicieuse d'unités d'interconnexion de réseaux, par diverses stratégies de
codage et par des protocoles de couche appropriés.
Les réseaux modernes fonctionnent généralement à des débits allant de 1 Mbits/s à 1 000 Mbits/s (soit 1
Gbits/s ou 1 milliard de bits par seconde !). Si les bits sont étalés en raison de la dispersion, les 1 peuvent être
interprétés comme des 0, et inversement. Si les groupes de bits sont acheminés par des itinéraires différents
sans tenir compte de la synchronisation, la gigue peut causer des erreurs lorsque l'ordinateur cible tente de
rassembler les paquets pour reformer les messages. Si des groupes de bits sont en retard, les unités réseau et
les autres ordinateurs cibles pourraient se trouver dans l'incapacité d'interpréter les milliards de bits reçus
chaque seconde.
Collisions
Une collision se produit lorsque deux bits, issus de deux ordinateurs différents qui communiquent, empruntent
simultanément le même média partagé. Dans le cas des fils de cuivre, les tensions des deux signaux binaires
s'additionnent et génèrent un troisième niveau de tension. Cette variation de tension est inadmissible au sein
d'un système binaire qui ne comprend que deux niveaux de tension. Les bits endommagés sont " détruits ".
Certaines technologies, comme Ethernet, acceptent une certaine quantité de collisions en gérant la préséance
de transmission sur le média partagé au moment de la communication entre plusieurs hôtes. Dans certains cas,
les collisions sont inévitables au sein d'un réseau. Cependant, un nombre excessif de collisions peut ralentir le
réseau, voire le bloquer complètement. Aussi, une bonne part de la conception d'un réseau consiste-t-elle à
minimiser le nombre de collisions et à les circonscrire.
Un serveur peut-être un PC normal dans le cas d'un petit réseau et un serveur peut être utilisé comme station
de travail de haut de gamme. Néanmoins, la majorité des serveurs sont des ordinateurs spécifiques. Les
caractéristiques de ces ordinateurs doivent répondre à divers critères liés à la sécurités des données et des
applications installées sur le serveur.
Avec l'évolution de l'informatique dans les entreprises, l'ordinateur central et l'installation périphérique devient
primordial, le moindre arrêt de l'installation provoque immédiatement l'arrêt de l'usine avec les conséquences
que l'on peut imaginer. Que cet arrêt soit de type problème logiciel, lié à un défaut de fonctionnement d'un
serveur ou même à un switch récalcitrant est sans réelle importance. Le résultat est le même pour l'entreprise:
perte de production, perte de données, ... Une installation réseau ne doit pas s'arrêter. S'il a fait son travail de
préparation des causes possibles de panne (et des solutions immédiates), un bon technicien de maintenance
doit "se promener" dans l'usine. Le moindre arrêt, surtout s'il dure, se paye cash pour l'entreprise.
Avec le chapitre suivant, nous ferons un tour du côté des disques durs, de leurs types et de leurs regroupement
(RAID). Néanmoins, les serveurs de grosses puissances ne se limitent pas à des disques durs ou des
protections externes. L'architecture interne est également différente. Si un serveur ne doit jamais s'arrêter, il
faut également que sa puissance soit suffisante pour l'application. Pour rappel, un serveur ne doit pas
fonctionner à plus de 10 % de charge en moyenne, sous peine de ralentir l'application et les utilisateurs.
Ceci n'entraîne pas forcément des serveurs musclés. Selon l'application, le nombre de PC connecté, la fonction
du serveur (fichier, imprimante, programme), la configuration sera choisie en conséquence.
Voyons un peu les différentes solutions qui ont été adoptées pour obtenir (ou tenter d'obtenir) ce résultat.
Spécificités externes
Généralement, les opérateurs sont consciencieux. Néanmoins, les protection externes pour éviter l'arrêt d'un
serveur par une main indélicate existent sur les modèles de haute gamme.
- Blocage par clefs des boutons d'allumage, reset, accès au lecteur de disquette, ... bien que ceci n'est
pas le plus important.
- Câbles de raccordement, doivent être fixés sur le boîtier ou dans un chemin de câble, pour éviter
que les câbles ne s'arrachent par traction, ... Il est nettement conseillé de les étiqueter.
- sécurité des données en cas de "crash disk" (panne complète d'un disque dur): dédoublement des disques par
systèmes RAID
- sécurité des données en cas de panne complète d'un ordinateur (sauvegarde quotidienne)
- installation de disques, cartes électroniques "à chaud". Ceci signifie que le périphérique peut être remplacé
alors que le PC continue de fonctionner.
En voyant la liste, ceci ne paraît pas trop compliqué. Evitons l'aspect externe. Ceci est lié au boîtier d'une part
et ... aux techniciens, administrateurs réseaux pour l'aspect câblage.
Chaque serveur est connecté à un UPS, (Uninteruptible Power supply) alimentation ininteruptible. L'UPS est de
plus capable de contrôler le serveur (de l'éteindre) en cas de panne de courant ou de baisse de tension. C'est
également souvent le cas des HUBS et switch et périphériques externes annexes.
L'aspect interne est nettement plus complexe.
Les disques durs sont généralement de type SCSI. Ce type de liaison n'est guère plus performant en station
que des disques durs E-IDE, sauf aux temps d'accès. Par contre, les liaisons SCSI sont nettement plus
performantes en multi-read.
En cas de crash disque, on utilise des systèmes redondant des disques.
On écrit les données sur chaque disques (de manière équivalente), mais on ne lit que sur un disque. En cas de
crash, on continue sur le deuxième disque. En cas de crash complète d'un serveur, on peut coupler en
permanence 2 serveurs de la même manière que les disques ci-dessus. Tous ces systèmes sont dits RAID.
Pour les alimentations, on peut utiliser 2 alimentations couplées. En cas de panne d'une, on continue sur l'autre.
Chacune doit donc être ne mesure d'alimenter l'ensemble de manière autonome. Pour les cartes électroniques,
le PCI 64 permet d'enlever ou d'insérer une carte sans couper la machine, à condition que le serveur soit
installé avec un système d'exploitation compatible (par exemple Win2000). Le dédoublement de chaque partie
d'une installation informatique pour garantir que si l'une tombe en panne, la deuxième partie prenne
immédiatement la place s'appelle la redondance des équipements. Bref, il y a du boulot.
- Au niveau des périphériques, nous en connaissons déjà quelques uns. Les bandes de sauvegarde sont
pratiquement toujours utilisées, mais pas vraiment comme petite sauvegarde au cas où avec des vitesses de
transfert qui n'ont rien à voir avec les bandes de types QIC de première année. De plus, on retrouve en externe
des boîtiers contenant les disques durs par exemple, toujours en RAID.
Résultat, la carte graphique, le lecteur CD-ROM et le lecteur de disquette ne sont pas des composants
primordiaux.
L'écran ne doit pas non plus être un modèle multimédia de haute gamme. L'écran du serveur est généralement
un 15" qui tourne "à vide". On ne s'intéresse à l'affichage que dans les cas critiques. Le lecteur CD-ROM n'est
généralement pas non plus de type SCSI mais bien E-IDE, vu sa faible utilisation. Selon le système
d'exploitation, on peut (plutot on doit) le configurer via une station.
La mémoire doit quant à elle être suffisante, les disques de capacités doubles, voire triples par rapport à la
capacité maximum que vous utiliserez sur cette machine. Je parle ici de la capacité effective, utilisable, sans
rentrer dans la technologie RAID
Mémoire serveur.
Première distinction avec les mémoires traditionnelles, les mémoires utilisées par les serveurs sont de tous
types connus utilisés dans les PC traditionnels.
Les serveurs actuels utilisent également des mémoires ECC (Error Checking and Correcting ou Error
Correction Code).
Cette technologie utilise plusieurs bits de contrôle (parité) pour la vérification des données en mémoire. Ces
mémoires sont auto-correctives. Cette mémoire peut détecter 4 erreurs et en corriger une sans arrêter le
système.
Un nouveau type de mémoires avec correction d'erreur AECC (Advanced Error Correcting Code) peut détecter
4 erreurs et en corriger 4 sans arrêter le système.
- Le premier, ils ne sont pas déconnectables à chaud (Hot plug). Le remplacement d'une carte nécessite l'arrêt
du serveur. Dans les petits serveurs, ceci ne pose pas de problèmes en pratiques. En effet, comme chaque
fonction est exécutée par une seule carte, le serveur n'assure de toute façon plus sa fonction en cas de panne
de carte.
Par contre, dans les serveurs de haute gamme, toutes les cartes sont redondantes. Une carte réseau est
dédoublée. En cas de panne d'une carte, la fonction se poursuit sur la deuxième carte équivalente. Ceci permet
de "réparer le serveur" sans l'arrêter.
Pour rappel, un port PCI 33 bureautique est capable de transmettre 132 MB/s maximum sur l'ensemble des
ports PCI. Vérifions par exemple une carte réseau en base 1000. Comme les liaisons réseau sont de type série,
on peut diviser le taux de transfert par 10, ce qui nous fait 8 pour une seule carte réseau un taux de transfert de
100 MB/s.
Vous pensez peut-être qu'il reste de la marge, mais les disques durs sont également connectés via une
interface sur le port PCI.
Prenons par exemple, une connexion disque dur Wide Ultra 3 SCSI (Ultra 160/m) qui est capable de transférer
160 MB/s: 100 MB/s + 160 MB/s =260 MB/s, largement supérieur aux 132 MB/s du port PCI 32 bits.
Tous les serveurs dignes de ce nom se doivent donc d'utiliser des bus internes plus rapides.
De plus, le port PCI commun utilise une vitesse de 33 Mhz. Les ports PCI-X vont jusqu'à 133 MHz. Ceci nous
donne un taux de transfert de 132 MB/s * 2 (port 64 bits) * 4 (bus à 133 Mhz)= 1056 MB/s pour l'ensemble du
bus PCI.
Généralement, un serveur accepte également 1 ou 2 port PCI 32 bits (carte écran par exemple ou Ethernet 100
de réserve). Pour rappel, les ports 64 bits acceptent généralement uniquement les cartes 32 bits fonctionnant
en 3,3 V. Pour reconnaître les ports 64 bits qui acceptent les cartes PC 32 bits, il suffit de vérifier s'il y a 2
encoches (uniquement cartes 3,3 V) ou 1 encoche (accepte les cartes 3.3 et 5V) dans la partie 32 bit du bus
PCI 64 bits.
Avec les ports PCI-X, nous retrouvons les caractéristiques attendues: rapidité et Hot plug (si le pilote de la carte
le permet). Une dernière précision, ces cartes et l'implantation de ces bus sont chères. Chaque serveur n'inclue
pas d'office un PCI-X à 133 Mhz. Il existe des cartes à 33, 66, 100 et 133 Mhz. En plus, de nombreux serveur
n'incluent pas un, mais 2 ou trois ports PCI-X séparés. Ceci permet également de supprimer les goulots.
Nous voyons directement que dans ce cas, un PC bureautique ne peut servir de serveur réseau.
Les processeurs.
Introduction
N'imaginez pas tout de suite que le processeur d'un serveur soit d'office une bête de compétition. Un serveur ne
doit généralement pas traiter des applications multimédia. Sauf pour les serveurs de programmes, les
processeurs sont généralement "faible".
Un serveur de Web peut à l'aise se contenter d'un Pentium III, voire d'un CELERON.
Par contre, dans les applications lourdes, les fabricants de processeurs se sont dirigés vers deux directions: les
processeurs spécialisés et le multiprocesseur. Les deux sont en partie liés.
Les processeurs actuels sont 32 bits. Ceci signifie que les instructions en assembleur qu'ils lisent sont codées
sur 32 bits.
Pour augmenter les performances d'un processeur, vous pouvez soit augmenter la vitesse, soit doubler le
nombre d'instructions par cycle d'horloge. Cette solution a déjà utilisée, mais les processeurs 64 bits utilisent
cette possibilité différemment.
En effet, comme les processeurs actuels, les programmes sont écrits en 32 bits . Un processeur 64 bits ne peut
donc lire des instructions 32 bits et vis versa. INTEL avec son processeur 64 bits ITANIUM sorti en Juillet 2001
a contourné le problème en n'acceptant pas les anciennes instructions 32 bits (celle que nous connaissons).
Ceci a nécessité de réécrire les programmes et systèmes d'exploitation ou plutôt de les recompiler, c'est à dire
de reconvertir le programme assembleur 32 bits en 64 bits.
Une dernière chose, l'utilisation en bi-processeur et supérieur nécessite un système d'exploitation adapté.
Windows NT, 2000 et XP Pro sont vendus de manière spécifiques. Novell oblige une option supplémentaire.
UNIX est natif multi-processeurs, si la fonction est implantée en fonction de la carte mère / OS. L'utilisation
d'une version "home" des systèmes d'exploitation Microsoft (Win95,98 Me et XP Home) n'utilisera pas le multi-
processeur.
Une dernière remarque, avec les PentiumIV à 3.06 Ghz, INTEL inclue désormais, l’hypertreading.
Cette technique permet d’émuler deux processeurs logiciels dans un seul Pentium. L’avantage serait lié à la
vitesse mais les différents tests sont assez mitigés, notamment parce que l’application doit être dédiée à ce
processus dans le cas de stations de travail. Par contre, cette fonction est largement implantée dans les
ITANIUM et XEON.
AMD
AMD produit depuis septembre 2001 des processeurs Athlon spécifiques capables de travailler en bi-
processeurs, avec un chipset lui aussi spécifique. Ce sont les Athlons de type MP (multi-processeurs).
L'opteron (version serveur de l'Athlon 64 bits) utilisera jusqu'à 8 processeurs simultanément.
AMD développe 2 versions de son processeur 64 bits: l'Opteron et l'Athlon 64 bits. L'Opteron, sorti en avril
2003, est la version serveur – station informatique de haute gamme, au même titre que l'Itanium et son
successeur l'Itanium II. L'Athlon 64 bits pour stations ne sortira selon les prévisions qu'en septembre 2003
Les principales modifications par rapport à l'architecture K7 vient du nombre et de la taille des registres (les
mémoires de travail internes) qui doivent supporter à la fois les nouvelles instructions AMD64 d'AMD et SSE
d'INTEL.
Les Opteron sont gravés en 0,13 µ, tout comme les Athlons actuels, et utilisent un socket spécifique de type
940. Le cache L2 passe de 512K à 1 MB. La gestion mémoire n'est plus dévolue au chipset, mais bien
directement au processeur qui gère 2 bancs (32 bits) de DDR333.
L'Opteron utilise 3 bus Hypertransports qui peuvent être reliés directement à un autre processeur (3,2 GB/s en
bidirectionnel) soit à une puce gérant le PCI-X ou l'AGP.
Comme l'Opteron est dédié serveur, il est décliné sous 3 versions: 100, 200 et 800 qui disposent
respectivement de 0, 1 et 3 bus processeurs pouvant être utilisés pour des machines utilisant 1,2 et 8 opteron.
Chaque version est décliné en différentes vitesses. La version 200 est actuellement la seule disponible avec
des vitesses de 1,4, 1,6 et 1,8 Ghz.
le SMP à bus commuté (Symetric multiprocessing) et le multi-processing Numa. La différence entre les deux
commencent à se réduire, tout simplement parce que les fabricants commencent à mélanger les deux, quoique
le principe de fonctionnement est différent.
Ainsi, les premiers multi-processeurs faisaient communiquer les processeurs entre-eux par l'intermédiaire de
bus systèmes partagés. Ceux-ci devenaient rapidement saturés au-delà de quelques processeurs.
L'augmentation de la mémoire cache et l'augmentation de la fréquence de travail de ce bus ont permit
d'améliorer les performances. Néanmoins, les possibilités d'évolution de ces bus sont faibles, la bande
passante restant dans tous les cas constante.
Pour élaborer des plates-formes évolutives, les constructeurs ont travaillé sur des architectures à bus
commutés. Ceci a permit de créer des infrastructures d'interconnexion dont la bande passante pouvait être
augmentée par paliers, grâce à des commutateurs supplémentaires. Ce type de connexion est à la base de
systèmes modulaires.
Les composants élémentaires ne sont plus les processeurs, mais des cartes filles bi ou quadri processeurs
insérés dans des connecteurs sur une carte centrale au fond. C'est Sun qui a utilisé cette technique le premier
avec une machine capable d'exploiter jusque 64 processeurs simultanément. La carte accueillant les cartes
filles permet un débit de 12,8 GB/s et permet d'enficher jusque 16 cartes quadri-processeurs.
Chaque ajout de cartes quadri-processeur voit l'ouverture de canaux d'interconnexion supplémentaire et donc
une augmentation de la bande passante. Dans le système SUN, la mémoire est localisée sur chaque carte fille.
Elle apparaît donc comme réservée par carte. En fait, le bus central a été conçu pour que tous les accès
mémoire se fassent par lui, que l'accès soit sur la même carte fille ou sur une autre. Par ce principe, la
technique SUN ressemble à une technique SMP. Chaque constructeur utilise actuellement une technique si pas
identique, du moins équivalente. Certaines firmes ont néanmoins insérer un contrôleur local sur chaque carte
fille.
Dans le monde PC, c'est INTEL (via des rachats) qui même le jeux. INTEL utilise un contrôleur de commutation
de 2 bus d'accès mémoire, de 2 bus d'accès à des modules quadri-processeurs (le total est donc limité à deux
cartes, soit 8 processeurs) et 1 bus d'entrées / sorties. Le tout est complété par des accélérateurs de cache.
Une autre solution, actuellement déployée par Unisys consiste à utiliser un système d'exploitation par
processeur. Ceci permet actuellement d'utiliser jusqu'à 32 processeurs simultanément, en Windows 2000-NT,
Netware ou UnixWare.
L'architecture NUMA permet d'utiliser plus de processeurs. La technologie permet de regrouper des groupes de
processeurs, utilisant leur propre mémoire locale, et de les relier entre-eux par des bus capable de délivrer
plusieurs giga Octets par seconde.
Par accès non uniforme à la mémoire, il faut comprendre ici qu'un processeur n'accédera pas dans les mêmes
délais à une donnée en mémoire si celle-ci fait partie d'une mémoire locale ou distante. Cette différence de
délais s'amenuise néanmoins, regroupant ainsi les architectures UMA et NUMA. La mémoire est néanmoins
partagée sur par l'ensemble des processeurs. Ceci implique que le système NUMA exploite une gestion des
cohérences de la mémoire cache capable de prendre en compte l'ensemble des processeurs attachés à la
plate-forme.
La technologie multi-processeur ne s'appuie néanmoins pas uniquement sur la gestion des bus de connexion.
Le communications sur les bus d'inter-connexion doivent également permettre de maximaliser le traitement des
tâches entre les processeurs.
Une dernière remarque, et de taille, l'architecture NUMA oblige que chaque processeur fasse tourner son
propre système d'exploitation, alors que dans le cas SMP, un seul système d'exploitation tourne pour
l'ensemble des processeurs. Ceci dédie donc NUMA pour des systèmes UNIX ou propriétaires et SMP pour le
monde INTEL.
Notamment, en RAID 1, cette solution procure un semblant de sauvegarde, ou plutôt un sentiment de sécurité.
Ce sentiment est faux. Dans le monde des réseaux, si les données des disques peuvent être récupérées sous
certaines conditions (RAID 1, RAID 5), une attaque par virus, une intrusion malveillante ou le vol d'un ordinateur
entraîne directement des pertes de données.
Dans le cas d'un PC "stand alone" (pas raccordé en réseau) en utilisation professionnelle, la conservation des
données à tout prix avait déjà été largement détaillée dans le cours de première. Avec le chapitre sur les
serveurs, nous avons déjà une vague idée des conséquences d'un arrêt, imaginez un arrêt total durant
plusieurs jours, voire plusieurs semaines.
- Premièrement, les utilisateurs font entière confiance au réseau (et à l'administrateur du réseau) pour les
sauvegardes des données. En effet, les sauvegardes sont normalement quotidiennes sur les serveurs. –
- Deuxièmement, les applications réseaux sont souvent trop grosses pour être sauvegardées individuellement
(place, accès, ...)
Un point essentiel dans les sauvegardes réside dans l'utilisation par les utilisateurs ou par d'autres programmes
des fichiers tous types confondus. Il est primordial que les utilisateurs quittent le réseau lorsqu'ils quittent le
travail.
Si un fichier est utilisé par une station, il ne sera pas sauvegardé. Avec les types RAID 1, nous avons vu que
nous pouvons couper un disques dur des utilisateurs.
Un disques est donc accessible en lecture / écriture pour les utilisateurs tandis que le deuxième est utilisé
uniquement par le système de sauvegarde. Lorsque le backup est terminé, les 2 disques sont resynchronisés et
le système RAID revient en mode opérationnel 2 disques durs.
Stratégie de backup.
Quels que exemples pour montrer l'importance d'un sauvegarde quotidienne.
1. attaque de virus ou intrusion par Internet (hacker)
2. modification d'un programme directement sur le serveur (méthode utilisée largement dans la
pratique) pour ajouter des fonctionnalités et ... mauvais fonctionnement. Dans la pratique, obligez les
programmeurs à faire une copie complète du dossier sur le disque dur. C'est plus rapide en cas de
problème et vous évitera des heures de récupération sur bande.
3. effacement accidentel ou autre de fichiers, pertes de fichiers dans la table des matières du disque.
Dans ces trois cas, les disques en RAID ne vous servent à rien.
Sauvegarde incrémentale: ne sauvegarde que les fichiers qui ont été modifiés depuis la dernière sauvegarde.
Une restauration nécessite donc de récupérer d’abord une sauvegarde complète et ensuite de reprendre les
restaurations incrémentales.
Sauvegarde différentielle : copie tous les fichiers depuis le dernier backup complet ou incrémental. En effet,
ce mode de sauvegarde ne modifie pas le bit d’archive des fichiers.
Sauvegarde complète
Elle permet de reprendre l'ensemble des fichiers d'un seul bloc. Néanmoins, en cas de perte complète d'un
disque dur, il faut d'abord réinstaller le système d'exploitation. La durée d'un backup complet est très longue et
oblige à couper le serveurs des utilisateurs. En effet, en récupération, on remplace complètement les dossiers.
Si un fichier manque, le programme ne fonctionne pas ou pire posera des problèmes "bizarres".
Sauvegarde incrémentale
Elle sauve les fichiers qui ne sont pas encore sauvegardés. Dès lors, ces sauvegardes sont rapides. Mais ... La
récupération des fichiers d'une sauvegarde incrémentale oblige à en récupérer plusieurs en arrière, jusqu'à une
sauvegarde complète du dossier.
Sauvegarde différentielle
sauve tous les fichiers depuis le dernier backup complet ou incrémental. Le temps de sauvegarde est donc très
long et augmente à chaque sauvegarde. Comme le bit de sauvegarde n'est pas coché, il faut un autre type de
sauvegarde avant. Sinon, le serveur (ou le dossier) sera complètement sauvegardé chaque fois
Mélangeons les méthodes de sauvegardes avec l'aspect particulier de l'utilisation des données sur le serveur.
Les stratégies ci-dessous peuvent être complètes sur le disque ou par partie (dossiers). En plus, elle peuvent
être mélangées.
Une stratégie de sauvegarde qui semble intéressante reste une sauvegarde complète régulière suivie d'une
sauvegarde journalière différentielle. Malheureusement, ceci pose deux problèmes. La première est la
périodicité d'une sauvegarde complète. Plus elle est longue, plus le backup différentiel prendra du temps. Et le
deuxième est justement la durée d'un backup différentiel.
Une deuxième consiste à faire un backup complet par mois, suivi d'un backup incrémental par semaine et un
différentiel par semaine. Cette stratégie est souple, mais nécessite l'emploi de beaucoup de jeux de bandes
différentes.
Une troisième consiste à faire un backup complet du système par mois, un backup différentiel sur les dossiers
important chaque jour et un incrémental quotidien sur les autres dossiers (documents utilisateurs). Cette
Une dernière chose concernant l'utilisation des bandes. Changez de bande tous les jours. Les bandes doivent
être dédoublées. Une série paire et une série impaire. De cette manière, si une bande de lundi est défectueuse,
celle du lundi précédent ne le sera pas. Le jeux de sauvegarde ne doit pas se trouver dans la même pièce (et
même dans le même bâtiment) que le serveur. Pensez aux risques d'incendie ou de vol par exemple.
Lundi Mardi Mercredi Jeudi vendredi samedi dim. Lundi Mardi Mercredi Jeudi vendredi samedi dim.
Type Diff. Diff. Diff. Diff. Diff. Compl. Diff. Diff. Diff. Diff. Diff. Compl.
horaires 21h 21h 21h 21h 21h 20h 21h 21h 21h 21h 21h 20h
RAID? Oui Oui
bande Lu1 Ma1 Me1 Je1 Ve1 Com1 Lu2 Ma2 Me2 Je2 Ve2 Com2
Dans notre cas, le backup du vendredi est un différentiel. Il peut être remplacé par celui du samedi s'il n'y a pas
d'activités le samedi dans l'entreprise. Ceci évite un déplacement du personnel pour ... changer les bandes.
Le deuxième problème dans ce cas est la charge sur le serveur durant la sauvegarde. En sauvegardant, vous
ralentissez le système. Le problèmes des utilisateurs est résolu par le système RAID, mais pas la charge de
travail du serveur durant la sauvegarde. Il est donc important de choisir l'heure des sauvegardes, pas à 8
heures du matin quand tous le monde démarre.
La stratégie de sauvegarde se fait sur 4 semaines, une sauvegarde complète du système par mois (4
semaines), tous dossiers confondus.
Lundi Mardi Mercredi Jeudi vendredi samedi dim. Lundi Mardi Mercredi Jeudi vendredi samedi dim.
Type Diff. Diff. Diff. Diff. Diff. Diff. Comp Diff. Diff. Diff. Diff. Diff. Diff. Compl/in
horaires 21h 21h 21h 21h 21h 14h 8h 21h 21h 21h 21h 21h 21h 8h
RAID? O/N O/N O/N O/N O/N O/N O/N O/N O/N O/N O/N O/N Oui
Mensuel
bande Lu1 Ma1 Me1 Je1 Ve1 Sa1 Lu2 Ma2 Me2 Je2 Ve2 Sa2 Inc1
1/2
Lundi Mardi Mercredi Jeudi vendredi samedi dim. Lundi Mardi Mercredi Jeudi vendredi samedi dim.
Type Diff. Diff. Diff. Diff. Diff. Diff. Compl/inc Diff. Diff. Diff. Diff. Diff. Diff.
Compl
horaires 21h 21h 21h 21h 21h 14h 8h 21h 21h 21h 21h 21h 14h 8h
RAID? O/N O/N O/N O/N O/N O/N Oui O/N O/N O/N O/N O/N O/N Oui
bande Lu3 Ma3 Me3 Je3 Ve3 Sa3 Inc2 Lu4 Ma4 Me4 Je4 Ve4 Sa4 Inc3
Vous le voyez, il faut trouver l'équilibre entre la sécurité, l durée d'une sauvegarde et l'incidence sur le
fonctionnement de l'outils de production. Pas question de stopper l'usine deux heures sous prétexte de
sauvegarder des données.
En première, nous avions vu un montage alimentation par pont redresseur. Ceci est chaque année une
excellente question d'interrogation que vous ratez pour la plupart. Quoi qu'intéressantes, ces alimentations par
pont redresseur (4 diodes) après passage par un transformateur ne sont pas utilisées dans les montages
informatiques. Leur rendement est trop faible (le rapport entre la puissance consommée et la puissance rendue
en continu).
Les alimentations utilisées sont de type "A découpage". Ce principe est non seulement adaptés aux
alimentations, mais également aux UPS. Les alimentations conventionnelles ont généralement un rendement
proche de 50 %, jusque 80 % pour les alimentations à découpage.
En plus, les précautions en ouvrant ces appareils sont de types "si tu met le doigt là, c'est du 220 V
alternatif, là c'est du 380 continu, ..." Bref, si vous n'avez pas de connaissances sérieuses en
électronique analogique (transistors, haute tension) ATTENTION
Nous partons d'un réseau alternatif et le redressons par un pont sans passer par un transformateur.
De ce fait, la tension continue à la sortie est de l'ordre de 220 V (330 V en pointe). Le pont est suivi d'un
condensateur pour lisser la tension (220V continu).
Le composant suivant est un transformateur. Pour rappel, un transformateur parcouru par un courant continu ne
sert à rien. En effet, si vous faites passer une tension alternative au primaire d'un transformateur, il en ressort
au secondaire une tension de même forme mais de valeur différente (une division suivant le rapport nombre de
bobines entrées / sorties). En tension continue sur le primaire, il n'y a aucune sortie sur le secondaire. A lors, à
quoi çà sert?
Juste à la sortie du transformateur, est placé un transistor. Celui-ci va hacher la tension, induisant une tension
discontinue dans le transformateur et ainsi faire passer du courant. Le hachage est contrôlé par le circuit de
commande qui est présent au secondaire.
Contrairement au circuit ci-dessus, la base du transistor est généralement reliée au circuit de commande par un
transformateur.
Voyons le fonctionnement. Au démarrage de l'alimentation, une impulsion démarre une certaine tension
discontinue. Cette tension va induire d'abord alimenter le circuit de commande qui va commencer à faire hacher
la tension continue aux bornes du transformateur.
Plus la proportion de hachage va être grande sur la gâchette du transistor (ou base dans le cas d'un transistor
bi-polaire), plus la tension en sortie va être grande. Le circuit de commande va faire varier ce découpage en
fonction de la tension de sortie de l'alimentation et ainsi réguler cette tension.
Une petite remarque avant de continuer. Comme le pont est directement sur le 230 V alternatif, considérez que
la moitié du montage est sous 230 V.
En plus, comme le départ du montage est une tension redressée (d'où continue), ce montage permet
également de démarrer directement d'une tension continue (batteries).
En transitoires, après une premier redressement, on peut espérer qu'il soit réduit.
Le transformateur la laissera complètement passer et le deuxième condensateur (souvent couplé à une self de
lissage) devrait la supprimer (devrait).
En pratique, une partie de ces transitoires passent et les alimentations ATX utilisées dans les PC informatiques
ne les apprécient pas vraiment. Il en est de même pour les pics de tension. Dans le cas des micro-coupures, les
condensateurs font en partie office de bouclier. Pour la foudre, pensez directement à changer et l'alimentation
et les cartes suivantes. Bref, une partie est protégée, mais pas tout.
Pire, certains appareils ayant pris la foudre continuent de fonctionner .. sans protection.
Dans les trois cas, ils peuvent être munis d'un dispositif qui arrête le PC lors d'une coupure de courant. En effet,
les UPS ne sont pas des sources inépuisables et s'arrêtent après 10 minutes généralement. Dans le cas d'un
serveur, je doute que vous restiez à côté en permanence. Dès lors, la connexion vers le PC permet d'arrêter
correctement les applications avant de fermer le serveur. L'onduleur stoppe la foruniture d'électricité lorsque le
serveur est éteint.
Par une option dans certains BIOS, on peut demander de redémarrer le serveur lorsque la tension revient.
La durée de la sauvegarde dépend de la puissance de l'UPS, exprimée en VA (et non en Watt). Considérez que
pour une installation donnée, la puissance de l'UPS pour une sauvegarde de 10 minutes doit être de P
installation (Watt)X1,6 Pour une installation de 350 Watt (serveur + écran), l'UPS doit donc faire minimum 350 X
1.6 =560 VA.
Si la puissance utilisée par l'installation est supérieure au VA de l'UPS, celui-ci risque soit d'être détruit, soit de
se mettre en sécurité. De même, évitez de connecter des imprimantes laser, la consommation de courant tout
au début de l'impression risque d'endommager l'UPS.
Reste les batteries. Elle sont généralement au plomb en 12 V, mises parfois en série pour atteindre 24V et en
parallèle pour permettre une durée de sauvegarde plus longue. De par leur conception, les batteries doivent
régulièrement être complètement déchargées pour éviter un effet mémoire qui les rend inutilisables, en
moyenne tous les 6 mois.
Certains U.P.S. incluent des protestions pour les câbles réseaux et téléphoniques. APC a même sorti des UPS
redondants (dédoublés) pour les serveurs, on n'est jamais trop prudent. L'autre grand du marché MGE ne
devrait pas tarder à le faire.
Régulation de tension
En noir, l'évolution du
réseau électrique, en vert la
Schémas de fonctionnement d'un onduleur Off-line
tension de sortie du
l'onduleur.
La technologie Off-line est la moins chère et donc la plus courante. La tension électrique passe par un relais. La
tension de sortie est ensuite filtrée pour accepter certaines variations de tensions et supprimer une partie des
parasites.
En même temps, les batteries 12 V sont rechargées via le convertisseur. Lorsque la tension sur le réseau
disparaît (ou diminue en dessous de 176 V ou supérieure à 280 V) , le relais s'ouvre et la tension de sortie
alternative 220 V - 240 V est recrée à partir des batteries 12 ou 24 V. Le temps de réaction est relativement
élevé, vu le délai de fermeture ou d'ouverture des relais. Ces appareils de régulation électriques ne régulent pas
les micro-coupures du réseau.
Le réseau électrique passe d'abord par un filtrage des transitoires. Dans le cas où la tension est suffisante (au-
dessus de 176 V), le réseau passe par le booster qui n'intervient pas. Lorsque la tension reste suffisamment
longtemps en sous-tension, le booster va injecter une tension via le convertisseur continu / alternatif pour
"booster" le réseau pendant une courte période. Remarquez que dans ce cas, c'est l'ensemble du réseau
électrique qui est alimenté. Lorsque la tension d'alimentation passe en-dessous de 176 V, l'onduleur se met
complètement en route en ouvrant le relais d'entrée (plus de tension fournie vers l'extérieur).
Le principe de fonctionnement d'un UPS On-Line est nettement différent. La tension d'entrée est
systématiquement redressée. Elle alimente donc en permanence les batteries. Cette tension recrée ensuite une
tension de sortie 230 V.
En cas de coupure ou de baisse de tension, les batteries assurent l'alimentation du convertisseur continu /
alternatif. En cas de sous-tension, la tension de sortie est à la fois créée à partir des batteries et du réseau, ce
qui n'est pas le cas des UPS Off-line. Revers de la médaille, les batteries sont pratiquement sollicitées tout le
temps.
Elles sont donc plus souvent changées. Comme les batteries valent facilement 2/3 d'un prix d'un nouvel
appareil ...
Ces appareils utilisent également 2 circuits de by-pass. Le premier circuit de bypass permet de passer outre de
l'onduleur.
Cette possibilité manuelle permet d'alimenter les appareils sans passer par l'UPS (panne de l'onduleur par
exemple). Le deuxième by-pass fonctionne un peu comme les UPS off-Line et permet d'économiser la durée de
vie des batteries.
Par contre, différents fabricants proposent depuis début 2003 des solutions de réseau interne via le réseau
électrique (en concurrence avec les réseaux sans fils).
Quelques rappels:
Le réseau domestique dans une habitation est en 230 V monophasé.
Par contre, le réseau électrique extérieur est en triphasé (3 phases ou 3 phases + neutre).
En prenant 2 fils, on obtient le réseau monophasé.
Pour que le signal soit propagé d'un point à l'autre, il faut que les 2 points soient sur la même phase. Il se
pourrait très bien que vous puissiez communiquer avec une maison à plus de 100 mètres et ne pas pouvoir
atteindre la maison à côté. C'est le même problème avec les appareils pour surveiller les enfants en bas âge de
type "baby phone".
Pour transporter le courant électrique sur de longue distance, la tension électrique est augmentée.
C'est ce qu'on appelle les lignes haute tension qui dépassent les 1000 V. Pour passe de la tension 230 V à la
haute tension, et vis et versa, on utilise des transformateurs.
Ces transformateurs de par leur conception réduisent (ou augmentent) les signaux parasites et les signaux
digitaux qui seraient transférés par le câble électrique en même tant que la tension. Ceci explique par exemple
les problèmes des liaisons Internet par le réseau électrique actuellement en développement chez EDF en
France.
La liaison Ethernet à travers le réseau électrique (Ethernet Over Power Line) utilise des appareils spécifiques
que se chargent du transfert des signaux via la ligne électrique.
De l'autre côté, l'appareil est muni d'une liaison Ethernet classique 10/100 qui se connectent sur les carte
réseaux des PC, Hubs, switch, ...
Le débit maximum de ce type d'installation est de maximum 14 Mbps, soit un peu plus que le Wifi 802.11B à 10
Mps. La distance maximum est actuellement limitée à 200 mètres. Mais les caractéristiques devraient évoluer
dans les prochains mois (mi-2003).
La méthode de communication utilise une modulation de type OFDM (Orthogonal Frequency Division
Multiplexing) déjà utilisée dans la norme 802.11a.
Cette technologie intègre de nombreuses fonctions, comme la gestion de la QoS (classes de priorité, contrôle
de la latence, et adaptation des taux de transmission au temps de propagation d'un paquet).
Cette solution permet via d'autres appareils de relier directement via le port USB des PC en transitant par le
réseau électrique. La vitesse est ici limitée par celle du port USB 1.1 qui est de 12 Mb/S, un peu plus lent. Dans
ce cas chaque PC à connecter reçoit une interface.
85Mb/s, c'est du 10Mo/s au moins, soit du très gros débit pour les particuliers. Le tout peut passer par un
réseau électrique à basse tension. Les débits sont bien sûr théoriques, mais la technologie semble très
concurrentielle.
Le protocole utilisé, appelé CPLRP, est une adaptation de celui du CPL domestique actuel, et s'adapte
particulièrement aux entreprises.
Oxance a de plus réussi à tripler la portée d'émission, soit un total théorique de 600 m, avec la possibilité d'y
brancher un maximum de 225 clients différents, contre 16 avec le CPL actuel.
La portée reste néanmoins limitée, et des répéteurs sont nécessaires pour chaque grappe de 15 modems.
La connexion est sécurisée par un triple cryptage DES 56 bits et RVP AES 128 bits pour les clients, avec
filtrage des adresses Mac. Le tout peut être administré à distance.
Charge
- Un réseau Ethernet peut s'écrouler: diffusion
- La charge dépend de nombreux facteurs
- Ethernet chargé à 5 Mb/s est trop chargé
- Intéressant d'avoir l'évolution de la charge
- L'analyseur mesure la charge et Indique qui charge
- Ce problème ne semble plus primordial grâce à la segmentation
Valises de test:
- Pour câble coaxial ou pour fibre optique
- Permet de connaître l'état du câblage
- Obligatoire pour faire la recette d'un réseau Ethernet
- Equipement professionnel
Conseils
- Etre maître de son réseau
- Connaître son réseau et suivre son évolution
- Connaître la fonction de chaque élément
- Connaître les protocoles utilisée
- Noter toutes les modifications du réseau
- Utiliser un analyseur une fois par mois
- La surveillance devrait s'intégrer dans l'Administration de réseau SNMP
- SNMP: Simple Network Management Protocol
Ces appareils ne sont fiables que jusqu'à un certains points. Ils vérifient uniquement si le contact est correct,
pas si la liaison est correcte. En clair, si l'appareil détecte une erreur de câblage, le câblage est à
recommencer. S'il ne détecte pas d'erreur, cela ne signifie pas forcément que le câble est bon. Un mauvais
contact sera souvent considéré comme bon.
Ici, un test de câble croisé. La partie gauche reprend le module de commande, la partie droite, la terminaison
détachable. Les 8 Led au-dessus indique si les fils individuellement sont corrects. Dans la partie gauche donne
des indications sur les connexions. Short (câble coupé ou mauvaise connexion sur au moins un fils).
CONNECTED que le câble est droit. Non-Parrallel que le câble est croisé. NO CONNECTION que le câble n'est
pas inséré. Le prix varie de 100 à 150 €.
Le deuxième type fonctionne à la manière d'une carte réseau. Ces appareils testent la ligne (et pas
uniquement les fils. l'appareil se connecte au bout d'un câble et teste la liaison sur un HUB ou un switch. Dans
ce sens, ils sont plus efficaces. Ils sont un peu plus onéreux.
Le troisième type de testeur réseau ressemble à un mini-ordinateur. Le prix revient facilement à 10.000 € et
n'est donc pas à la portée de tout le monde. La méthode de test est identique à celle des premiers appareils. Ils
offrent les mêmes possibilités que les appareils du premier groupe mais permettent en plus:
Les tests effectifs des faux contacts ou des coupures sur chaque ligne.
La longueur du câble
En cas de coupure d'un fils (ou de plusieurs), la distance à la quelle il est coupé.
Différentes perturbations qui transitent sur le câble (perturbations électriques).
Commande ARP
La commande Arp affiche et modifie les entrées du cache ARP (Address Resolution Protocol), qui contient une
ou plusieurs tables permettant de stocker les adresses IP et leurs adresses physiques Ethernet ou Token Ring
résolues. À chaque carte réseau Ethernet ou Token Ring installée sur l'ordinateur correspond une table
distincte. Utilisée sans paramètres, la commande arp affiche de l'aide.
Syntaxe
arp [-a [AdrInet] [-N AdrIface]] [-g [AdrInet] [-N AdrIface]] [-d AdrInet [AdrIface]] [-s AdrInet AdrEther
[AdrIface]]
Paramètres
-a [AdrInet] [-N AdrIface]
Affiche les tables en cours du cache ARP de toutes les interfaces. Pour afficher l'entrée du cache ARP
d'une adresse IP spécifique, utilisez la syntaxe arp -a en affectant au paramètre AdrInet une adresse
IP. Pour afficher la table du cache ARP d'une interface spécifique, utilisez la syntaxe -N AdrIface en
affectant au paramètre AdrIface l'adresse IP attribuée à l'interface. Le paramètre -N tient compte de la
casse.
-d AdrInet [AdrIface]
Supprime une entrée correspondant à une adresse IP spécifique, représentée par AdrInet. Pour
supprimer une entrée dans une table correspondant à une interface spécifique, utilisez le paramètre
AdrIface, en lui affectant l'adresse IP attribuée à l'interface. Pour supprimer toutes les entrées, utilisez
le caractère générique astérisque (*) à la place de AdrIface.
Remarques
Les adresses IP de AdrInet et AdrIface sont exprimées en notation décimale à points.
L'adresse physique de AdrEther se compose de six octets exprimés en notation hexadécimale et séparés par
des traits d'union (par exemple, 00-AA-00-4F-2A-9C).
Les entrées ajoutées à l'aide du paramètre -s sont statiques et n'ont pas de durée de vie limitée dans le cache
ARP. Elles sont supprimées si le protocole TCP/IP est arrêté et démarré. Pour créer des entrées statiques
définitives dans le cache ARP, placez les commandes arp appropriées dans un fichier de commandes et utilisez
Tâches planifiées pour exécuter le fichier de commandes au démarrage.
Cette commande est disponible uniquement si le protocole Internet Protocol (TCP/IP) est installé comme
composant dans les propriétés d'un adaptateur réseau dans Connexions réseau.
Exemples
Pour afficher les tables du cache ARP de toutes les interfaces, tapez :
Vous pouvez ainsi vérifier votre configuration IP, En utilisant la commande Ping de MS-Dos sous windows.
C:\WINDOWS>ping -a 192.168.0.5
Envoi d'une requête 'ping' sur TOTO [192.168.0.5] avec 32 octets de données :
Options :
-t Envoie la requête ping sur l'hôte spécifié jusqu'à interruption.
Entrez Ctrl-Arrêt pour afficher les statistiques et continuer,
Ctrl-C pour arrêter.
Le protocole FTP fait parti de la suite TCP/IP et il est utilisé pour coordonner les transferts de fichiers vers des
sites Web distants ou le transfert de fichiers de site Web distant vers des ordinateurs locaux.
Pour simplement télécharger des fichiers quand vous connaissez le nom de domaine sur Internet et les noms
des répertoires et des fichiers, utiliser la syntaxe suivante :
ftp://domaine/répertoire/nomdufichier
Ici domaine est le nom du serveur FTP; répertoire, est le chemin complet du répertoire avec lequel vous
souhaiter travailler; et nomdufichier est le nom du fichier à télécharger.
Logiciel FILEZILLA
La commande suivante lance la commande ftp et initie une connexion vers le site de Microsoft.
FTP FTP.microsoft.com
1°/ télécharger sur le Web www.axis.com le fichier de mise à jour du boîtier AXIS :
C:\WINDOWS>FTP 192.168.0.3
Connecté à 192.168.0.3.
220 AXIS 5400 FTP Network Print Server V6.10 Feb 7 2000 ready.
Utilisateur (192.168.0.3:(none)) : root
331 User name ok, need password
Mot de passe :
230 User logged in
ftp>
4°/A l’invite Tapez Binary puisque le fichier à transférer est un fichier binaire.
ftp> binary
200 TYPE set to I.
5°/ ensuite tapez la commande PUT qui est utilisée pour transférer des fichiers vers de sites distants.
ftp> put
Cd répertoire_distant
Change de répertoire de l'ordinateur distant en répertoire_distant.
Cd .. ou cdup
Change le répertoire de l'ordinateur distant en parent du répertoire actuel.
Ls
Affiche un bref listing des fichiers que contient le répertoire distant actuel
Ls -l ou dir
Affiche un long listing des fichiers que contient le répertoire distant actuel
Mkdir nouveau_répertoire
Crée le répertoire nouveau_répertoire sur l'ordinateur distant
Pwd
Imprime (affiche) le nom du répertoire de travail sur l'ordinateur distant
Ascii
Change le FTP en mode ASCII pour le transfert des fichiers texte
²Bell
Active et désactive le paramètre Bell. Il est défini à "on", le ftp fait biper le haut parleur de votre ordinateur
quand chaque fichier a été tranféré.
Binary
Fait passer le protocole FTP en mode bianire pour le transfert des fichiers binaires.
Hash
Active et désactive l'affichage de symbole # pour chaque bloc de données tranféré.
Prompt
Active et désactive l'invite de confirmation pour les transferts de fichiers multiples. Le paramètre par défaut est
"on".
Status
Affiche les paramètres de l'option actuelle.
Delete fichier_dis
Supprime le fichier distant de l'ordinateur distant
get fichiers_dis
[fichier_loc]
télécharge le fichier fichier_dis vers votre ordinateur local et l'enregistre comme fichier_loc.
mget fichiers_dis1
[fichier_dis2…]
télécharge les fichiers distants 1, 2 etc vers votre ordinateur local
mput fichier_loc1
[fichier_loc2]
télécharge les fichiers_loc1, 2 etc… de votre ordinateur local vers la machine distante.
Put fichier_loc
Fichier_dis
Télécharge le fichier_loc de votre ordinateur vers l'ordinateur distant et l'enregistre comme fichier_dis
Rename fichier_dis
Nouveau_nom
Renomme fichier_dis en nouveau_nom dur l'ordinateur distant.
Buy or quit
Quitte le programme FTP et vous ramène à l'invite MS-DOS
Close or disconnect
Termine la session FTP avec l'odinateur distant et vous ramène à l'invite FTP.
Syntaxe
ipconfig [/all] [/renew [Carte]] [/release [Carte]] [/flushdns] [/displaydns] [/registerdns] [/showclassid
Carte] [/setclassid Carte [IDClasse]]
Paramètres
/all
Affiche la configuration TCP/IP complète de toutes les cartes. Sans ce paramètre, ipconfig affiche
uniquement l'adresse IP, le masque de sous-réseau et les valeurs de la passerelle par défaut de
chaque carte. Les cartes peuvent représenter des interfaces physiques, par exemple les cartes
réseau installées, ou des interfaces logiques, par exemple les connexions d'accès à distance.
/renew [Carte]
Renouvelle la configuration DHCP de tous les cartes (si aucune carte n'est spécifiée) ou d'une carte
spécifique si le paramètre Carte est inclus. Ce paramètre est disponible uniquement sur les
ordinateurs dont les cartes sont configurées de manière à obtenir automatiquement une adresse IP.
Pour spécifier un nom de carte, tapez celui qui apparaît quand vous utilisez ipconfig sans paramètre.
/release [Carte]
Envoie un message DHCPRELEASE au serveur DHCP pour libérer la configuration DHCP actuelle et
annuler la configuration d'adresse IP de toutes les cartes (si aucune carte n'est spécifié) ou d'une
carte spécifique si le paramètre Carte est inclus. Ce paramètre désactive TCP/IP pour les cartes
configurées de manière à obtenir automatiquement une adresse IP. Pour spécifier un nom de carte,
tapez celui qui apparaît quand vous utilisez ipconfig sans paramètre.
/flushdns
Vide et réinitialise le contenu du cache de résolution du client DNS. Au cours de la résolution des
problèmes DNS, vous pouvez utiliser cette procédure pour exclure les entrées de cache négatives
ainsi que toutes les autres entrées ajoutées de façon dynamique.
/displaydns
Affiche le contenu du cache de résolution du client DNS, qui inclut les entrées préchargées à partir du
fichier des hôtes locaux ainsi que tous les enregistrements de ressources récemment obtenus pour
les requêtes de noms résolues par l'ordinateur. Le service Client DNS utilise ces informations pour
résoudre rapidement les noms fréquemment sollicités, avant d'interroger ses serveurs DNS
configurés.
/registerdns
Entame une inscription dynamique manuelle des noms DNS et des adresses IP configurés sur un
ordinateur. Vous pouvez utiliser ce paramètre pour résoudre un problème d'échec d'inscription de nom
DNS ou un problème de mise à jour dynamique entre un client et le serveur DNS sans redémarrage
du client. Les paramètres DNS des propriétés avancées du protocole TCP/IP déterminent les noms
enregistrés dans DNS.
/showclassid Carte
Affiche l'ID de classe DHCP d'une carte spécifique. Pour visualiser l'ID de classe DHCP de toutes les
cartes, utilisez l'astérisque (*) comme caractère générique à la place de Carte. Ce paramètre est
/?
Affiche l'aide dans l'invite de commandes.
Remarques
- La commande ipconfig représente l'équivalent sous forme de ligne de commande de la commande winipcfg,
disponible dans Windows Millennium Edition, Windows 98 et Windows 95. Bien que Windows 2000/XP ne
dispose pas de l'équivalent graphique de la commande winipcfg, vous pouvez utiliser Connexions réseau pour
afficher et renouveler une adresse IP. Pour ce faire, ouvrez Connexions réseau, cliquez avec le bouton droit
sur une connexion réseau, cliquez sur État, puis sur l'onglet Prise en charge.
- Cette commande est très utile sur les ordinateurs configurés de manière à obtenir automatiquement une
adresse IP. Cela permet aux utilisateurs de déterminer les valeurs de configuration TCP/IP utilisées par DHCP,
APIPA (Automatic Private IP Addressing) ou un autre type de configuration. Si le nom de la Carte contient des
espaces, utilisez des guillemets autour de ce nom (comme ceci : "Nom carte").
- En ce qui concerne les noms de cartes, ipconfig prend en charge l'utilisation de l'astérisque (*) comme
caractère générique pour spécifier des cartes dont le nom commence par la chaîne indiquée ou des cartes
dont le nom contient une chaîne spécifique. Par exemple, Local* recherche toutes les cartes commençant par la
chaîne Local et *Con* recherche toutes les cartes contenant la chaîne Con.
- Cette commande est disponible uniquement si le protocole TCP/IP (Internet Protocol) est déclaré comme
composant dans les propriétés d'une carte réseau dans les Connexions réseau.
Exemples
Pour afficher la configuration TCP/IP de base de toutes les cartes, tapez :
ipconfig
Pour renouveler une configuration d'adresse IP assignée par DHCP uniquement pour la carte
Connexion au réseau local, tapez :
ipconfig /renew "Connexion au réseau local"
Pour vider le cache de résolution DNS et résoudre les problèmes de noms DNS, tapez :
ipconfig /flushdns
Pour afficher l'ID de classe DHCP de toutes les cartes dont le nom commence par Local, tapez :
ipconfig /showclassid Local*
Pour attribuer la valeur TEST à l'ID de classe DHCP de la carte Connexion au réseau local, tapez :
ipconfig /setclassid "Connexion au réseau local" TEST
nbtstat [-a nom_distant] [-A adresse IP] [-c] [-n] [-R] [-r] [-S] [-s] [intervalle]
Paramètres
-a nom_distant
Affiche la table des noms de l'ordinateur distant en utilisant le nom.
-A adresse IP
Affiche la table des noms de l'ordinateur distant en utilisant son adresse IP.
-c
Affiche le contenu du cache de noms NetBIOS en donnant l'adresse IP de chaque nom.
-n
Affiche les noms NetBIOS locaux. La mention Registered indique que le nom est enregistré par
diffusion (Bnode) ou par WINS (autres types de noeuds).
-R
Recharge le fichier Lmhosts après avoir purgé tous les noms du cache de noms NetBIOS.
-r
Affiche les statistiques de résolution de noms pour la résolution de noms en réseau Windows. Sur un
système Windows 2000 configuré pour utiliser WINS, cette option renvoie le nombre de noms résolus
et enregistrés par diffusion ou par WINS.
-S
Affiche les sessions client et serveur, en répertoriant les ordinateurs distants par adresse IP
uniquement.
-s
Affiche les sessions client et serveur. Ce commutateur tente de convertir l'adresse IP de l'ordinateur
distant en un nom à l'aide du fichier Hosts.
intervalle
Affiche les statistiques sélectionnées de manière répétée avec un intervalle (en secondes) entre
chaque occurrence. Appuyez sur CTRL+C pour interrompre l'affichage des statistiques. Si ce
paramètre est omis, nbstat n'imprime qu'une seule fois les informations de la configuration.
État Signification
Connecté La session est établie.
Associé Un point terminal de la connexion a été créé et associé à une adresse IP.
Écoute Ce point terminal est disponible pour une connexion entrante.
Inactif Ce point terminal a été ouvert, mais ne peut pas être connecté.
Connexion La session est en phase de connexion (résolution du mappage nom/adresse IP de la
destination).
Acceptation Une session entrante est en cours de validation et la connexion est imminente.
Reconnecter Une session tente de se reconnecter après l'échec de la première tentative.
Sortant Une session est en phase de connexion (création de la connexion TCP en cours).
Entrant Une session entrante est en phase de connexion.
Déconnexion Une session est en phase de déconnexion.
Déconnecté L'ordinateur local a demandé une déconnexion et attend la confirmation du système distant.
Beaucoup de commandes réseau de Windows 2000 commencent par le mot net. Ces commandes possèdent
certaines propriétés en commun :
- Vous pouvez voir apparaître la liste des commandes net disponibles en tapant net /?.
- Vous pouvez obtenir une aide sur la ligne de commandes pour connaître la syntaxe d'une
commande net en tapant net help commande. Par exemple, pour obtenir une aide sur la commande
net accounts, tapez net help accounts.
- Toutes les commandes net acceptent les options /yes et /no (qui peuvent être abrégées sous la
forme /y et /n). L'option /y répond automatiquement oui à chaque invite interactive générée par la
commande tandis que l'option /n répond non. Par exemple, net stop server vous invite généralement à
confirmer que vous voulez bien arrêter tous les services qui dépendent du service Serveur, tandis que
net stop server /y répond automatiquement oui à l'invite et le service Serveur s'arrête.
Net accounts
Met à jour la base de données des comptes d'utilisateurs et modifie les paramètres de mot de passe et
d'ouverture de session exigés pour tous les comptes. Le service Accès réseau doit être en cours
d'exécution sur l'ordinateur pour lequel vous désirez modifier les paramètres de compte.
net accounts [/forcelogoff:{minutes | no}] [/minpwlen:longueur] [/maxpwage:{jours | unlimited}] [/minpwage:jours]
[/uniquepw:nombre] [/domain]
Paramètres
Aucun
Tapez net accounts sans paramètre pour afficher les paramètres en cours relatifs au mot de passe,
aux conditions d'ouverture de session et aux informations sur le domaine.
/forcelogoff:{minutes | no}
Définit le délai (en minutes) devant s'écouler avant que ne soit fermée la session d'un utilisateur sur
un serveur lorsque le compte d'utilisateur ou le temps d'ouverture de session valide expire. L'option
no empêche la fermeture de session forcée. La valeur par défaut est no.
Lorsque l'option /forcelogoff:minutes est utilisée, Windows 2000 envoie un avertissement en minutes
avant de déconnecter l'utilisateur du réseau. Si des fichiers sont ouverts, Windows 2000 en avertit
l'utilisateur. Quand minutes est inférieur à 2, Windows 2000 avertit l'utilisateur pour qu'il ferme
immédiatement sa session sur le réseau.
/minpwlen:longueur
Fixe le nombre minimal de caractères pour le mot de passe d'un compte d'utilisateur. La plage est
comprise entre 0 et 127 caractères et la longueur par défaut est 6 caractères.
/maxpwage:{jours | unlimited}
Fixe la durée maximale de validité (en jours) du mot de passe d'un compte d'utilisateur. Avec la valeur
unlimited, il n'y a pas de durée maximale. L'option /maxpwage doit avoir une valeur supérieure à
celle de /minpwage. La plage est comprise entre 1 et 49 710 jours (unlimited) et la durée par défaut
est 90 jours.
/uniquepw:nombre
Interdit à un utilisateur de reprendre le même mot de passe pendant nombre changements de mot de
passe. La plage est comprise entre 0 et 24 changements de mot de passe et la valeur par défaut est 5
changements de mot de passe.
/domain
Exécute l'opération sur le contrôleur principal de domaine du domaine en cours. Sinon, l'opération est
effectuée sur l'ordinateur local.
Ce paramètre s'applique uniquement aux ordinateurs Windows 2000 Workstation qui sont membres
d'un domaine Windows 2000 Server. Par défaut, les ordinateurs Windows 2000 Server exécutent les
opérations sur le contrôleur de domaine principal.
/sync
En cas d'emploi sur le contrôleur principal de domaine, se traduit par la synchronisation de tous les contrôleurs
secondaires de domaine. En cas d'emploi sur le contrôleur secondaire de domaine, se traduit par la
synchronisation de ce contrôleur secondaire de domaine seulement avec le contrôleur principal de domaine.
Cette commande s'applique uniquement aux ordinateurs qui sont membres d'un domaine Windows 2000
Server.
Exemples
Pour afficher les paramètres en cours de fermeture forcée de session, les exigences relatives au mot de passe
et le rôle de serveur pour un serveur, tapez :
net accounts
Pour que les mots de passe du compte d'utilisateur aient une longueur minimale de 7 caractères,
tapez :
Paramètres
\\nom_ordinateur
Spécifie l'ordinateur à ajouter ou supprimer dans le domaine.
/add
Ajoute l'ordinateur spécifié au domaine.
/del
Supprime l'ordinateur spécifié du domaine.
Remarques
La commande net computer n'est disponible que sur les ordinateurs exécutant Windows 2000 Server.
Tous les ajouts et suppressions d'ordinateur sont retransmis au contrôleur principal de domaine.
Exemple
Pour ajouter l'ordinateur GRIZZLY au domaine en cours de session, tapez :
Paramètres
Aucun
Tapez net config sans paramètre pour afficher la liste des services configurables.
service
Spécifie un service (serveur ou station de travail) qui peut être configuré avec la commande net
config.
options
Les options sont particulières au service. Pour plus d'informations sur la syntaxe complète, cliquez sur
net config server ou net config workstation dans la liste Voir aussi.
Remarques
Servez-vous de la commande net config service pour changer les paramètres de service Server ou
Workstation configurable. Les modifications entrent immédiatement en vigueur et sont permanentes.
Exemple
Pour identifier les services configurables en cours d'exécution, tapez :
net config
Paramètres
Aucun
Tapez net config server pour afficher la configuration en cours du service Serveur.
/autodisconnect:délai
Fixe (en minutes) le délai maximal pendant lequel la session d'un utilisateur peut rester inactive avant
d'être déconnectée. Vous pouvez spécifier -1 pour empêcher toute déconnexion. La plage est
comprise entre -1 et 65 535 minutes et le délai par défaut est 15.
/srvcomment:"texte"
Ajoute un commentaire relatif au serveur, qui apparaît dans les écrans Windows 2000 et s'affiche
avec la commande net view. Le commentaire peut être d'une longueur maximale de 48 caractères.
Placez le texte entre guillemets.
/hidden:{yes | no}
Spécifie si le nom d'ordinateur du serveur doit ou non figurer dans les listes de serveurs affichées.
Notons que la dissimulation d'un serveur ne modifie en rien les autorisations le concernant. La valeur
par défaut est no.
Remarques
Utilisez la commande net config server pour modifier les paramètres configurables du service Serveur. Les
modifications entrent immédiatement en vigueur et sont permanentes.
Certains paramètres du service Serveur ne peuvent pas être modifiés au moyen de la commande net config
server, mais l'affichage net config server comprend des renseignements supplémentaires. Il fournit les
informations suivantes sur le serveur :
Nom d'ordinateur du serveur, texte descriptif et version du logiciel.
Description du réseau.
Paramètre masqué du serveur.
Nombre maximal d'utilisateurs pouvant employer les ressources partagées du serveur.
Nombre maximal de fichiers de serveur pouvant être ouverts.
Paramètre de délai de session inactive.
Exemples
Pour afficher des informations sur le serveur local et empêcher l'affichage de défiler, tapez :
Paramètres
Aucun
Tapez net config workstation pour afficher la configuration en cours de l'ordinateur local.
/charcount:octets
Définit le volume de données que Windows 2000 collecte avant de les envoyer à un périphérique de
communication. Si /chartime:msec est aussi défini, Windows 2000 agit sur la première option dont la
condition est remplie. La plage est comprise entre 0 et -65 535 octet et la valeur par défaut est 16
octets.
/chartime:msec
Définit en millisecondes l'intervalle pendant lequel Windows 2000 collecte les données avant de les
envoyer à un périphérique de communication. Si /charcount:octet est aussi défini, Windows 2000 agit
sur la première option dont la condition est remplie. La plage est comprise entre 0 et 65 535 000
millisecondes et la valeur par défaut est 250 millisecondes.
/charwait:sec
Définit en secondes le délai pendant lequel Windows 2000 attend qu'un périphérique de
communication devienne disponible. La plage est comprise entre 0 et 65 535 secondes et le délai par
défaut est 3 600 secondes.
Remarques
Utilisez la commande net config workstation pour modifier les paramètres configurables du service Station de
travail. Les modifications entrent immédiatement en vigueur et sont permanentes.
Certains paramètres du service Station de travail ne peuvent pas être modifiés au moyen de la commande net
config workstation. D'autres peuvent être modifiés dans le Registre de configuration.
Exemples
Pour afficher la configuration en cours du service Station de travail, tapez :
Paramètres
Aucun
Tapez net statistics sans paramètre pour afficher la liste des services en cours d'exécution pour
lesquels des statistiques sont disponibles.
workstation
Affiche les statistiques pour le service Station de travail local.
server
Affiche les statistiques pour le service Serveur local.
Remarques
Cette commande peut aussi être tapée sous la forme net stats.
Utilisez la commande net statistics pour afficher des informations relatives aux performances du service
spécifié.
Service Serveur
Windows 2000 signale le nom d'ordinateur, la date et l'heure de la dernière mise à jour des
statistiques ainsi que les informations suivantes :
- Nombre de sessions démarrées, déconnectées automatiquement et déconnectées en raison d'une
erreur.
- Nombre de kilo-octets envoyés et reçus ainsi que le temps de réponse moyen du serveur.
- Nombre d'erreurs et de violations des limites de mot de passe et d'autorisation.
- Fréquence d'utilisation des fichiers partagés, des imprimantes et des périphériques de
communication.
- Fréquence de dépassement de la taille des tampons de mémoire.
Exemples
Pour afficher les services en cours d'exécution pour lesquels des statistiques sont disponibles, tapez :
net stats
Pour afficher les statistiques du service Serveur et empêcher l'affichage de défiler, tapez :
net statistics server | more
Paramètres
Aucun
Affiche la date et l'heure en cours pour l'ordinateur désigné comme serveur de temps du domaine
Windows Server de l'ordinateur local.
\\nom_ordinateur
Spécifie le nom du serveur dont vous voulez contrôler l'horloge ou avec lequel vous souhaitez
synchroniser votre horloge.
/domain[:nom_domaine]
Spécifie le domaine avec lequel vous souhaitez synchroniser l'horloge.
/rtsdomain[:nom_domaine]
Spécifie le domaine du serveur de référence de synchronisation avec lequel vous souhaitez
synchroniser l'horloge.
/set
Synchronise l'horloge de l'ordinateur avec celle de l'ordinateur ou du domaine spécifié.
/querysntp
Affiche le nom du serveur NTP (Network Time Protocol) actuellement configuré pour l'ordinateur local
ou pour l'ordinateur spécifié dans \\nom_ordinateur.
Paramètres
Aucun
Utilisée sans paramètre, la commande net use extrait une liste des connexions réseau.
nom_périphérique
Assigne un nom pour établir la connexion à la ressource ou désigne le périphérique à déconnecter. Il
existe deux types de noms de périphérique : les lecteurs de disque (D: à Z:) et les imprimantes (LPT1:
à LPT3:). Tapez un astérisque en lieu et place d'un nom de périphérique déterminé pour assigner le
prochain nom de périphérique disponible.
\\nom_ordinateur\nom_partage
Spécifie le nom du serveur et de la ressource partagée. Si nom_ordinateur contient des caractères
blancs, placez la totalité du nom, depuis la double barre oblique (\\) jusqu'à la fin du nom, entre
guillemets (" "). Le nom d'ordinateur peut contenir entre 1 et 15 caractères.
\volume
Spécifie un volume NetWare sur le serveur. Pour vous connecter à des serveurs Netware, il faut que
le Service client pour NetWare (Windows 2000 Professionnel) ou le Service passerelle NetWare
(Windows 2000 Server) soit installé et en cours d'exécution.
mot_de_passe
Spécifie le mot de passe requis pour accéder à la ressource partagée.
*
Produit une invite pour le mot de passe. Le mot de passe ne s'affiche pas quand vous le tapez à
l'invite du mot de passe.
/user
Spécifie un autre nom d'utilisateur avec lequel la connexion est établie.
nom_domaine
Spécifie un autre domaine. Par exemple, net use d:\\server\share /user:admin\mariel connecte l'ID
utilisateur mariel comme si la connexion était établie à partir du domaine admin. Si nom_domaine est
omis, le domaine actuellement connecté est utilisé.
nom_utilisateur
Spécifie le nom d'utilisateur avec lequel vous vous connectez.
/delete
Annule la connexion réseau spécifiée. Si l'utilisateur spécifie la connexion à l'aide d'un astérisque,
toutes les connexions réseau sont annulées.
/persistent
Gère l'emploi des connexions réseau persistantes. Le paramètre par défaut correspond au dernier
paramètre utilisé. Les connexions sans périphérique ne sont pas persistantes.
yes
Enregistre toutes les connexions au fur et à mesure qu'elles sont établies et les restaure lors de la
prochaine connexion.
no
N'enregistre pas la connexion qui est établie ou celles qui suivent. Les connexions existantes sont
restaurées lors de la prochaine connexion. Servez-vous du paramètre /delete pour supprimer les
connexions persistantes.
Remarques
Utilisez la commande net use pour vous connecter et vous déconnecter d'une ressource réseau ainsi que pour
afficher les connexions en cours aux ressources réseau. Vous ne pouvez pas vous déconnecter d'un répertoire
partagé si vous l'utilisez comme lecteur en cours ou s'il est employé par un processus actif.
Tapez net use nom_périphérique pour obtenir des informations sur une connexion spécifique.
Tapez net use pour obtenir la liste de toutes les connexions de l'ordinateur.
Exemples
Pour assigner le nom de périphérique de lecteur de disque E: au répertoire partagé Lettres sur le serveur
\\Finances, tapez :
Pour que les connexions en cours soient rétablies à l'ouverture de chaque session, indépendamment de toutes
modifications ultérieures, tapez :
Paramètres
Aucun
Utilisée sans paramètre, la commande net view affiche la liste des ordinateurs de votre domaine en
cours.
\\nom_ordinateur
Indique l'ordinateur pour lequel vous voulez afficher les ressources partagées.
/domain[:nom_domaine]
Désigne le domaine dont vous voulez afficher les ordinateurs disponibles. Si nom_domaine est omis,
tous les domaines du réseau sont affichés.
/network:nw
Affiche la liste des serveurs disponibles sur un réseau NetWare. Si un nom d'ordinateur est spécifié,
les ressources disponibles sur cet ordinateur sur le réseau NetWare sont affichées. D'autres réseaux
ajoutés au système peuvent aussi être désignés à l'aide de ce commutateur.
Remarque
Utilisez la commande net view pour afficher une liste d'ordinateurs. L'affichage se présente ainsi :
Exemples
Pour afficher la liste des ressources partagées par l'ordinateur \\Production, tapez :
net view \\production
Pour afficher les ressources disponibles sur le serveur NetWare \\Marketing, tapez :
net view /network:nw \\marketing
Pour afficher la liste des ordinateurs du domaine ou du groupe de travail Ventes, tapez :
net view /domain:ventes
Paramètres
-a
Affiche toutes les connexions et les ports d'écoute. Les connexions serveur ne sont en principe pas
affichées.
-e
Affiche des statistiques relatives à Ethernet. Ce paramètre peut être combiné avec l'option -s.
-n
Affiche les adresses et numéros de ports sous forme numérique (au lieu de tenter des recherches par
nom).
-s
Affiche les statistiques des protocoles respectifs. Par défaut, les statistiques de TCP, UDP, ICMP et IP
sont affichées. L'option -p peut être utilisée pour spécifier un sous-ensemble des protocoles par
défaut.
-p protocole
Affiche les connexions du protocole spécifié par le paramètre protocole ; ce paramètre peut avoir pour
valeur tcp ou udp. Quand il est utilisé avec l'option -s pour afficher des statistiques par protocole,
protocol peut prendre la valeur tcp, udp, icmp ou ip.
-r
Affiche le contenu de la table de routage.
intervalle
Affiche les statistiques sélectionnées de manière répétée avec un intervalle (en secondes) entre
chaque occurrence. Appuyez sur CTRL+C pour interrompre l'affichage des statistiques. Si ce
paramètre est omis, netstat n'imprime qu'une seule fois les informations de configuration.
Chaque routeur sur l'itinéraire décrémente la valeur TTL du paquet d'au moins 1 avant de le retransmettre. La
valeur TTL correspond donc effectivement à un comptage de tronçon. Lorsque la valeur TTL d'un paquet
atteint 0, le routeur est supposé renvoyer un message de dépassement de temporisation ICMP au système
source.
Tracert détermine l'itinéraire en envoyant le premier paquet d'écho dont la valeur TTL est 1 et en l'augmentant
de 1 à chaque transmission ultérieure jusqu'à ce que la cible réponde ou que la valeur TTL maximale soit
atteinte.
L'itinéraire est obtenu en analysant les messages de dépassement de temporisation ICMP renvoyés par les
routeurs intermédiaires. Toutefois, certains routeurs abandonnent, sans le signaler, des paquets dont la valeur
TTL a expiré et ne sont donc pas détectés par la commande tracert.
Paramètres
-d
Spécifie de ne pas résoudre les adresses en noms d'ordinateur.
-h tronçons_maximum
Spécifie le nombre maximal de tronçons pour rechercher la cible.
-j liste_ordinateurs
Spécifie un itinéraire source libre le long de la liste_ordinateurs.
-w temporisation
Spécifie le délai d'attente en millisecondes défini par temporisation pour chaque réponse.
nom_cible
Nom de l'ordinateur cible.
Vous voyez alors apparaître une fenêtre Configuration IP, vous donnant votre adresse IP sur le réseau, mais
aussi beaucoup d'autres informations
Remarques :
- L'utilitaire de configuration IP permet aux utilisateurs ou aux administrateurs d'afficher l'adresse IP en cours
ainsi que d'autres informations utiles concernant votre configuration réseau.
- Vous pouvez réinitialiser une ou plusieurs adresses IP. Les boutons Libérer ou Renouveler libèrent ou
renouvellent respectivement une adresse IP. Si vous souhaitez libérer ou renouveler toutes les adresses IP,
cliquez sur Tout libérer ou Tout renouveler.
Lorsque l'un de ces boutons est activé, une nouvelle adresse IP est obtenue soit à partir du service DHCP, soit
à partir de l'ordinateur qui s'affecte lui-même une adresse IP privée automatique.