Connecteur Péritel : Fonctionnalités et Utilisation
Connecteur Péritel : Fonctionnalités et Utilisation
Le brochage:
La broche 8 (commutation lente) est un signal provenant de la source, qui indique le type de vidéo présente :
0 V signifie « pas de signal », ou signal interne ;
+6 V signifie : signal vidéo au format (16:9) (extension à la norme initiale) ;
+12 V signifie : signal vidéo au format normal (4:3).
La broche 16 est un signal provenant de la source, qui indique si le signal est en RVB ou composite :
0 V - 0,4 V composite ;
1 V - 3 V (nominal 1 V) RVB seulement.
La broche 16 est dénommée commutation rapide à juste titre. Elle peut en effet être utilisée pour incruster le signal RVB au sein d'un autre signal
vidéo(insertion d'images de caméra dans un coin de l'image TV, fonction PIP). la bande passante admise sur la commutation rapide s'élève à 6 MHz.
D²B (Domestic Digital Bus) est un bus de communication série, défini dans une norme CÉI. C'est un bus multi-maître, destiné à un usage domotique,
initialement développé par Philips dans les années 1970.
Les broches 10 et 12 ne sont pas toujours exploitées de manière conforme. Ainsi la 10 est utilisée seule pour des liaisons domotiques (Quantum Link,
TV Links, Megalogic, Easy-Link, etc.). Sur des récepteurs satellite (numériques ou analogiques) ces deux broches sont utilisées pour des fonctions
particulières :
* Envoi et retour de données (en parallèle avec le port RS-232 sur les appareils numériques)
* Vidéo non clampée et vidéo plate (pour les décodeurs analogiques SKY et D2MAC dans les années 1990)
Si le côté rectangulaire de la prise est insuffisamment enfoncé, il y aura l'image, mais pas le son. En effet, les 5 broches correspondant au son sont de ce
côté.
La prise ne commute pas sur certaines chaînes ou avec certains films, la commutation lente est alors égale à 6 volts. Certains téléviseurs anciens ne
commutent pas en dessous d'une tension de 8 à 10 volts.
Toutes les prises Péritel ne sont pas complètes, et on peut se retrouver sans image si on essaye par exemple d'envoyer du RGB sur une prise où seul le
composite est câblé.
Convertisseur VGA / TV
Le circuit imprimé:
Voici le circuit imprimé pour la connexion des signaux VGA à la prise Péritel (SCART) . C'est principalement un schéma qui prend les signaux VGA et les
convertit en RVB + le signal de la synchro composite, lesquels sont injectés à la TV par l'intermédiaire de la prise Péritel ou SCART. Sur les cartes VGA les
signaux ROUGE , VERT et BLEU sont déjà au bon niveau de tension(0.7Vpp) et à la bonne impédance (75 ohms) pour la connexion directe aux entrées
correspondante sur le TV.
Ce que l'on doit faire, c'est de mélanger la Synchro Horizontal avec la Synchro Verticale de la carte VGA pour obtenir le signal de la Synchro Composite qui
est nécessaire à l'entrée vidéo(broche 20) de la prise péritel du téléviseur. Cette conversion du signal Synchro est faite par l'électronique du schéma. On
positionne aussi à 1 le signal de la broche(16) de la commande R V B sur la Péritel (SCART) .
Principe de fonctionnement:
Le circuit est très simple, parce que la sortie des signaux R V B de la carte VGA sont déjà à 0.7Vpp standard et à l'impédance de 75 Ohms.
Pour les signaux de synchronisation, il y a un circuit qui mélange les signaux de Synchro Horizontal et Verticale pour obtenir le signal de la synchro
composite. Le circuit est simplement basé sur une puce TTL avec quatre portes XOR(Ou Exclusif), deux résistances et deux condensateurs. La puce TTL est
logiquement choisie à cause des niveaux TTL des signaux synchro VGA.
Le mélangeur du signal Synchro possède un système qui s'ajuste sur les différentes polarités de la synchro de sorte que les signaux de la synchro composite
soit toujours corrects. Les cartes VGA emploient différentes polarités et timing du signal synchro suivant les différentes résolutions qu'affichent le moniteur. Ce
circuit s'ajuste sur les changements de polarité du signal Synchro en moins de 200 millisecondes, qui est plus rapide que la période que prend un moniteur
VGA classique lors d'un changement du mode d'affichage.
Le circuit a besoin d'une alimentation bien régulée +5V (+/-5%), consommant environ 120 mA. Il a besoin aussi d'un Driver spécifique.
Construction du circuit:
Le convertisseur VGA => TV est assez facile à construire si vous avez une certaine expérience dans la construction de circuits électroniques. Les
composants du circuit peut être facilement montés sur une petite carte d'étude type veroboard.
Attention il faudra ajouter les lignes d'alimentation à la puce U1. Ils n'ont pas été marqué sur le schéma. U1 a la masse sur la borne 7 et le +5V à la borne 14.
Le circuit a besoin d'une alimentation bien stabilisé d'une tension de +5V (la tension réelle peut varier entre 4.75V et 5.25V). Le circuit consomme moins de
150 mA en courant, ainsi vous n'avez pas besoin d'une grosse alimentation. Si vous n'avez rien d'approprié, vous pouvez toujours utiliser un petit
transformateur tous usages et un petit circuit de régulation de tension +5V. Si votre carte graphique est conforme au DDC VESA , elle peut avoir du +5V
disponible à la borne 9 du connecteur VGA (la norme précise que la broche 9 peut avoir du + 5V mais c'est une option qui n'est pas obligatoire). Vous pouvez
tester facilement la présence de ce + 5V en utilisant un multimètre.
La carte est conçue pour adapter l'électronique autour de la puce 74LS86 en ajoutant la petite alim régulée +5V nécessaire. L'image ci-dessous nous montre
à quoi ressemble ce circuit.
Le connecteur VGA, le connecteur péritel et autres connecteurs doivent être adaptés en dehors de cette carte. Ne pas oublier que le circuit est prévu pour
relier les broches de la péritel, celle-ci étant connecté directement sur la TV. On utilisera un câble avec un connecteur péritel mâle directement branché à la
TV.
Si vous mettez un connecteur femelle se branchant sur un câble péritel du commerce, il faudra que les broches de ce câble soient toutes reliées .
Pour un signal de qualité tout le câblage devra être fait en câble coaxial de 75 ohms (fil mince d'antenne) pour une meilleure qualité image comme dans
n'importe quel circuit vidéo.
La TV n'ayant pas un affichage à très haute résolution, le type de fil importe peu tant que le câble ne dépasse pas quelques mètres en longueur. On pourra
utiliser un câble vidéo d'ordinateur avec deux paires torsadées pour les connexions (une paire pour le signal et l'autre pour la masse). Utilisez du câble bien
protégé, parce que du câble vidéo mal protégé peut produire des interférences radio.
Options possible:
Ajout du signal ID moniteur:
Si vous comptez utiliser la TV en tant moniteur unique, vous pouvait ajouter la fonction d'identification moniteur à ce circuit.
Ceci peut être facilement réalisé en reliant par un fil les bornes 11 et 5 du connecteur VGA. De cette façon la carte graphique obtient l'identification "ID" du
moniteur et vous pouvez booter votre ordinateur en mode moniteur lorsque le convertisseur VGA/TV est branché.
àla broche 8(AV Contrôle) de la prise Péritel (SCART) est suffisante pour passer le TV en mode vidéo. Malheureusement sur certains TV (surtout les
récents), on peut avoir des problèmes, cette tension étant définie pour passer en mode 16:9. Si vous rencontrez ces problèmes, remplacer la tension(broche
8) par une tension 9.5-12V d'une autre alimentation.
Une autre belle modification c'est d'ajouté le son de l'ordinateur aux haut-parleurs de la TV. Il suffira de relier la sortie Audio Droite de la carte son à la
broche 2 de la Péritel, la sortie gauche à la broche 6 de la Péritel et la Masse de la carte son à la broche 4 de la Péritel.
Il est conseillé d'utiliser du câble blindé pour le son pour éviter les bruits parasites dû à la vidéo de la TV.
Avertissements:
Si vous essayez ce circuit avec ces Drivers alors pensez à ce que vous faites et contrôlez le circuit plutôt deux fois qu'une. Une seule erreur peut
endommagez votre TV ou votre carte graphique. Souvenez-vous que vous essayez tout ceci à votre risque et péril et je décline toute responsabilité sur
quelques dégâts que ce soit. Attention il est toujours possible que le circuit ne puisse pas fonctionner sur votre système dû aux différentes spécificités des
cartes graphiques et des TVs.
Source et traduction du site [Link]
Câblage:
Les signaux vidéo Rouges, Verts, Bleus et la Synchro composite devront être câblées en câble coaxial de 75 Ohms pour une meilleure qualité d'image, mais
vous pouvez utiliser du câble normal non blindé.
Composants de l'alimentation:
Régulateur 7805
100 µF 25V Electrolytique
10 µF 16V Electrolytique
100 nF Condensateur céramique ou polyester
Adaptateur secteur AC/DC avec sortie 8-18V et 150 mA.
Récepteur InfraRouge
Le circuit:
Avec un minimum de câblage et de soudures vous avez un récepteur Infra Rouge se branchant sur le port série des PC. Ce récepteur a une portée de plus
de 6 mètres et on peut sans doute améliorer ses performances en lui ajoutant un filtre IR.
GND o--------------------------------+------+
| | +-------------------------+
C1 ----- | | |
D1 R1 ----- +----+ GND |
|\ | _____ + | | |
RTS o-| >|--------|_____|------------------------+ Vcc I1 |
|/ | | | |
| | | |
| | R2 +----+ Vout |
| | | |
DCD o---------------------------------------+ +-------------------------+
On pourra loger le circuit dans un simple connecteur DSUB mais le système du montage dans la boite relié à l'ordinateur par un câble sera plus pratique.
Composants: Label
C1 Condensateur Electrolytique 10 MFD
D1 Diode 1N4148
I1 Module IR SFH 506
R1 Résistance de 4.7k Ohm
R2 résistance de 10k Ohm
Boite
Connecteur DSUB 25 broches soudables
MONITEUR CRT
I.1- La couleur
I.2- Carte graphique et moniteur
I.3- Les moniteurs
I.4- La résolution et la taille de l'écran
I.5- Les Fréquences...
I.6- Le Pitch ou Dot Pitch
I.7- Le Tube
I.8- Les Ecrans LCD
Page suivante
PRESENTATION
La couleur:
La lumière est une association d'ondes électromagnétiques. La lumière visible n'occupe qu'une petite bande du spectre des ondes électromagnétiques entre
l'Ultra-violet et l'Infra-rouge. La plus petite longueur d'onde visible pour le violet, c'est environ 400 nm, et 750 nm pour le rouge. Les longueurs d'ondes
inférieures à 400 nm correspondent au rayonnement ultraviolet puis après les rayons X et enfin les rayons gamma. Les longueurs d'ondes supérieures à
750 nm correspondent aux radiations infrarouges et celles encore plus élevées aux ondes radio.
La lumière du jour ou lumière blanche est une association de toutes ces ondes. Le blanc n'est pas une couleur, mais un ensemble de couleurs. Un objet n'a
pas de couleurs au sens propre du terme, il a seulement des propriétés physiques lui permettant de réfléchir telle ou telle couleur fournie par la lumière tout
en absorbant les autres. Le noir comme le blanc n'est pas une couleur mais c'est l'absence de couleurs.
Pour la couleur, les moniteurs utilisent les propriétés de la synthèse additive . Contrairement aux imprimantes, qui elles utilisent les propriétés de la synthèse
soustractive .
Les trois couleurs fondamentales ou primaires sont le Rouge , le Vert et le Bleu . C'est à partir
de ces trois couleurs que l'on formera toutes les autres. Notre oeil est plus sensible au vert qu'au
rouge et plus au rouge qu'au bleu respectivement dans les proportions suivantes 0.59V, 0.30R et
0.11B. Une couleur est définie par trois grandeurs qui sont la teinte, l'intensité ou luminance, et
la saturation.
* La teinte est définie par la longueur d'onde principale des diverses radiations contenues dans une couleur.
* La luminance définit l'intensité lumineuse ou la puissance rayonnée.
* La saturation définit le degré de pureté d'une couleur, c'est à dire la proportion de la teinte par rapport au blanc contenu dans la couleur.
Le processeur de nos PC transmet à la carte vidéo une série d'instructions et de données décrivant l'écran à afficher. La carte transforme toutes ces
informations en une série de points et les communique à l'écran. Dans la plupart des programmes DOS on fonctionne en mode caractères c'est à dire que la
carte prend la correspondance en points de chaque caractère dans une table et envoie le tout au moniteur. C'est différent sous Windows ou une autre
interface graphique, le système ne transmet à la carte que des descriptions graphiques. Les informations sont beaucoup plus importantes donc des temps
d'affichage plus long d'ou l'utilisation de processeur graphique et de l'augmentation de la mémoire vidéo.
Ainsi les cartes équipés de processeur soulage le microprocesseur centrale de plus elles sont capables de s'adapter à n'importe quel système graphique. Il
suffit alors de changer le pilote de périphérique ( Le Driver) chargé de les gérer.
Les cartes graphiques sont aussi le plus souvent multi-fonctions:
- Elles sont accélératrice 2D, des petits bouts de programmes (des routimes) sont implantés directement dans le processeur graphique. Ces routimes sont
dédiées à une fonction: affichage des fenêtres, déroulement de menus, etc.
- Elles sont accélératrice 3D, les images ne sont plus codées en points ou pixels (en 2D) mais par des formules mathématiques capables de les recréer. On
n'a plus besoin de charger entièrement chaque image les une après les autres, un seul changement dans la formule permet de les modifier. Cela permet un
gain en mémoire mais aussi l'utilisation massive du processeur graphique et du processeur centrale(calculs en virgule flottante). Après le calcul de ces
formules mathématiques, on passe au Rendering qui rajoute les effets spéciaux 3D comme les textures, les ombrages, le brouillard,etc. A ce niveau de
performances, les cartes graphiques ont alors besoin pour s'exprimer pleinement d'un puissant processeur centrale.
- Elles sont accélératrice vidéo avec changement d'échelle pour les fichiers AVI (Video for windows) et les fichiers MOV (Quicktime). Elles assurent aussi le
décodage des séquences Mpeg et Mpeg2.
Les Moniteurs:
Tout au début de l'informatique les moniteurs étaient des postes de télévision simplifiés possédant une connectique spécifique.
De nos jours, l'évolution des moniteurs informatiques a été tel que l'on ne peut plus les confondre avec de simples télés. (bien que ceux-ci ont énormément
évolué)
Bien que le principe de l'affichage d'une image vidéo sur un tube cathodique reste le même, les différences importantes sont:
* La finesse et le piqué de l'image. (Pitch)
* La fréquence de rafraîchissement. (stabilité de l'image)
* Les moniteurs sont devenus intelligents s'adaptant automatiquement aux différentes modes d'affichage(Multiscan).
* Ils sont Plug an Play conversant avec l'ordinateur (DDC) et pouvant donc se paramétrer de façon optimum automatiquement.
* Bénéficiant de normes d'économie d'énergie, d'ergonomie, d'aspects environnementaux et de contrôle d'émissions de radiations très sévères.
Résolution et Taille
* La taille du moniteur représente la mesure du tube de l'écran, en diagonale d'un coin à l'autre. (soit 14", 15", 17", 19",21", 24"...). Un moniteur 15" (dites 15
pouces) aura une diagonale de 38 cm (1 pouce = 2.54 cm).
La surface de visualisation, c'est à dire la taille de l'image visible à l'écran est toujours plus ou moins inférieure à la taille de l'écran. Cela est dû à la plasturgie
servant à maintenir le tube. Un écran de 15" affichera donc en réalité entre 13 et 14" utile.
Les moniteurs les plus vendus sont les 15 pouces (38 cm de diagonale), talonner par les moniteurs 17 pouces offrant 30% de surface affichable en plus(ils
sont en passe de devenir le standard) suivi plus loin par les moniteurs 19 pouces.
* La résolution désigne le nombre de points ou pixels verticaux et horizontaux que peut afficher un écran.
Chaque taille d'écran est optimisée pour une résolution donnée:
NOTA : Tous les moniteurs peuvent facilement dépasser cette résolution optimum de travail mais cela peut augmenter la fatigue visuelle. (Un repère: Les
caractères affichés à l'écran doivent être de 2mm minimum de hauteur. )
Les Fréquences...:
* La synchronisation des lignes (Synchro Horizontale) et la synchronisation image (Synchro Verticale):
La synchronisation peut-être séparée ou composite: les signaux électriques de synchronisation envoyés par la carte vidéo permettent de contrôler le balayage
de l'écran. Ils peuvent faire l'objet de deux connexions distinctes ( H et V) ou bien être mélangés sur un seul canal (H/V) ou encore regroupés sur le canal de
contrôle du faisceau vert (Vert H/V).
La vitesse à laquelle le faisceau parcourt l'écran de gauche à droite est appelée fréquence horizontale ou fréquence ligne. Elle est de l'ordre de quelque
dizaine de KHz.
La vitesse à laquelle le faisceau parcourt l'écran de haut en bas (formation d'une seule image) est appelée fréquence verticale ou fréquence trame ou
encore fréquence de rafraîchissement . La fréquence verticale détermine la fluidité de l'image. C'est à partir de 75 Hz (Synchro V) que notre oeil perçoit une
image fluide. En dessous c'est la perception de scintillement. La norme TCO99 va plus loin en recommandant 85 Hz. C'est maintenant un critère
prépondérant.
* Moniteur Multifréquences ou multisynchrones ou encore multiscans sont des moniteurs capables de balayer l'écran horizontalement et verticalement à
différentes fréquences, correspondant aux divers modes d'affichage. Une grande plage de fréquence assure un large choix de normes d'affichage.
* La Bande Passante caractérise le débit de données que l'électronique du moniteur a la possibilité de traiter. Elle détermine la qualité de l'affichage dans les
résolutions élevées.
On peut calculer la bande passante de la façon suivante:
((Nombre de pixels * Sync Vertical /2) *3 = Bande passante
VGA
Résolution = 640x480 = 307200 pixels
:
Sync Horizontal= 31.5 kHz
Sync Vertical = 60 Hz
Le pitch représente la finesse d'affichage des pixels. Plus le pitch est réduit, meilleur sera le piqué de l'affichage. Le pitch peut varier de 0,28 à 0,22 mm.
Choisissez plutôt un pitch de 0.25 ou 0.26 mm. Cette caractéristique détermine directement la qualité de l'affichage dans les très hautes résolutions.
Les tubes FST Invar et Cromaclear utilisent un masque à trous, c'est-à-dire
que le masque est percé de trous ronds (FST-Invar) ou ellipsoïdaux
(Cromaclear) répartis régulièrement. Ces tubes donnent une image nette et
précise.
Le tube cathodique :
Un tube cathodique ( CRT Cathode Ray Tube) fonctionne selon le principe simpliste suivant:
Un filament placé dans un tube sous vide émet après chauffage, des électrons (e-). Une forte polarisation les accélère et les focalise en faisceau qui vient
frapper l'écran. Ce dernier recouvert de phosphore s'allume au point de contact (luminophore). Du type de phosphore employé dépend la couleur transmise et
la durée de l'émission de lumière. Dans le cas du moniteur en couleurs, l'écran est composé de triades de trois luminophores émettant chacun dans une
couleur différente ( Rouge , Vert , Bleu ). Selon l'intensité du faisceau frappant chaque point, l'émission est plus ou moins forte et chaque triade compose ainsi
les différentes nuances du spectre. Comme l'émission électroluminescente ne se maintient que quelques milli-secondes, il faut donc re-stimuler chacun
d'entre eux.
Pour éviter le phénomène de "bavures"(un électron frappe le Vert alors qu'il était destiné au Rouge), on place juste avant la couche de phosphore une grille
appelée "masque". Le masqued'un tube cathodique couleur est une grille métallique perforée destinée à canaliser chacun des trois faisceaux d'électrons,
correspondant aux couleurs rouge, vert et bleu, vers les pastilles colorées de la surface du tube. Ces trous peuvent être disposés en quinconce (des triplets)
ou constitué de fentes verticales pour les tubes Trinitron de SONY.(voir aussi Pitch )
Pour cela, le faisceau d'électrons balaie l'écran ligne de points par ligne de points, en excitant
ou non chaque élément selon les ordres de la carte graphique. Le faisceau commence en haut à
gauche de l'écran et se déplace vers la droite. Arrivé au bout de la ligne, le faisceau retourne
très rapidement vers la gauche et simultanément on le dévie verticalement, ainsi de suite
jusqu'en bas à droite.
Généralités:
* L'Angle de déviation du faisceau, c'est l'angle formé par les divers faisceaux d'électrons pour atteindre les côtés extrêmes de l'écran. Il est fonction de la
profondeur du tube.
* Le tube court: l'avantage du tube court permet à un 19 pouces d'être aussi profond qu'un 15 pouces mais il souffre souvent d'une qualité d'affichage
moindre sur les bords de l'écran.
* La surface d'affichage plane (Flat display de Sony, Natural Flat de Mitsubishi...) est un plus pour le confort visuel en diminuant les reflets.
* Traitement antireflet: Des pellicules spéciales atténuent l'effet de la lumière externe sur l'écran et éliminent virtuellement les reflets. L'image apparaît à
l'écran plus clair et les couleurs plus contrastées. Elles diminuent la fatigue visuelle.
- Branchez un voltmètre avec une sonde Haute Tension entre la Masse et l'anode du tube.
- Réglez le potentiomètre afin d'obtenir 25 KV sur le voltmètre.
Nota: Si ces réglages sont aussi présents en façade du moniteur alors les mettre en position médiane.
- Largeur de l'image
Réglez de manière à ce que la largeur de l'image mesure 350 mm(pour Philips 20").
- Hauteur de l'image
Réglez de manière à ce que la hauteur de l'image mesure 270 mm.
- Repérer les boutons de la focalisation verticale et de la focalisation horizontale sur le transformateur de sortie de ligne.
- Ajuster les niveaux de luminosité et de contraste au maximum.
- Réglez le bouton Focalisation Verticale de manière à ce que la précision des lignes verticales soit au maximum au milieu de l'image.
- Puis passer au bouton Focalisation Horizontale de manière à ce que la précision des lignes horizontales soit au maximum au milieu de l'image.
Même principe pour un seul bouton de réglage de la focalisation.
- Contrôler l'image à la fin des réglages.
- A partir de cette étape attendre 30 minutes de fonctionnement et actionner la touche Dégauss(démagnétisation) du moniteur.
- Sur une mire Noire et le bouton situé en bas du transformateur de sortie lignes (repéré VG, Screen..) étant au minimum.
- Réglez les commandes de luminosité et de contraste en position médiane.
- Réglez les commandes de Cut-Off Rouge , Vert et Bleu ainsi que le potentiomètre de sous-contraste en position médiane.
- Augmentez la tension Screen jusqu'à ce qu'une couleur apparaisse si elle n'est pas blanche, réglez les potentiomètres de réglage des points de
coupure(Cut-Off) jusqu'à obtenir une couleur blanche d'arrière plan optimale.
- réglez ensuite la commande de réglage luminosité en position maximale pour vérifier que la couleur d'arrière plan reste au même niveau dans la position
luminosité maximum.
- Replacez ensuite la commande de luminosité en position médiane.
- Rappel : Pour le réglage des couleurs attendre 30 minutes de fonctionnement et actionner la touche Dégauss(démagnétisation) du moniteur.
- On pourra procéder aux réglages des couleurs en commençant d'abord par le rouge puis le vert et enfin le bleu de façon à obtenir une couleur blanche dans
la fenêtre du blanc.
- Vérifiez la pureté des couleurs avec les pages Rouge , Verte , Bleu , Blanche et Noire .
Pour ces réglages, vous avez une page Rouge , une page Verte , une
page Bleu , une pageBlanche et une page Noire .
Sous-contraste:
- sans photomètre:
- Réglez les commandes extérieur de luminosité et de contraste au maximum et le potar du sous-contraste en position médiane.
- Réglez ensuite légèrement la commande de sous-contraste de façon à ce que la luminosité n'augmente plus.
Les convergences statiques:
On trouve l'aimant 4 pôles et l'aimant 6 pôles qui sont montés autour de la tige du tube image. L'aimant 4 pôles permet de faire bouger les faisceaux électrons
externes" Rouge " et " Bleu " proportionnellement dans des directions opposées. L'aimant 6 pôles permet de faire bouger l'ensemble des faisceaux
d'électrons de manière régulière et dans la même direction.
Nota : Si un tube vient d'être changé, ou s'il a été complètement déréglé pour une raison ou une autre, il est préférable de dégrossir une première fois, puis de
recommencer les réglages depuis le début.
- Après s'être assurer du bon réglage des convergences statiques(réglages se situant surtout au centre de l'écran), on peut passer au réglages des
convergences dynamiques(réglages se situant surtout sur les bords de l'écran).
- On peut trouver alors quelques potentiomètre isolés pour affiner le réglage des convergences.
- On pourra trouver sur certains modèles d'autres réglages comme le réglage de la balance des convergences (alignement des lignes Rouges et Bleus)
La documentation technique est encore une fois indispensable.
- On peut trouver une mauvaise convergence dans un coin. Ici, il faudra jouer avec des aimants que l'on disposera dans le coin concerné. Leur orientation et
leur positionnement sera à déterminer expérimentalement.
Nota : S'il existe déjà des petits aimants de réglages coller sur le tube, il ne vaut mieux pas ni les enlever, ni les bouger.
Les classiques:
> Message sur l'écran "No Signal".
La fréquence de balayage est trop élevée, veuillez redémarrer votre machine en config minimum et baisser cette fréquence au niveau de votre carte
graphique.
Du fait de la technologie des tubes Diamontron et Trinitron deux lignes horizontales peuvent apparaître. Ces deux lignes horizontales à peine visibles sont en
fait les ombres des fils d'acier appelés " fils porteur".
Vérifier le driver.
Vérifier le bon état de votre câble vidéo, vérifier la présence de source magnétique à proximité du moniteur.
Vérifier l'état de votre câble vidéo, pour les câbles BNC, les câbles Blanc et Noir peuvent être inversés en fonction de l'origine du câble. En cas de problème,
vous pouvez inverser les deux câbles.
Vérifier la convergence du moniteur.(Ces réglages sont accessible en façade pour certains moniteurs)
- Alimentation
- Ampli vidéo
- Ampli lignes
- Tube cathodique
Un signal incorrect en sortie de l'ampli vidéo peut également être à l'origine de cette panne.
Il faudra alors à l'aide d'un oscilloscope suivre le signal vidéo entre son entrée sur le moniteur et le tube cathodique.
Si l'ampli lignes est en panne, il ne pilotera pas correctement le tube cathodique.
Mettre l'appareil sous tension, on peut entendre la montée de la THT(électricité statique) ou passer la main sur l'écran. L'électricité statique montre le
bon fonctionnement du transfo THT et de l'ampli lignes.
Enfin si le tube cathodique est défectueux il n'y aura pas d'[Link] panne est souvent précédé d'une perte de luminosité de plus en plus
importante dans le temps. Dans ce cas c'est souvent la fin du moniteur même si le tube peut être régénérer.
On peut pousser le G2, l'écran est toujours noir. Vérifier la présence du G2. Si absence ou mauvaise valeur se méfier d'une résistance de forte valeur
( 1MOhms).
> Point RVB durant quelques secondes à l'allumage puis plus rien.
Ou peut aussi entendre des grésillements à l'allumage, alors vérifier les soudures du transfos THT. Attention claquage possible du transistor THT.
Causes possibles:
* Circuit de démagnétisation: voir la résistance "PTC", etc.
* magnétisation permanente du tube.
* Après une bonne inspection visuelle, on constate une diode du côté de la THT complètement explosée. Attention au transfo THT qui a pu être endommager.
> L'écran devient blanc après quelques secondes de fonctionnement.
Cause possible:
* Transfo THT.
Causes possibles:
* circuit de correction EST / OUEST.
* circuit de correction NORD / SUD.
* circuit de focalisation.
* Le tube.
9 + 5 V (option) Bleu
14 Sync V Masse
Signaux
Synchro Séparée Synchro Composite Synchro sur le vert
Vert Vert
2 Vert + Synchro
Attention: Les câbles Blanc et Noir peuvent être inversés en fonction de l'origine du câble. En cas de problème, vous pouvez inverser les deux câbles.
LES NORMES
La norme DDC :
Le standard DDC (Display Data Channel) de VESA(Video Electronics Standard Association) VESA Home Page permet de transmettre des informations
EDID(Extended Display Identification Data) entre moniteur et ordinateur.
DDC 1 permet au moniteur de transmettre en permanence des informations à la carte graphique de l'ordinateur. DDC 2B permet à la carte de demander des
informations au moniteur. DDC 2AB permet des communications dans les deux sens: l'ordinateur peut connaître les caractéristiques(fréquences supportées,
résolutions, etc.) du moniteur, mais aussi lui envoyer des commandes de réglages au processeur du moniteur.
Norme DPMS :
Le norme DPMS(Display Power Management Signaling) consiste à déterminer l'inactivité de l'ordinateur par l'intermédiaire de la carte graphique qui n'envoie
plus de signaux de synchronisations. Cela suppose que le moniteur et la carte graphique soit agréé DPMS.
Les différents modes correspondent à des états du moniteur. Le mode Normale est le mode de consommation électrique maximale et le mode Power Off est
le mode de consommation minimale.
Il suffit de presser une touche ou de bouger la souris pour revenir au mode Normale.
ETAT Mode normale Mode Stand-by Mode Suspend Mode Power Off
TCO92, MPRII...:
La norme MPRII est sur l'émission de radiations faibles.
TCO92 plus récentes et plus sévéres que la norme MPRII abaisse le seuil des radiations émises tolérées et rajoute des impératifs sur
la gestion des économies d'énergie.
La norme TCO95 rajoute l'absence de composés nocifs dans l'emballage et la fabrication et permet le recyclage des
moniteurs TCO95.
La norme TCO 99 est encore plus sévère. TCO99, qui fait suite aux Normes TCO92 et TCO95 - couvre 5 domaines différents en
matière de performance de moniteur :
. Sécurité,
. Ergonomie,
. Faible niveau d'émissions,
. Aspects environnementaux,
. Economie d'énergie.
Les normes Nuteck et Energie Star(créé par l'Environmental Protection Agency) sont destinées à réduire la consommation
électrique de l'industrie informatique. Les moniteurs Energy Star doivent consommer moins de 30 Watts en stand-by et
moins de 5W en mode veille.
LES SYSTEMES D'EXPLOITATION:
Le système d’exploitation (SE, en anglais Operating System ou OS) est un ensemble de programmes responsables de la liaison entre les ressources matérielles d’un
ordinateur et les applications informatiques de l’utilisateur (traitement de texte, jeu vidéo… ).
Fonction
Les fonctions d'un système d'exploitation est de :
Contrôler et partager des ressources physique comme l'unité de calcul, le processeur (CPU), la mémoire, les périphériques(disques, imprimantes, ...),
les entrées / sorties, les ressources logiques (fichiers, sémaphores), ...
Gérer une ou des interfaces Homme-machine (IHM).
Gérer les communications:
Entre les machines
Entre les différents programmes
Le courrier électronique, etc.
Assurer la protection :
contre la malveillance;
Assurer la confidentialité;
Utilisation de machines distantes
Assurer le parallélisme: La gestion multiprocesseurs; multiutilisateurs, etc.
La composition
Un système d’exploitation est composé :
D’un noyau ;
De bibliothèques ;
D’un ensemble d’outils système ;
De programmes applicatifs de base.
Le noyau du système
Le noyau (ou cœur, Kernel) assure les fonctionnalités suivantes :
Il s’agit de la couche primordiale, celle qui est lancée lors du démarrage de l’ordinateur que l’on appelle couramment le boot. Grâce à celui-ci, les premiers
services peuvent accéder aux applications système : gestion de la mémoire, accès aux disques durs et accès aux périphériques. Il gère donc les ressources
de l’ordinateur et permet aux différents composants matériels et logiciels de communiquer entre eux.
Dans ces systèmes d’exploitation, la mémoire vive est divisée en deux parties indépendantes : le noyau et l’espace utilisateur. Ce dernier est l’espace de la
mémoire dédié aux applications, ce qui permet plus de sécurité : les applications de l’espace utilisateur ne peuvent ni accidentellement ni intentionnellement
accéder à une zone mémoire ne leur appartenant pas.
Les noyaux ont comme fonction de base d’assurer le chargement et l’exécution des processus, de gérer les entrées-sorties et proposer une interface entre
l’espace noyau et les programmes de l’espace utilisateur.
Les bibliothèques
Les bibliothèques servent à regrouper les opérations les plus utilisées dans les programmes informatiques, afin d’éviter la redondance de la réécriture de ces
opérations dans tous les programmes.
On distingue généralement deux types de bibliothèques: les bibliothèques système, et les bibliothèques utilitaires. Les bibliothèques système sont constituées
de fonctions permettant l’utilisation agréable des fonctionnalités système (généralement des points d’entrée vers des fonctions du noyau, mais pas
seulement). Les bibliothèques utilitaires contiennent des fonctions d’usage courant et pratique (fonctions mathématiques, fonctions de tri, etc).
Du point de vue du système, les bibliothèques ont différentes caractéristiques. Il y a le caractère statique ou dynamique, et le caractère partagé ou non.
Une bibliothèque statique contient des fonctions qui seront intégrées au code généré par le compilateur (édition de liens statique). L’inconvénient est qu’un
code ainsi obtenu n’est pas mis à jour lorsque la bibliothèque change. L’avantage est que le code à lui seul est autonome.
Une bibliothèque dynamique est une bibliothèque qui contient des fonctions qui seront intégrées au code au moment de son exécution (édition de liens
dynamique). L’avantage est que le code est à jour vis-à-vis de la mise à jour des bibliothèques. L’inconvénient est que l’exécution dépend de l’existence de la
bibliothèque. On raffine aussi l’aspect dynamique en liaison tardive (intégration de la fonction lorsqu’elle est appelée) ou au chargement (intégration des
fonctions dès que le programme commence à s’exécuter).
Une bibliothèque partagée est une bibliothèque dont il est garanti que le contenu ne sera présent qu’en un seul exemplaire dans le système d’exécution, les
fonctions seront partagées par toutes les applications les utilisant.
Le système de fichiers
Un système de fichiers (FS ou filesystem en anglais) ou système de gestion de fichiers (SGF) est une structure de données permettant de stocker les
informations et de les organiser dans des fichiers sur ce que l’on appelle des mémoires secondaires (disque dur, disquette, CD-ROM, clé USB, etc.). Ce
stockage de l’information est persistant. Une telle gestion des fichiers permet de traiter et de conserver des quantités importantes de données ainsi que de les
partager entre plusieurs programmes informatiques. Il offre à l’utilisateur une vue abstraite sur ses données et permet de les localiser à partir d’un chemin
d’accès.
L'interface utilisateur
L'interface utilisateur aussi nommée interface homme-machine (IHM) permet à un homme de se servir de l'ordinateur.
Cette interaction homme machine s’élabore tant par le biais d'interfaces graphiques qu'en ligne de commande par le « Shell ».
La commande en ligne
La ligne de commande (en anglais CLI pour Command Line Interface) était la seule interface disponible sur les ordinateurs des années 1970. Elle est encore
utilisée en raison de sa puissance, de sa grande rapidité et du peu de ressources nécessaires à son fonctionnement.
L’interface graphique
L'interface graphique (en anglais GUI pour Graphical User Interface) s’oppose à l’interface en ligne de commande. Les parties les plus typiques de ce type
d’environnement sont le pointeur de souris, les fenêtres, le bureau, les icônes. D'autres contrôles graphiques sont couramment utilisés pour interagir avec
l’utilisateur : les boutons, les menus, les barres de défilement.
Les systèmes d’exploitation grand public (Windows, MacOS, les distributions grand public de GNU/Linux, etc.) sont pourvus d’une interface graphique qui,
dans un souci d'ergonomie, se veut conviviale, simple d’utilisation et accessible au plus grand nombre pour l'usage d'un ordinateur personnel. Ils incluent
généralement aussi des utilitaires de gestion de fichiers et de configuration du système.
L’interface graphique est en général relativement indépendante des autres composants du système d'exploitation. Il est ainsi possible dans certains systèmes
d’exploitation de changer ou de personnaliser son environnement graphique. Sous Windows, ce changement peut s'effectuer à l'aide de programmes
annexes, cette fonctionnalité n’étant pas facile à mettre en place sans cette aide.
L’interface graphique représente la partie visible du système d’exploitation. Pour les systèmes d'exploitation commerciaux, elle évolue en même temps que le
reste du système et donne son identité à chaque génération du système. Cela contribue à renforcer, pour l'utilisateur, l'impression d'une évolution tangible du
système d'exploitation.
L'ASSEMBLEUR
Présentation
Assembleur 80x86
La représentation décimale
La représentation binaire
L'octet
La représentation hexadécimale
Page suivante: Gestion de la mémoire
Présentation de l'Assembleur
Le langage assembleur (ASM) est, en programmation informatique, un langage de bas niveau qui représente le langage machine sous une forme lisible pour
nous, humain.
On regroupe plusieurs bits pour constituer des octets (8 bits), des mots (16 bits) ou des double mots (32 bits).
Les combinaisons de bits du langage machine sont représentées par des symboles appelés "mnémoniques". Le programme assembleur convertit ces
mnémoniques en langage machine en vue de créer par exemple un fichier exécutable.
Attention car l'assembleur représente exactement le langage machine et il est donc spécifique à chaque architecture de processeur. De plus, plusieurs
groupes de mnémoniques ou de syntaxes de langage assembleur peuvent exister pour un seul ensemble d'instructions, créant ainsi des macro-instructions.
Les avantages de l'assembleur est la vitesse, car c'est le langage avec lequel on peut faire les programmes les plus rapides (si ils sont bien optimisés), une
taille mémoire très réduite, l'accès aux interruptions DOS qui permettent un accès direct au matériel tel la souris, l'écran, ou la carte vidéo.
Le principale inconvénient est un gros investissement en heures de travail et en efforts par rapport aux langages de haut niveau comme le C++, le Java, etc.
La solution est d'intégrée de l'assembleur dans un langage évolué.
Contrairement à un langage de haut niveau, il y a une correspondance un à un entre le code assembleur et le langage machine. Ainsi il est théoriquement
possible de traduire le code dans les deux sens sans perte d'information. Cette opération s'appelle la Rétro-ingénierie (ou Reverse engineering). La
transformation du code assembleur en langage machine est accomplie par un programme nommé assembleur, dans l'autre sens par un programme
nommé désassembleur.
Assembleur 80x86
La famille 80x86 d’Intel commence à la fin des années70 (1978) avec le processeur 8086. Le x86 est la dénomination de la famille de microprocesseurs
compatibles avec le jeu d'instructions du processeur 8086 de chez Intel. Afin que les anciens logiciels fonctionnent sur les nouveaux microprocesseurs qui ont
suivi, les constructeurs de microprocesseurs pour PC doivent maintenir une compatibilité ascendante.
L'architecture de la série x86 à partir du Pentium a été nommée IA-32 par Intel.
Introduction
La représentation décimale
Les nombres en base 10 sont constitués de 10 chiffres de 0 à 9. On peut voir que le chiffre le plus à droite est multiplié par 1, le second par 10, le troisième
par 100. En fait, chaque chiffre d'un nombre est associé à une puissance de 10 selon sa position dans le nombre. Exemple :
721 = 7 × 102 + 2 × 101 + 1 × 100
La représentation binaire
Les nombres en base 2 sont constitués de deux chiffres possibles 0 et 1. Ce sont les deux seules valeurs possibles du bit (b) qu'utilisent nos processeurs.
En partant de la droite, chaque chiffre d'un nombre est associé à une puissance de 2 croissante selon sa position dans le nombre. Exemple sur un octet:
128 64 32 16 8 4 2 1
01110010b = 0 x 27 + 1 x 26 + 1 x 25 + 1 x 24 + 0 x 23 + 0 x 22 + 1 x 21 + 0 x 20
= 64 + 32 + 16 + 2
cela fait 114 en base 10.
Le signe d'un nombre est représenté par 1 bit. C'est le bit de gauche d'un ensemble de bits qui sera le bit de signe. Si le bit de signe est à 1, le nombre est
négatif. S'il est à 0 alors le nombre est positif.
Décimal Binaire
-128 10000000
-1 11111111
0 00000000
1 00000001
+127 01111111
Sur un octet (8 bits), lorsqu'il est signé (+ ou -), il peut prendre une valeur comprise entre -128 et +127. Lorsqu'il n'est pas signé, il peut prendre une valeur
comprise entre 0 et +255.
Complément à un
Cette opération code de façon à inverser la valeur de chaque bit composant une valeur binaire.
Aussi, pour obtenir la valeur -5 :
5 (décimale) => 0101 (binaire) donne 1010 complément à un.
Complément à deux
Le complément a deux de 00011001 est donc 11100111. La représentation binaire signée de -25 est donc
11100111.
L'octet
Pour une meilleure lisibilité on regroupe plusieurs bits pour constituer des octets (8 bits). L'octet (en anglais byte ou B) est donc une unité d'information
composée de 8 bits.
Un regroupement de 16 bits est appelée mot (word).
Un regroupement de 32 bits de longueur est appelée double mot (double word, dword).
Un regroupement de 64 bits de longueur est appelée quadruple mot (quadword, qword).
La représentation hexadécimale
Les nombres en base 2 deviennent vite très grand d'où la notation hexadécimale (base 16). Comme 16 est une puissance de 2, la conversion binaire -
hexadécimal est simple: 4 chiffres binaire correspond à 1 chiffre hexadécimal.
Les chiffres en base 16 (hexadécimal) sont représenté par un nombre hexadécimal suivi du caractère H (exemple: 2FC4H). Un chiffre hexadécimal peut
prendre les valeurs 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, et F avec :
Base 16 A B C D E F
Base 10 10 11 12 13 14 15
Dans le tableau ci-dessous, le chiffre hexadécimal 2FC4H donne la valeur 0010111111000100b en binaire.
2 2 0010
F 15 1111
C 12 1100
4 4 0100
La mémoire
Le mode réel
Le mode protégé
Les registres
Les registres d'offset
Les registres de segment
Le registre d'états
Page précédente Page suivante: L'adressage
La mémoire
Les instructions occupent un ou plusieurs emplacements consécutifs de la mémoire.
Chaque caractère occupe un emplacement mémoire et les chaines de caractères occupent plusieurs emplacements consécutifs.
Les valeurs numériques occupent autant d'emplacements consécutifs que nécessaire.
Les possibilités d'adressage mémoire de la gamme x86 remontent au 8080, qui avait 16 bits de bus d'adresse et pouvait donc adresser 64 Kio de mémoire.
Lors de l'arrivée du 8086, Intel introduit l'adressage segmenté. La mémoire d'un ordinateur est une série d'emplacement. Le numéro d'un emplacement est
appelé adresse (un emplacement est un ensemble de 8 bits ou byte). La mémoire est divisée en zone de 65 536 bytes appelées segments. L'adresse d'un
byte est composée d'un numéro de segment et d'un déplacement nommée offset calculé par rapport au début du segment.
L'adresse effective peut être calculer avec la formule: adresse effective = 16 × Segment + Offset
Segmentation de la mémoire
Le mode réel
Avec le 8086 le bus d'adresse est sur 20 bits offrant un adressage limité à seulement un méga octet. Les adresses allant de 00000H à FFFFFH. Cependant,
un nombre de 20 bits ne tiendrait dans aucun des registres 16 bits du 8086.
Intel a résolu le problème en segmentant la mémoire en bloc de 64 Kio appelés segment. La valeur de segment peut être stockée dans un registre (16 bits)
dédié:
Le segment de code CS (Code Segment), il contient l'adresse du segment de la mémoire où se trouvent les instructions du programmes (code
machine).
Le segment de données DS (Data Segment), il contient l'adresse du segment de mémoire contenant les données définies dans le programme.
Le segment de pile SS (Stack segment), il contient l'adresse du segment qui contient la pile..
Le mode protégé
En 1982, le 80286 introduit le mode protégé. En mode protégé, les
segments ne se réfèrent plus à l'adresse segment mais à des nouveaux
registres comme GDTR, LDTR et IDTR qui maintiennent en plus des
informations de protection.
Le mode protégé utilise une technique appelée mémoire virtuelle. L'idée de
base d'un système de mémoire virtuelle est de ne garder en mémoire que
les programmes et les données actuellement utilisés. Ce travail est
effectué de façon transparente par le système d'exploitation.
L'espace adressable est de 16 Mio, l'espace virtuel est potentiellement de 1 Gio, un segment ne peut pas dépasser 64 Kio
Le 80386 a introduit le mode protégé 32 bits. Le 80386 ayant des registres sur 32 bits les déplacements se font sur 32 bits. Les segments peuvent être aussi
gros que tout l'espace adressable, soit 4 Gio.
Chaque programme reçoit une table de descripteur de segments indépendante (table de descripteurs locaux = Local descriptor table, LDTR). Chaque
segment peut être indépendant de tous les autres segments utilisés par les autres applications.
RAX dont les 32 bits de poids faible sont constitués du registre EAX
RBX dont les 32 bits de poids faible sont constitués du registre EBX
RCX dont les 32 bits de poids faible sont constitués du registre ECX
RDX dont les 32 bits de poids faible sont constitués du registre EDX
RDI dont les 32 bits de poids faible sont constitués du registre EDI
RSI dont les 32 bits de poids faible sont constitués du registre ESI
RBP dont les 32 bits de poids faible sont constitués du registre EBP
RSP dont les 32 bits de poids faible sont constitués du registre ESP
il y a 8 nouveaux registres 64 bits, de R8 à R15 et sont utilisables tout comme les autres registres généraux.
Le mode 32 bits en exemple sur la représentation à gauche où les quatre
registres de travail sont principalement utilisés pour stocker des résultats :
Ce sont des registres 32 bits; pour des raisons historiques, les 16 bits de poids
faible sont constitués respectivement des registres AX, DX, CX et BX.
Les registres d'offset (32 bits) sont utilisés lors de l'adressage indirect de la mémoire (pointeurs). Ces registres complémentaires sont :
Le nom des deux derniers registres vient du fait qu'ils sont utilisés pour la copie d'une zone mémoire vers une autre.
Ces 4 registres 32 bits sont également décomposés en 4 registres de 16 bits respectivement SP, BP, SI et DI.
La gestion de la mémoire dans l'architecture x86 est particulière : celle-ci est divisée en segments. Les registres de segment (16 bits) permettent d'accéder,
soit au segment de programme qui est la zone mémoire des instructions de programme, soit au segment de données (zone mémoire contenant les données
du programme), ou encore au segment de pile.
La gestion de la mémoire en multi-segments permet d'utiliser tous les registres d'offset. La plupart des systèmes d'exploitation actuels utilisent un mode
protégé où tous les registres de segment pointent vers le même segment.
Le registre d'états
Le registre RFLAGS (64 bits) avec respectivement EFLAGS (32 bits) et FLAGS (16bits), chaque bit du registre RFLAGS est un indicateur d'état qui peut être
modifié à chaque instruction exécutée.
RFLAGS
Les bits 0, 2, 4, 6, 7 et 11 du registre RFLAGS indiquent les résultats d'opérations arithmétiques résultant d'instructions telles que ADD, DIV, MUL, SUB, etc.
CF (bit 0) Carry Flag (Drapeau de retenue) : Ce drapeau est mis à 1 si une opération arithmétique génère une retenue sur le bit le plus significatif (bit
de poids fort). Le drapeau est mis à 0 dans les autres cas. Ce drapeau indique ainsi une condition de débordement en arithmétique entière non
signée. Il est aussi utilisé pour l'arithmétique en précision multiple.
PF (bit 2) Parity Flag (Drapeau de parité) : Mis à 1 si l'octet de poids faible (octet le moins significatif) du résultat généré après une opération
arithmétique contient un nombre pair de bits à 1. Le drapeau est mis à 0 dans les autres cas.
AF (bit 4) Adjust Flag (Drapeau d'ajustement) : Mis à 1 si le résultat d'une opération arithmétique génère un résultat provoquant une retenue sur le
troisième bit. Le drapeau est mis à 0 dans les autres cas. Ce drapeau n'est utile que dans l'utilisation du codage BCD.
ZF (bit 6) Zero Flag (Drapeau zéro) : Mis à 1 si le résultat d'une opération arithmétique vaut zéro. Le drapeau est mis à 0 dans les autres cas.
SF (bit 7) Sign Flag (Drapeau de signe) : Mis à 1 si le résultat d'une opération arithmétique possède un bit de poids fort (bit le plus significatif) à 1,
indiquant ainsi un nombre signé. Le drapeau est mis à 0 dans les autres cas (indiquant possiblement un résultat non signé, c'est-à-dire positif).
OF (bit 11) Overflow Flag (Drapeau de débordement) : Mis à 1 si le résultat constitue un nombre positif ou négatif (en excluant le bit de signe) ne
pouvant tenir dans l'opérande de destination. Le drapeau est mis à 0 dans les autres cas. Ce drapeau indique une condition de débordement pour les
opérations arithmétiques signées sur les entiers.
Le drapeau de contrôle
DF (bit 10) Direction Flag (Drapeau de direction) : Ce drapeau est utilisé conjointement avec les instructions opérant sur les chaînes de caractères.
Lorsque le drapeau DF est à 1, les adresses des chaînes de caractères sont auto décrémentées (allant ainsi des adresses les plus hautes vers les
adresses les plus basses). Lorsque le drapeau est à 0, les adresses des chaînes de caractères sont auto incrémentées (allant des adresses les plus
basses vers les adresses les plus hautes. Aucun résultat d'opération ne permet d'armer ou de désarmer le drapeau de direction. Seules deux
instructions permettent de spécifier explicitement son état.
Les drapeaux système du registre RFLAGS sont contrôlés par le système d'exploitation ou les opérations de surveillance système. En temps normal un
programme applicatif ne devrait pas modifier l'état de ces drapeaux. Les bits 12 et 13 ne sont pas considérés comme deux drapeaux, mais comme un champ
de 2 bits (le champ IOPL).
TF (bit 8) Trap Flag (Drapeau de trappe) : Lorsqu'il est à 1, ce drapeau permet le débogage en mode pas à pas, c'est-à-dire instruction par
instruction. Lorsqu'il est à 0, le mode pas à pas est inopérant (fonctionnement normal).
IF (bit 9) Interrupt Flag (Drapeau d'interruption) : Ce drapeau contrôle la façon dont le processeur répond aux requêtes d'interruptions masquables
(c'est-à-dire désactivables). Lorsqu'il est à 1, le processeur peut répondre à toutes les interruptions, dans le cas contraire (drapeau IF à 0), le
processeur ne pourra répondre qu'aux interruptions non masquables.
IOPL (bits 12 et 13) Input / Output privilege level field (Champ de niveau de privilège d'entrée et de sortie) : Ce champ indique le niveau de
privilège en entrée/sortie (E/S) du programme ou de la tâche courante. Le niveau de privilège courant du programme ou de la tâche en cour doit être
égal ou inférieur au niveau de privilège d'E/S pour accéder à l'espace d'adressage. Ce champ ne peut être modifié qu'avec un niveau de privilège
égal à 0 (niveau de privilège le plus haut). Ce concept de niveaux de privilèges est implémenté au travers des anneaux de protection.
NT (bit 14) Nested task Flag (Drapeau de tâche chaînée) : Ce drapeau contrôle l'enchaînement des tâches interrompues et appelées. Il indique
ainsi, lorsqu'il est à 1, si la tâche courante est liée à une tâche parent (la tâche qui s'exécutait auparavant) via l'instruction CALL ou par le biais d'une
interruption. Lorsqu'il est à 0, ce drapeau indique simplement que la tâche courante n'a pas de tâche parente.
RF (bit 16) Resume Flag (Drapeau de redémarrage) : Ce drapeau contrôle la réponse du processeur aux exceptions de débogage. Il assure
notamment que le débogage en pas à pas (voir drapeau TF) n'intervient qu'une seule fois par instruction.
VM (bit 17) Virtual-8086 mode Flag (Drapeau de mode virtuel 8086) : Lorsque ce drapeau est à 0 le processeur est en mode virtuel 8086. Lorsqu'il
est à 0, le processeur revient en mode protégé.
AC (bit 18) Alignment Check Flag (Drapeau de vérification d'alignement) : Ce drapeau, lorsqu'il est à 1, assure une vérification d'alignement des
références mémoire. Lorsqu'il est à 0, aucune vérification d'alignement n'est effectuée. Ce drapeau nécessite d'armer conjointement le bit AM du
registre de contrôle CR0.
VIF (bit 19) Virtual Interrupt Flag (Drapeau d'interruption virtuelle) : Ce drapeau est une image virtuelle du drapeau IF. Il est utilisé en conjonction
avec le drapeau VIP (bit 20).
VIP (bit 20) Virtual Interrupt Pending Flag (Drapeau d'interruption virtuelle en attente) : Lorsqu'il est à 1ce drapeau indique qu'une interruption est
en attente. Lorsqu'il est à 0 ce drapeau indique qu'aucune interruption n'est en attente. Seuls les programmes peuvent armer ou désarmer ce
drapeau, le processeur ne fait que le lire. À utiliser conjointement avec le drapeau VIF (bit 19).
ID (bit 21) Identification Flag (Drapeau d'indentification) : Si un programme à la possibilité d'armer ou de désarmer ce drapeau, cela indique que le
processeur supporte l'utilisation de l'instruction CPUID.
Le pointeur d'instruction
Le registre RIP (64 bits) comprenant respectivement EIP (32 bits) et IP (16bits) est utilisé avec le segment du registre CS par le processeur pour connaitre la
prochaine instruction à exécuter. Ce registre est donc modifié implicitement par le processeur (instruction suivante, saut à l'adresse indiquée, appel d'une
fonction, interruption ...).
Registres divers
Registres de datation TSC (Time Stamp Counter).Ce registre accumule le nombre de cycles d'horloge depuis le démarrage de l'ordi ou depuis le
dernier reset.
Registres 64 bits MMX de MM0 à MM7.
L'adressage
La pile
Les interruptions
Page précédente Page suivante: L'assemblage
Adressage
Pour accéder à une donnée en mémoire, le microprocesseur doit connaître son adresse. Voici les différents types d'adressage possibles:
L'adressage inhérent
Le code opératoire contient toute l'information nécessaire à l'exécution de l'instruction.
Ex: Les opérations d'incrémentation ou de décrémentation d'un registre. ADD AX, BX ou INC AX
L'adressage immédiat
Le code opératoire est directement suivi par un opérande (une donnée).
Ex: EAX, 0x0123CH ; La valeur 0x123CH est placée dans EAX.
L'adressage direct
Le contenu d'un registre est initialisé par le contenu du champ opérande contenant l'adresse de la donnée en mémoire.
Ex: ADD EAX, adresse
L'adressage registre
Ex: MOV EBX,EAX ; Le contenu de eax est copié dans ebx.
L'adressage basé
Le contenu d'un registre est initialisé avec la mémoire située à l'adresse DS:[EBX].
Ex:
MOV EBX,9 ; EBX <- 9
MOV EAX,[EBX] ;EAX <- contenu de la zone mémoire à l'adresse DS:9 (Adresse dans EBX et son contenu dans EAX)
Les registres suivants peuvent servir de registre de base :
EAX EDI
EBX ESI
ECX EBP
EDX ESP
L'adressage indexé
Le contenu d'un registre est initialisé par le contenu dont l'adresse est pointée par un registre d'index.
Ex:
MOV ESI,0
MOV EAX,[ESI] ; EAX <- Contenu de la zone mémoire à l'adresse DS:0
L'adressage basé et déplacement
Le contenu d'un registre est initialisé avec la mémoire située à l'adresse en utilisant la valeur d'un registre de travail + une valeur de déplacement.
MOV EAX,[EBX + 7] ; EAX <- Contenu de l'adresse mémoire = EBX + 7
L'adressage basé indexé
Le contenu d'un registre est initialisé avec la mémoire située à l'adresse en utilisant la valeur d'un registre de travail + la valeur d'un registre d'index.
Ex:
MOV EBX,5
MOV ESI,4
MOV EAX,[EBX+ESI] ; EAX <- contenu de la mémoire à l'adresse DS:9 (5+4)
L'adressage basé, indexé et déplacement
Le contenu d'un registre est initialisé avec la mémoire située à l'adresse en utilisant la valeur d'un registre de travail + la valeur d'un registre d'index +
un déplacement.
Ex:
MOV EBX,1
MOV EDI,2
MOV EAX,[EBX+EDI+3] ; EAX <- contenu de la mémoire à l'adresse DS:6 (1+2+3)
L'adressage basé, déplacement-indexé et déplacement
Le contenu d'un registre est initialisé avec la mémoire située à l'adresse donnée par la valeur d'un registre de travail + la valeur d'un registre d'index
multiplié par une constante "k" + un déplacement.
Ex:
MOV EBX,1
MOV ESI,2
MOV eax,[EBX+ESI*k+3] ;EAX <- contenu mémoire situé à l'adresse DS:6 (1+2+3) avec k=1 (K peut prendre uniquement les valeurs 1, 2, 4 et 8)
La pile
La pile est une structure (zone mémoire) qui sert à sauvegarder temporairement des informations. Une pile est une liste Last-In First-Out (LIFO, dernier entré,
premier sorti). Elle possède les caractéristiques d'une pile d'assiettes, c'est à dire qu'on ne pourra y empiler qu'un élément à la fois et, si la pile possède
plusieurs éléments, ils ne pourront être désempilés que dans l'ordre inverse de l'empilage.
Pour la gestion de cette pile le processeur a besoin de deux registres, les registres SS et ESP :
SS (Stack Segment, segment de pile) contient l'adresse du segment de pile courant. Il doit être initialisé au début du programme.
ESP (Stack Pointer, pointeur de pile) est le déplacement pour atteindre le sommet de la pile (numéro du dernier élément pointé).
Si on ajoute un élément sur la pile (on empile), le pointeur ESP sera décrémenté, de 2 dans le cas d'un opérande de 16 bits, de 4 pour un opérande
de 32 bits.
Si on supprime un élément sur la pile (on dépile), le pointeur ESP sera incrémenté, de 2 dans le cas d'un opérande de 16 bits, de 4 pour un opérande
de 32 bits.
Les instructions PUSH et POP sont les instructions qui servent à empiler et dépiler les données.
PUSH registre/mémoire met le contenu du registre/mémoire dans la pile (empilement).
POP registre/mémoire récupère le contenu de la pile et le stocke dans le registre/mémoire (dépilement).
Exemple:
PUSH AX ; met le contenu du registre AX dans la pile
PUSH BX ; met le contenu du registre BX dans la pile
Les instructions PUSHF, PUSHFD et POPF, POPFD sont des variantes des deux instructions précédentes.
PUSH permet d'empiler le registre FLAGS.
POPF permet de désempiler le registre FLAGS
PUSHFD empile le registre de drapeaux EFLAGS. On décrémente ESP de 4 et les bits 16 et 17 ne sont pas copiés mais mis à 0 dans la valeur empilée..
POPFD dépile vers le registre de drapeaux EFLAGS et incrémente ESP de 4.
L'instruction CALL pousse l’adresse de l’instruction suivante (contenu du registre EIP) dans la pile et saute à l’adresse spécifiée par l’opérande.
La valeur du registre pointeur de pile ESP est mise à jour.
L'instruction RET dépile l’adresse de retour au sommet de la pile et la place dans EIP. L’adresse de retour doit donc obligatoirement se trouver en
sommet de pile.
Les interruptions
Une interruption est une petite routine, qui est en mesure d'arrêter le processeur pendant un fonctionnement normal. On distingue les interruptions logicielles,
qui peuvent être déclenchées par des programmes (Lorsque le processeur rencontre l'instruction INT n (ou n est le numéro de l'interruption) ) et les
interruptions matérielles, que l'ordinateur ou un de ces composants peuvent déclencher eux-mêmes.
Les interruptions logicielles
Lorsqu'une interruption se déclenche, le processeur cherche dans la table des vecteurs d'interruptions IVT ( Interrupt Vector Table ) cette table de 1 Kio est
située à l'adresse 0000:0000. Chaque entrée de la table contient le numéro de segment de 16 bits et l'offset de 16 bits pour l'adresse d'un sous-programme
de traitement d'interruption (Interrupt Service Routine ou ISR). L'adresse du point d'entrée (ISR) de la procédure correspondant au numéro de l'interruption.
Une routine d'interruption se termine toujours par l'instruction IRET, qui provoque le retour au programme initial.
L'IVT peut contenir 256 pointeurs de routines d'interruption.
En mode protégé, le processeur va plutôt lire la table des descripteurs d'interruption IDT (Interrupt Dispatch Table). L'adresse de cette table est contenue
dans le registre IDTR. Elle contient des descripteurs de 64 bits pour les sous-programmes de traitement d'interruption ISR.
Les interruptions matérielles sont générées par les périphériques tel que : clavier, souris, disque, horloge, etc. Elles peuvent être autorisées ou interdites au
moyen de l'indicateur IF du registre EFLAGS. Les interruptions matérielles permettent une gestion efficace des périphériques d'entrée /sortie.
Directive d'assemblage
La compilation
Mise au point
Les instructions de base
Page précédente Page suivante: Les instructions
Directive d'assemblage
En plus de coder les instructions machine, les langages assembleur ont des directives supplémentaires pour assembler des blocs de données et assigner des
adresses aux instructions en définissant des étiquettes ou labels.
Ils sont capables de définir des expressions symboliques qui sont évaluées à chaque assemblage, rendant le code encore plus facile à lire et à comprendre.
L'assembleur reconnaît un sous-ensemble de caractères de la séquence ASCII, c'est à dire les caractères de l'alphabet (non accentués), les caractères
numériques et les caractères comme + - * / = ( ) [ ] ; ' . ! , _ : @ $ , l'espace, TAB, RETURN, LF.
Les différents champs d'un programme assembleur doivent être séparés par au moins un espace. Les opérandes dans une instruction sont séparées par une
virgule.
Un programme en assembleur comprend:
mov bx,7
Définition de constantes
La directive EQU associe une valeur à un nom qui pourra être ensuite utilisé dans le programme à la place de la constante qu’elle définit.
Définition de variables
Les variables sont des zones mémoires qui sont réservées lors de l'assemblage.
DB : Variable 8 bits
Cette instruction définit des zones mémoires de 1 Byte. Elle est aussi utilisée pour définir des chaines de caractères.
Status DB 0 ; Définition d'un octet initialisé à 0
DW : Variable 16 bits
Cette instruction définit des zones mémoires de 2 Bytes ou un mot (word). Le début de la zone mémoire est repéré par un identificateur.
Cent DW 1000 ; Définition d'une variable WORD (2 Bytes) un mot initialisé à 1000
TableW DW 5 DUP(?) ; Définition d'un tableau de 5 éléments de type Word (16 bits)
DD : Variable 32 bits
Cette instruction définit des zones mémoires de 4 Bytes ou un double mot (double word).
Trois DD 100,200,300 ; Définition d'un tableau de trois double-mots initialisés à 100, 200, 300
Table DW DD 10 DUP(0)
; Définition d'un tableau de 10 valeurs initialisées à 0
A la dernière ligne un exemple avec la directive DUP qui permet de déclarer un tableau de n cases, toutes initialisées à la même valeur.
Compilation
L’assembleur est un utilitaire qui n’est pas interactif. Le programme que l’on désire traduire en langage machine (assembler) doit être placé dans un fichier
texte avec l’extension .asm.
1. Pour la saisie du programme source (.asm) on utilise un simple éditeur de texte capable de générer un fichier ASCII.
2. L’opération d’assemblage traduit chaque instruction du programme source (.asm) en une instruction machine. Le résultat de l’assemblage est
enregistré dans un fichier objet avec l’extension .obj. Cette étape est aussi appelée compilation du programme réalisé par le compilateur.
3. Le fichier .obj n’est pas directement exécutable.
En effet, il arrive fréquemment que l’on construise un programme exécutable à partir de plusieurs fichiers sources. Il faut “relier” les fichiers objets à
l’aide d’un utilitaire nommé éditeur de lien (même si l’on a qu’un seul). L’éditeur de liens fabrique un fichier exécutable, avec l’extension .EXE
ou .COM.
Les fichiers .EXE ou .COM sont directement exécutables. Un utilitaire spécial (chargeur) du système d’exploitation (Ex: DOS), est responsable de la lecture
du fichier exécutable, de son implantation en mémoire principale, puis du lancement du programme.
Les programmes .EXE sont limités que par la mémoire disponible dans l’ordinateur contrairement aux programmes .COM qui ne peuvent pas utiliser plus d’un
segment dans la mémoire. Leur taille est ainsi limitée à 64 Kio.
Les fichiers .COM débute à l’offset 100h et non à l’offset oh.
Voici une liste non- exhaustive d'assembleur:
FASM: [Link];
MASM: [Link];
NASM: [Link] et [Link]/asmgges/[Link];
RosASM: [Link];
TASM: [Link]/faqs/assembly-language/x86/borland
Avec Linux
Ici, je vais vous présenter Nasm. NASM (Netwide Assembler) est un logiciel assembleur libre pour architecture x86, utilisant la syntaxe Intel. On peut le
trouver pour plusieurs systèmes d'exploitation comme Linux, Windows, FreeBSD, Mac OS X, OS/2.
Il peut être utilisé pour produire à la fois des programmes 16 bits et 32 bits (IA-32) et depuis la version 2 de NASM il est possible de produire aussi des
programmes 64 bits (X64/AMD64/EMT64/x86-64).
Vous n'avez pas besoin d'un éditeur spécifique pour créer un fichier source destiné à Nasm. Vous pouvez utiliser Gedit, Kwrite, Xemacs, etc.
Ce fichier aura l'extension .asm.
Si ce n'est pas déjà fait, vous allez installer Nasm sur votre machine. Si vous êtes sous Ubuntu ou plus généralement sous Debian, tapez dans un terminal la
commande: " sudo apt-get install nasm"
Exemple:
patrick@calypso:~$ sudo apt-get install nasm
Lecture des listes de paquets... Fait
Construction de l'arbre des dépendances
Lecture des informations d'état... Fait
Les NOUVEAUX paquets suivants seront installés :
nasm
0 mis à jour, 1 nouvellement installés, 0 à enlever et 0 non mis à jour.
Il est nécessaire de prendre 0o/840ko dans les archives.
Après cette opération, 2081ko d'espace disque supplémentaires seront utilisés.
Sélection du paquet nasm précédemment désélectionné.
(Lecture de la base de données... 128969 fichiers et répertoires déjà installés.)<br
Si vous avez une autre distribution Linux, vous devez utiliser le gestionnaire de paquet de votre distribution (urpmi, yum, ).
Après l'installation de Nasm, créez votre fichier source: [Link] par exemple.
mov ax,123
nop
mov dx,456
nop
mov ah,9
nop
int 0x21
nop
nop
nop
Tapez la commande: "nasm -f elf [Link]". Ceci créera un fichier objet nommé "Tempo.o" dans le répertoire courant. Ce fichier n'est pas encore
exécutable, ce n'est encore qu'un fichier objet, c'est à dire un fichier qu'il faut lier avec les bibliothèques dont il dépend comme par exemple la libraire standard
libc.
Création de l'exécutable
Avec notre fichier objet nommé Tempo.o nous allons créer un exécutable.
Deux cas possible:
Le programme débute avec une procédure nommée "_start". Le programme possède alors son propre point d'entrée sans utiliser la fonction main.
Vous exécuter la commande "ld" pour créer l'exécutable.
"ld Tempo.o -o Tempo"
Le programme commence avec une procédure nommée "main". Vous allez exécuter la commande "gcc" pour créer l'exécutable.
"gcc Tempo.o -o Tempo "
L'exécutable est ainsi créé dans le répertoire courant avec "tempo" comme nom.
Exécution du programme
Avec Windows
Ici, je vais vous présenter Fasm. FASM (Flat asembler) est un programme assembleur pour l'architecture IA-32 (x86). FASM est écrit en langage assembleur
et existe pour les systèmes DOS, DexOS, GNU/Linux, Windows, et Menuet.
FASM a quelques caractéristiques évoluées pour un langage assembleur tel que les macros, les structures, et les données virtuelles. FASM intègre des
bibliothèques pour l'environnement graphique Windows et OpenGL.
On peut utiliser FASM en ligne de commande avec l'exécutable "[Link]" ou avec l'IDE avec la commande "[Link]".
Pour la saisie du programme source (.asm) on utilise un simple éditeur de texte. On peut citer: Editpad Lite, Notepad++, Ultraedit, etc. On peut utiliser aussi
Fasm. Tapez "[Link]" et rentrez le programme suivant:
mov ah, 0
int 16h ; Attente d'une touche....
ret ; Retour
Dans le menu "Run" cliquez sur "Compile". Un fichier "[Link]" vient d'être créer.
Exécution du programme
Ouvrez l'interpréteur de commande de Windows (tapez "cmd" dans "Exécuter" du menu
démarrer ou directement "cmd" dans la barre "recherche" du logo Windows sous Windows
Vista.
Avec l'interpréteur de commande, vous devrez vous rendre dans le dossier qui contient le
fichier "[Link]" avec la commande DOS "cd".
L'utilitaire Debug permet d'assembler, de désassembler et faire de la mise au point de programme, bref il permet de faire ses premiers pas en assembleur.
Trace (Execute une instruction puis affiche le contenu de tous les registres, l'état de tous les indicateurs et la
forme décodée de l'instruction que Debug exécutera ensuite) T (=adresse) (valeur)
Instructions de base
Il existe plusieurs catégories d'instruction: les instructions de base et d'affectation, les instructions arithmétiques et logiques, les instructions de décalage et de
rotation, les instructions de comparaison et les instructions de rupture de séquence.
1. De base et d'affectation
Les instructions d'affectation permettent de faire des transferts de données entre les registres et la mémoire.
Chargement d'une valeur dans un registre
Déplacement d'une valeur depuis un emplacement mémoire dans un registre, et inversement
Exemple: (avec mov est sans doute l'instruction la plus utilisée)
mov Mem1, ax ; Transfert du contenu du AX vers une case mémoire d ’adresse Mem1
mov ax,Mem2 ; Transfert du contenu d’une case mémoire 16 bits Mem2 vers AX
Pour le 8086:
24-02-2011td>Fonctions
Usage Instructions
MOV Transfert d'un ou plusieurs octets
2. Arithmétiques et logiques
Addition, soustraction, multiplication et division des valeurs de deux registres ou mémoire et chargement du résultat dans un registre ou une
mémoire.
Exemple:
INC Incrémentation de +1
DEC Décrémentation de -1
NEG Mètre un ou plusieurs octets en négatif (complément à deux)
Combinaison de valeurs de deux registres suivant une opération booléenne (ou opération bit à bit)
Exemple:
L'instruction AND effectue un ET LOGIQUE sur les 2 opérandes, le résultat est placé dans la première opérande. Le AND est utilisé pour
isoler certains bits d'un octet(s) ou pour mettre à 0 un ou plusieurs bits. On l'utilise aussi pour calculer le reste d'une division.
Calcul de 35 / 8 (=4 et reste 3)
and ax,bx ; = 0000 0011 dans AX (soit 3 en décimal: reste de la division dans AX)
Instructions Fonctions
3. Décalage et de rotation
4.
L'instruction ROL décale tous les bits vers la gauche de une ou plusieurs L'instruction RCL décale tous les bits vers la gauche de une ou plusieurs
positions. Les bits qui "sortent" par la gauche sont réinjectés par la positions. Les bits qui "sortent" par la gauche passent par l'indicateur de
droite, l'indicateur de retenue CF est perdu. retenue CF (CARRY FLAG) avant d'être réinjectés par la droite.
Exemple: Exemple:
5.
6. Comparaison
Comparer les valeurs de deux registres
Instructions Fonctions
; Compare 2 opérandes en soustrayant la seconde à la première. Les opérandes ne sont pas modifiées et les indicateurs
CMP
reflètent le résultat
7. Modification du déroulement du programme
Saut à un autre emplacement dans le programme (normalement, les instructions sont exécutées séquentiellement, les unes après les autres)
Saut à un autre emplacement, mais après avoir sauvegardé l'instruction suivante afin de pouvoir y revenir (point de retour)
Retour au dernier point de retour
JMP Saut
conditionnels arithmétique signée JG - JNLE Si plus grand - Si pas inférieur et non égal
JGE - JNL Si plus grand ou égal - Si pas inférieur
JC Si retenue
JE - JZ Si égal - Si zéro
JO Si débordement
JS Si signe négatif
RDPMC: RDPMC à été introduit avec le processeur Pentium Pro et le processeur Pentium avec la technologie MMX.
Conditioné à MOV: CMOVA, CMOVAE, CMOVB, CMOVBE, CMOVC, CMOVE, CMOVG, CMOVGE, CMOVL, CMOVLE, CMOVNA, CMOVNAE, CMOVNB,
CMOVNBE, CMOVNC, CMOVNE, CMOVNG, CMOVNGE, CMOVNL, CMOVNLE, CMOVNO, CMOVNP, CMOVNS, CMOVNZ, CMOVO, CMOVP, CMOVPE,
CMOVPO, CMOVS, CMOVZ, SYSENTER (SYStem call ENTER), SYSEXIT (SYStem call EXIT), RDPMC, UD2.
SYSCALL, SYSRET (Fonctionnalité spécifique au processeur AMD équivalente à l'instruction SYSENTER et SYSEXIT)
MASKMOVQ, MOVNTPS, MOVNTQ, PREFETCH0, PREFETCH1, PREFETCH2, PREFETCHNTA, SFENCE (Mise en cache et ordonnancement mémoire
Memory Ordering)
Ajouts aux processeurs SSE2
CLFLUSH, LFENCE, MASKMOVDQU, MFENCE, MOVNTDQ, MOVNTI, MOVNTPD, PAUSE (for Cacheability)
VMPTRLD, VMPTRST, VMCLEAR, VMREAD, VMWRITE, VMCALL, VMLAUNCH, VMRESUME, VMXOFF, VMXON
CLGI, SKINIT, STGI, VMLOAD, VMMCALL, VMRUN, VMSAVE (SVM instructions of AMD-V)
F2XM1, FABS, FADD, FADDP, FBLD, FBSTP, FCHS, FCLEX, FCOM, FCOMP, FCOMPP, FDECSTP, FDISI, FDIV, FDIVP, FDIVR, FDIVRP, FENI, FFREE,
FIADD, FICOM, FICOMP, FIDIV, FIDIVR, FILD, FIMUL, FINCSTP, FINIT, FIST, FISTP, FISUB, FISUBR, FLD, FLD1, FLDCW, FLDENV, FLDENVW,
FLDL2E, FLDL2T, FLDLG2, FLDLN2, FLDPI, FLDZ, FMUL, FMULP, FNCLEX, FNDISI, FNENI, FNINIT, FNOP, FNSAVE, FNSAVEW, FNSTCW, FNSTENV,
FNSTENVW, FNSTSW, FPATAN, FPREM, FPTAN, FRNDINT, FRSTOR, FRSTORW, FSAVE, FSAVEW, FSCALE, FSQRT, FST, FSTCW, FSTENV,
FSTENVW, FSTP, FSTSW, FSUB, FSUBP, FSUBR, FSUBRP, FTST, FWAIT, FXAM, FXCH, FXTRACT, FYL2X, FYL2XP1
FSETPM
FCOS, FLDENVD, FNSAVED, FNSTENVD, FPREM1, FRSTORD, FSAVED, FSIN, FSINCOS, FSTENVD, FUCOM, FUCOMP, FUCOMPP
FCMOV variants: FCMOVB, FCMOVBE, FCMOVE, FCMOVNB, FCMOVNBE, FCMOVNE, FCMOVNU, FCMOVU
FCOMI variants: FCOMI, FCOMIP, FUCOMI, FUCOMIP
FXRSTOR, FXSAVE ( Also supported on later Pentium IIs, though they do not contain SSE support)
Instructions SIMD
Instructions MMX
Ajouts aux processeurs Pentium MMX
EMMS, MOVD, MOVQ, PACKSSDW, PACKSSWB, PACKUSWB, PADDB, PADDD, PADDSB, PADDSW, PADDUSB, PADDUSW, PADDW, PAND, PANDN,
PCMPEQB, PCMPEQD, PCMPEQW, PCMPGTB, PCMPGTD, PCMPGTW, PMADDWD, PMULHW, PMULLW, POR, PSLLD, PSLLQ, PSLLW, PSRAD,
PSRAW, PSRLD, PSRLQ, PSRLW, PSUBB, PSUBD, PSUBSB, PSUBSW, PSUBUSB, PSUBUSW, PSUBW, PUNPCKHBW, PUNPCKHDQ, PUNPCKHWD,
PUNPCKLBW, PUNPCKLDQ, PUNPCKLWD, PXOR
Instructions MMX+
Ajouts aux processeurs Athlon
Same as the SSE SIMD Integer Instructions which operated on MMX registers.
Instructions EMMX
Ajouts aux processeurs 6x86MX de Cyrix
PAVEB, PADDSIW, PMAGW, PDISTIB, PSUBSIW, PMVZB, PMULHRW, PMVNZB, PMVLZB, PMVGEZB, PMULHRIW, PMACHRIW
Instructions 3DNOW!
Ajouts aux processeurs K6-2
FEMMS, PAVGUSB, PF2ID, PFACC, PFADD, PFCMPEQ, PFCMPGE, PFCMPGT, PFMAX, PFMIN, PFMUL, PFRCP, PFRCPIT1, PFRCPIT2, PFRSQIT1,
PFRSQRT, PFSUB, PFSUBR, PI2FD, PMULHRW, PREFETCH, PREFETCHW
Instructions 3DNOW!+
Ajouts aux processeurs Athlon
PFRSQRTV, PFRCPV
Instructions SSE
Voir aussi les instructions sur les entiers ajoutées au processeur Pentium III.
Ajouts Instructions SSE SIMD en virgule flottante
ADDPS, ADDSS, CMPPS, CMPSS, COMISS, CVTPI2PS, CVTPS2PI, CVTSI2SS, CVTSS2SI, CVTTPS2PI, CVTTSS2SI, DIVPS, DIVSS, LDMXCSR,
MAXPS, MAXSS, MINPS, MINSS, MOVAPS, MOVHLPS, MOVHPS, MOVLHPS, MOVLPS, MOVMSKPS, MOVNTPS, MOVSS, MOVUPS, MULPS, MULSS,
RCPPS, RCPSS, RSQRTPS, RSQRTSS, SHUFPS, SQRTPS, SQRTSS, STMXCSR, SUBPS, SUBSS, UCOMISS, UNPCKHPS, UNPCKLPS
ANDNPS, ANDPS, ORPS, PAVGB, PAVGW, PEXTRW, PINSRW, PMAXSW, PMAXUB, PMINSW, PMINUB, PMOVMSKB, PMULHUW, PSADBW,
PSHUFW, XORPS
Instructions SSE2
ADDPD, ADDSD, ANDNPD, ANDPD, CMPPD, CMPSD*, COMISD, CVTDQ2PD, CVTDQ2PS, CVTPD2DQ, CVTPD2PI, CVTPD2PS, CVTPI2PD,
CVTPS2DQ, CVTPS2PD, CVTSD2SI, CVTSD2SS, CVTSI2SD, CVTSS2SD, CVTTPD2DQ, CVTTPD2PI, CVTPS2DQ, CVTTSD2SI, DIVPD, DIVSD,
MAXPD, MAXSD, MINPD, MINSD, MOVAPD, MOVHPD, MOVLPD, MOVMSKPD, MOVSD*, MOVUPD, MULPD, MULSD, ORPD, SHUFPD, SQRTPD,
SQRTSD, SUBPD, SUBSD, UCOMISD, UNPCKHPD, UNPCKLPD, XORPD
MOVDQ2Q, MOVDQA, MOVDQU, MOVQ2DQ, PADDQ, PSUBQ, PMULUDQ, PSHUFHW, PSHUFLW, PSHUFD, PSLLDQ, PSRLDQ, PUNPCKHQDQ,
PUNPCKLQDQ
Instructions SSE3
Instructions SSSE3
Ajouts aux processeurs Core 2 et Xeon 5100 serie
PSIGNW, PSIGND, PSIGNB, PSHUFB, PMULHRSW, PMADDUBSW, PHSUBW, PHSUBSW, PHSUBD, PHADDW, PHADDSW, PHADDD, PALIGNR,
PABSW, PABSD, PABSB
Instructions SSE4
SSE 4.1
Ajouts aux processeurs Core 2 x9000 series
MPSADBW, PHMINPOSUW, PMULLD, PMULDQ, DPPS, DPPD, BLENDPS, BLENDPD, BLENDVPS, BLENDVPD, PBLENDVB, PBLENDW, PMINSB,
PMAXSB, PMINUW, PMAXUW, PMINUD, PMAXUD, PMINSD, PMAXSD, ROUNDPS, ROUNDSS, ROUNDPD, ROUNDSD, INSERTPS, PINSRB,
PINSRD/PINSRQ, EXTRACTPS, PEXTRB, PEXTRW, PEXTRD/PEXTRQ, PMOVSXBW, PMOVZXBW, PMOVSXBD, PMOVZXBD, PMOVSXBQ,
PMOVZXBQ, PMOVSXWD, PMOVZXWD, PMOVSXWQ, PMOVZXWQ, PMOVSXDQ, PMOVZXDQ, PTEST, PCMPEQQ, PACKUSDW, MOVNTDQA
SSE 4.a
Ajouts aux processeurs Phenom
EXTRQ/INSERTQ, MOVNTSD/MOVNTSS
SSE 4.2
Ajouts aux processeurs Nehalem
1. Les connecteurs de la carte graphique sont utilisés pour brancher un moniteur, sur certaine carte graphique un
téléviseur ou même une prise entrée vidéo.
2. La prise série est généralement utilisée avec une souris ou un modem. Ce port a l'avantage d'être compact et de ne
posséder que quelques signaux utiles. Plus difficile à mettre en oeuvre que le port parallèle, la prise série se révèle
cependant plus puissante et plus universelle.
3. Le Port parallèle associé à l'interface parallèle Centronics (ou LPT pour Line Printing Terminal) est un connecteur situé
à l'arrière des ordinateurs compatibles PC reposant sur la communication parallèle.
4. FireWire est le nom donné par Apple à l'interface série multiplexée IEEE P 1394 dont elle est à l’origine. La société
Sony la nomme [Link], la société Texas Instruments utilisant quant à elle le terme Lynx. Le FireWire a été normalisé en
1995 sous la référence IEEE 1394.
5. L'Universal Serial Bus U.S.B est un bus informatique plug-and-play à transmission série servant à brancher des
périphériques informatiques à l'ordinateur.
6. Le port Ethernet ou Lan qui permet le raccordement des ordinateurs à un réseau est reconnaissable par la présence
d'un connecteur RJ-45.
On utilise le connecteur RJ-45 dans le câblage Ethernet, mais aussi comme connecteurs de téléphones de bureaux et
pour les applications de réseaux informatiques comme l'ISDN et les T1.
7. Prise d'entrée audio, permet de brancher une source audio sur l'ordinateur.
8. Prise microphone, permet de brancher un micro sur l'ordinateur (fiche de 3,5 mm).
9. Prise de sortie audio, permet de brancher des haut-parleurs, un casque, etc, sur l'ordinateur.
10. Prise de sortie audio S/PDIF, permet de bénificier du son Dolby Digital 5.1.
11. Le port Infrarouge irDA (Infrared Data Association) permet à un ordinateur de communiquer avec d'autres dispositifs
qui utilisent la technologie infrarouge.
Spécifications:
• L'ordinateur doit être à moins d'un mètre du périphérique infrarouge
• L'angle formé par l'ordinateur et le dispositif est inférieur à 30º.
• Modulation: Bande de Base, Pas de porteuse
• Infrarouge
• irDA 1.0 à 115kb/s
• irDA 1.1 (Fast IrDA) à 4Mb/s
• irSimple à 16Mb/s
12. Le port PS/2 (personal System/2) ou port Mini-din est un port de connexion de dimensions réduites pour souris ou
clavier, apparu avec les ordinateurs IBM PS/2 vers 1987. Un code de couleur permet de différencier les prises: violet
pour le clavier et vert pour la souris.
13. Note: Il est fortement déconseillé de brancher ou débrancher à chaud du matériel sur un port PS/2 car cela peut
amener à la détérioration de la carte mère.
14. Le connecteur DIN 5 pôles des claviers AT.
1 - Fréquence d'horloge
2 - Données
3 - Reset
4 - Masse
5 - +5V DC
15.
16. Le connecteur port jeux PC
1- +5V DC
2 - Bouton 1
3 - Joystick 1 - X
4 - Masse
5 - Masse
6 - Joystick 1 - Y
7 - Bouton 2
8 - +5V DC
9 - +5V DC
10 - Bouton 4
11 - Joystick 2 - X
D-SUB 15 Femelle côté ordinateur 12 - Masse ou MIDI Tx
13 - Joystick 2 - Y
14 - Bouton 3
15 - +5V DC ou MIDI Rx
PORT ETHERNET:
Le port Ethernet ou Lan qui permet le raccordement des ordinateurs à un réseau est reconnaissable par la présence d'un connecteur RJ-45.
On utilise le connecteur RJ-45 dans le câblage Ethernet, mais aussi comme connecteurs de téléphones de bureaux et pour les applications de réseaux
informatiques comme l'ISDN et les E1/T1.
Connectique
Un connecteur RJ-45 ("RJ" en anglais Registered Jack, prise jack enregistrée) compte huit broches (8P8C).
Paire
Broche Couleur Nom
(568B)
1 Orange/Blanc 2 TxData + (BI_DA+)
4 Bleu 1 (BI_DC+)
5 Bleu/Blanc 1 (BI_DC-)
7 Marron/Blanc 4 (BI_DD+)
Connecteur mâle côté câble
8 Marron 4 (BI_DD-)
Les noms en parenthèse correspondent aux noms des signaux pour le câblage fédérateur (backbone) 1000BaseT.
Correspondances entre les différents brochages et les paires de couleurs des connecteurs RJ-45:
Câblage
Un câblage Ethernet 10/100 Mbit/s, utilise quatre broches (soit les 2 paires 1 et 2) d'un connecteur RJ-45. Les broches 1-2 et 3-6 sont seulement utilisées
pour transmettre les informations.
Un câblage Ethernet en 1 Gbit/s (1 000 Mbit/s), utilise les 8 broches du connecteur RJ-45.
Suivant les cas on utilise des câbles droits ou des câbles croisés.
Mais aujourd'hui les équipements réseau peuvent être capables de faire de l'auto-négociation MDI/MDI-X. Cette fonction élimine le besoin de câble croisé ou
de port uplink. N'importe quel port peut se connecter simplement à un serveur, à un concentrateur ou à un autre switch en utilisant un simple câble droit à
paires torsadées.
Câble droit
- Le câble droit (Straight-through) est utilisé pour connecter un ordinateur à un concentrateur (hub) ou un commutateur (switch), Routeur ADSL. Les
broches 1-2 et 3-6 sont seulement utilisées.
- Le câble droit est utilisé pour connecter un ordinateur possédant une interface Gigabit/s. Les noms des signaux supplémentaires sont en parenthèse.
RJ-45 RJ-45
4 (BI_DC+) 4 (BI_DC+)
5 (BI_DC-) 5 (BI_DC-)
7 (BI_DD+) 7 (BI_DD+)
8 (BI_DD-) 8 (BI_DD-)
Câble croisé
Le câble croisé (Cross-over) est utilisé pour connecter deux postes de travail ensemble, sauf pour le cas d'une communication en Gigabit.
Les paires utiles sont inversées, c'est-à-dire que la paire de transmission "Tx" d'un côté est connectée aux broches de réception "Rx" de l'autre côté.
Aussi dans le cas où les broches 1-2 et 3-6 sont seulement utilisées, nous avons le câble simple suivant:
(Les paires des broches 1-2 et 3-6 sont croisées, les 2 autres paires ne sont pas croisées. On a alors un câble qui ne peut pas fonctionner en Gigabit/s mais
fonctionne en 10/100 Mbit/s)
RJ-45 RJ-45
Broche Nom Broche Nom
1 TxData + 3 RxData +
2 TxData - 6 RxData -
3 RxData + 1 TxData +
6 RxData - 2 TxData -
RJ-45 RJ-45
1 BI_DA+ 3 BI_DB+
2 BI_DA- 6 BI_DB-
3 BI_DB+ 1 BI_DA+
4 BI_DC+ 7 BI_DD+
5 BI_DC- 8 BI_DD-
6 BI_DB- 2 BI_DA-
7 BI_DD+ 4 BI_DC+
8 BI_DD- 5 BI_DC-
Note:
Avec les appareils d'ancienne génération qui ne font pas de l'auto-négociation MDI/MDI-X, pour relier deux HUB entre eux il faut croiser les entrées et sorties.
En général la dernière entrée du HUB possède un bouton permettant de réaliser ce croisement. Si non, pour l'interconnexion de deux Hubs en cascade,
lorsqu'ils ne disposent pas de sortie croisée dédiée, On utilise un câble croisé. Cette règle s'applique aussi pour le raccordement d'un Hub à un Routeur.
RJ45
Broche Nom
1 TxData +
2 TxData -
3 RxData +
Téléphone ou
4
Alimentation
Téléphone ou
5
Alimentation
6 RxData -
Vidéo ou
7 Téléphone L2 ou
Alimentation
Vidéo ou
8 Téléphone L2 ou
Alimentation
Connecteurs RJ 11 et RJ12 et en T
Vue de face
Un connecteur RJ-11 (Registered Jack 11) est un standard international utilisé par les appareils
téléphoniques fixes et les réseaux locaux.
Une prise RJ-11 ressemble physiquement à une prise RJ-12 et a exactement les mêmes dimensions,
mais il n'y a que 4 fils utilisés (contrairement au RJ-12 qui utilise les 6 fils)
Vue de face
Un connecteur RJ-12 (Registered Jack 12) est un standard international utilisé par les appareils
téléphoniques fixes.
Le RJ 12 est physiquement le même connecteur que le RJ11. Sur le RJ12, les 6 conducteurs sont
utilisés, alors que seulement 4 le sont sur le RJ11. La RJ12 peut être raccordée sur une embase RJ45.
Tableau de correspondance:
Broche RJ45
Pair T/R ± RJ11 RJ12 RJ14 RJ25 Téléphone
RJ12 (VDI)
1 3 T + x T3
Alim DC ou AC
2 2 T + T2 T2
(option)
3 1 R - R1 R1 R1 R1 —> 4 Broche 1
4 1 T + T1 T1 T1 T1 —> 5 Broche 3
Alim DC ou AC
5 2 R - R2 R2
(option)
6 3 R - x R3
La prise F-010 ou prise en T, surnommée ainsi du fait de sa forme semblable à la lettre T, a été le type de connecteur téléphonique historique en France.
Depuis fin 2003 France Télécom installe des prises 8P8C à la norme CEI 60603-7 (RJ45)
Br Co
No
oc ule
m
he ur
Lign
1 e1 Gris
Fil A
2 Anti- Inco
Tint
eme
nt lore
Lign
e1
Lign
Blan
3 e1
c
Fil B
Mar
4
ron
5 Bleu
Lign
Jaun
6 e2
e
Fil A
Anti-
Tint
eme Viol
7
nt et
Lign
e2
Lign
Ora
8 e2
nge
Fil B
Caractéristiques:
- Impédances des câbles 600 Ohms.
- Alimentation au repos: 48V c.c, 0mA c.c et 40 mA décroché.
- La sonnerie est un signal superposé à la tension continue de 48 V. Il est de forme sinusoïdal, de fréquence 50 Hz et de tension 50 V efficaces par rafales. - -
Une activée pendant 2 secondes et une autre désactivée pendant 4 secondes.
- La tonalité est un signal sinusoïdal de fréquence 440Hz (note LA), 330 Hz pour les PABX.
- La signal audio est un signal superposé à la tension continue de 48 V de 5 à 500 mV crête et de bande passante (300 Hz – 3400 Hz)
FireWire est le nom donné par Apple à l'interface série multiplexée IEEE P 1394 dont elle est à l’origine. La société Sony la nomme [Link], la
société Texas Instruments utilisant quant à elle le terme Lynx. Le FireWire a été normalisé en 1995 sous la référence IEEE 1394.
Le bus IEEE 1394 a été mis au point pour fournir un système d’interconnexion permettant de faire circuler des données à haute vitesse en temps réel.
Description
Il s'agit d'un bus véhiculant à la fois des données et des signaux de commandes des différents appareils qu'il relie.
L’interface IEEE 1394 (ou IEEE 1394 A) permet le transfert de données isochrones (en temps réel). Elle est adaptée à la transmission des séquences vidéo
numériques issues d’une caméra vidéo numérique (DV), d’un magnétoscope, d'un disque dur ou encore d’une télévision numérique (HDTV) directement à un
ordinateur. Les transferts isochrones garantissent un taux minimum de transfert constant, ce qui est particulièrement intéressant pour les applications
multimédias.
Elle permet l'alimentation du périphérique, ainsi que le raccordement de 63 périphériques par bus et leur branchement/débranchement à chaud.(Plug and
Play)
La norme IEEE 1394b peut également être appelée FireWire Gigabit ou FireWire2.
Le s1600 et le s3200 a été adopté par l'IEEE en août 2008.
Connectique
Le câble le plus répandu est constitué de fils de cuivre torsadés. Sa longueur maximale pour tous les protocoles FireWire est de 4,5 m. Il existe également
une transmission par fibre optique, très coûteuse mais permettant d'atteindre 100 m.
Deux brochages distincts existent en s400 : le format à 6 broches permettant l'alimentation des périphériques (45w Maxi) et le format à 4 broches sans
alimentation.
En s800 les connecteurs ont 9 broches. Le s400 et le s800 sont compatibles : on peut connecter un périphérique s800 avec un s400 en utilisant un câble 9
broches vers 6 broches.
Connecteurs 4 broches et 6 broches
Connecteur 4 broches:
Broche Nom Description
1 TPB- Signal B différentiel (Twisted-pair B)
2 TPB+ Signal B différentiel (Twisted-pair B)
3 TPA- Signal A différentiel (Twisted-pair A)
4 TPA+ Signal A différentiel (Twisted-pair A)
Connecteur 6 broches:
Broche Nom Description
1 Power Alimentation non régulée 30 V à vide 17 à 19 V en charge
2 Gnd Masse
3 TPB- Signal B différentiel (Twisted-pair B)
4 TPB+ Signal B différentiel (Twisted-pair B)
5 TPA- Signal A différentiel (Twisted-pair A)
6 TPA+ Signal A différentiel (Twisted-pair A)
Principe de fonctionnement
L' IEEE 1394 peut fonctionner selon deux modes de transfert :
La connexion ou la déconnexion d'un périphérique déclenche un événement bus reset chez tous les autres périphériques: ainsi tout le monde sait à tout
moment qui est présent sur le bus. À chaque bus reset les périphériques reçoivent un numéro d'identification de 0 à 62 ; celui qui a le plus grand numéro est
élu chef du bus ou root, et c'est lui notamment qui est chargé de marquer le début des cycles de 125 microsecondes. Tout périphérique peut ainsi être root
contrairement à l'USB où ce rôle est assuré par l'ordinateur auquel les périphériques sont reliés.
Bien qu'il serve le plus souvent à connecter des disques durs ou des caméscopes pour réaliser des montages vidéo, ou pour réaliser des captures audio via
des cartes son externes, le port FireWire peut aussi, pour des besoins ponctuels, servir à relier deux machines en réseau ; il apparaît donc comme faisant
partie des périphériques de « Connexions réseau » sous Windows XP et comme interface réseau sous les systèmes utilisant le noyau Linux ou UNIX.
Communications téléphonique
1 A 100kHz
(Obsolète)
Téléphonie, 10baseT et
3 C 16 Mhz Fast Ethernet (100 Mbps)
(Obsolète)
10 BaseT, 100BaseT
4 20 Mhz et Token-Ring 16 Mbit/s
(Obsolète)
XX / YZZ
Shielded
S
Blindage tresse
SF
Tresse et écran
Types Caractéristiques Utilisation
Téléphone et réseaux.
Environnement peu pollué.
U/UTP Unshielded Twisted Pair
Isolement courant fort et courant
UTP Paire torsadée non blindée
faible
Pas de TV
Règles de câblage:
Exemple:
CAT5e CAT6 CAT7
Impédance 100 ohms ± 15% 100 ohms ± 15% 100 ohms ± 15%
Décalage de propagation (max. sur
45 ns 45 ns 20 ns
100m)
La prise série est généralement utilisée avec une souris ou un modem. Ce port a l'avantage d'être compact et de ne posséder que quelques signaux utiles.
Plus difficile à mettre en oeuvre que le port parallèle, la prise série se révèle cependant plus puissante et plus universelle.
Un port de communication de type série à la norme RS-232 (appelé aussi EIA RS-232C) est utilisé pour communiquer avec des périphériques comme la
souris, le Modem, etc. Sur les systèmes d'exploitation MS-DOS et Windows, les ports RS-232 sont désignés par les noms COM1, COM2, etc.(ce sont les "
ports COM").
L'interface série est une interface asynchrone, c'est à dire que le signal de cette interface n'est pas synchronisé. Aucune horloge n ‘est transmise. Il suffit
donc de se mettre d’accord sur la vitesse de transfert des bits et de rajouter des bits de synchronisation entre les deux appareils.
Les bits des données sont envoyés les uns après les autres. Pilotée par l’UART (Universal Asynchronous Receiving Transmitter), cette interface, permet de
véhiculer des informations en série, à l’opposé d’une interface parallèle qui peut véhiculer un mot entier en une période donnée. Les mots à transmettre sont
donc auparavant codés puis ensuite décodés à leur arrivée pour pouvoir être interpréter.
Connectique
A l'origine, tous les compatibles PC possédaient 2 ports séries: COM1 et COM2. L'un d'entre eux se présente sous la forme d'une prise DB9 mâle et le
deuxième, sous la forme d'une DB25 mâle.
DB-9 mâle vue de face sur l'ordinateur.
Broche DB
Broche DB 9 US EIA CCITT DTE DCE Description
25
1 - FG PG - - - Masse châssis
9 - - - - -
10 - - - - -
11 - - - - -
14 - STD - - TD secondaire
16 - SRD - - RD secondaire
17 - RC DD 115 Horloge de réception
18 - - - - -
21 - SQ - - Qualité du signal
23 - - - - -
25 - - - - -
DTE signifie Data Terminal Equipment: c'est l'ordinateur. DCE signifie Data Communication Equipement: c'est le périphérique.
D'un point de vue électronique, les signaux TX et RX en sortie des prises répondent aux normes RS232 appelée aussi CCITT V24 ou encore V24. Cette
norme RS 232 définit :
Les caractéristique électriques des signaux comme les niveaux électriques, la vitesse, des "timing", etc.
Les caractéristiques mécaniques et l'identification du brochage des connecteurs
Les fonctions de chaque signal.
Ainsi un 1 logique est compris entre -3 et -25V et un 0 logique est compris entre +3 et +25V, la zone -3v à +3V étant exclu.
Principe de fonctionnement
Le fonctionnement d'une liaison série type asynchrone
La communication série nécessite trois fils au minimum: une masse pour référencer les signaux, un fil émetteur(TX) et un fil récepteur(RX). Notre liaison série
est en effet full-duplex, c'est à dire que l'on peut émettre et recevoir en même temps (comme le téléphone par exemple).
La différence principale entre le port parallèle et le port série est que les informations ne sont pas transmises simultanément sur des fils séparés (D0 à D7)
mais les unes après les autres sur un même fil. Cela amène une économie de câble (un fil au lieu de 8) mais un montage décodeur devient nécessaire pour
retransformer les données sérialisées.
Le bit de start apparait en premier dans la trame puis les données (poids faible en premier et le bit de plus fort poids en dernier), la parité éventuelle et le (ou
les) bit(s) de stop.
Chaque caractère est encadré par deux bits particuliers qui en précisent le début et la fin, Le bit de "Start" et le bit de "Stop". La liaison série est une liaison
asynchrone. Aucune horloge n'est transmise. Il faut donc se mettre d'accord sur la vitesse de transfert des bits, le nombre de bits, la parité et le nombre de bit
de Stop.
Voici un petit résumé des différents paramètres rentrant en jeu lors d'une communication série:
Longueur de mot: Il existe que deux états, 0 et 1 ou encore low et high. Lorsqu'il y a aucun caractère le signal est à 1. D'une manière générale 5 à 8
bits peuvent être transmis mais les fonctions BIOS ne gèrent que 7 ou 8 bits.
Parité: le mot transmis peut être suivi d'un bit de parité qui sert à détecter les erreurs éventuelles de transmission. Il existe deux parités:
la parité paire et la parité impaire.
Dans le cas de la parité paire, le bit qui sera ajouté à la donnée est positionné de telle façon que le nombre des états 1 soit paire sur
l'ensemble donné + le bit de parité. Exemple avec le mot 10110101 contenant 5 états à 1, le bit de parité sera 1 amenant ainsi le nombre total
de 1 à un nombre pair 6.
Dans le cas de la parité impaire, le bit qui sera ajouté à la donnée est positionné de telle façon que le nombre des états 1 soit impaire sur
l'ensemble donné + le bit de parité. Dans notre exemple précédent, le bit de parité aurait été "0" car le nombre total de 1 est déjà impair.
L'intérêt de ce rajout est le suivant: si jamais lors de la transmission un état 1 est transformé en état 0 (perturbation du canal par des parasites par
exemple) le nombre total de 1 change et donc le bit de parité recalculé par le récepteur ne correspond plus à celui reçu. L'erreur est donc détectée.
Evidemment, si deux états à 1 passent à 0, l'erreur ne sera pas détectée.
Bit de Start: lorsque rien ne circule sur la ligne, celle-ci est à l'état haut. Pour indiquer qu'un mot va être transmis, la ligne passe à l'état bas avant de
commencer le transfert. Cela permet de synchroniser le récepteur.
Bits de stop: ces bits signalent la fin de la transmission. Selon le protocole utilisé, il peut y avoir 1, 1.5, ou 2 bits de stop (ces bits sont toujours à 1).
Vitesse de transmission: Les différentes vitesses de transmission sont 75 bds, 110 bauds, 150 bds, 300 bds, 600 bds, 1200 bds, 2400 bds, 4800
bds, 9600 bds 19 200 bds( 300 bauds, un bit est transmis tout les un trois centième de seconde). Les cartes récentes proposent des vitesses jusqu'à
115200 bauds. Ces vitesses ne vous paraissent peut-être pas énormes mais il faut garder à l'esprit que la liaison série est avant tout pensée pour les
liaisons téléphoniques par modems, dont la bande passante est très limitée.
Normes électriques:
Norme RS-232C RS-423 RS-422 RS-485
Nombre d'émetteur (Tx)/récepteur (Rx) 1Tx/ 1Rx 1Tx/ 10Rx 1Tx/ 10Rx 32Tx/ 32Rx
Longueur de câble 15 m 1 km 1 km 1 km
La transmission des données fonctionne uniquement lorsque les différents paramètres variables du protocole RS232 sont connus aussi bien de l'émetteur
que du récepteur. C'est à dire:
La vitesse de transmission;
Le nombre de bits 7 ou 8 bits selon que l'on veut exploiter le jeu complet des 256 caractères de l'ASCII 8 bits;
L'éventuelle parité, d'une manière générale, la parité est toujours présente car elle permet de détecter la plus grande partie des erreurs de
transmission;
Le nombre de bit de stop. Avec un seul bit de stop la transmission est plus rapide mais elle est moins sûre.
Exemple de protocole:
la figure ci-dessous montre la transmission du caractère "A " (01000001 en binaire) avec un protocole prévoyant 8 bits de données, un bit de stop et un
contrôle de parité impaire. La logique est supposée positive (à un état haut correspond un voltage positif) et la vitesse à été fixée à 300 bauds.
A noter qu'il existe des interfaces qui travaillent en logique négative. Cela veut dire que les états 0 et 1 qui correspondent à la logique positive sont intervertis
(0 devient 1 et les 1 deviennent 0) mais le principe est toujours le même.
Les PC possèdent en général deux ports série: COM1, généralement réservé à l'indispensable souris, et COM2 utilisé parfois avec un modem externe.
En général, le première interface série est associée aux ports 3F8h à 3FFh, et la seconde aux ports 2F8h à 2FFh. Néanmoins, ces valeurs ne sont pas
universelles. Pour en connaître la valeur, le BIOS possède une table à l'adresse 0040h:0000h comportant les adresses de base des quatre interfaces série :
L'accès aux registres contrôlant les ports série se fait par l'intermédiaire de l'interruption DOS 14h. A cette IT correspond 4 fonctions permettant de configurer
et de contrôler l'interface série, dont voici les descriptions.
Fonction 0x00: Réglage du protocole de l'interface série Fonction 0x01: Emission de caractères
Permet de fixer le protocole de transmission. Entrée: AH = 0x01
Entrée: Registre AH = 0x00 DX = Numéro de l'interface série (voir précédemment)
DX = Numéro de l'interface série AL = Code du caractère à transmettre
0x00 = COM1 Sortie: AH = Bit 7 à 0 caractère transmis
0x01 = COM2 1 alors erreur, d'où:
Registre AL = Paramètres de configuration Bit 0-6 = Etat de l'interface série
Bits 0-1: longueur du mot Bit 0: données prêtes
10b = 7 bits Bit 1: données effacées
11b = 8 bits Bit 2: erreur de parité
Bit 2: nombre de bits de stop Bit 3: violation de protocole
0b = 1 bit de stop Bit 4: interruption détectée
1b = 2 bits de stop Bit 5: transmission Hold Register vide
Bit 3-4: contrôle de parité Bit 6: transmisison Shift Register vide
00b = aucun
01b = impair
11b = pair
Bit 5-7: vitesse de transmission
000b = 110 bauds
001b = 150 bauds
010b = 300 bauds
011b = 600 bauds
100b = 1200 bauds
101b = 2400 bauds
110b = 4800 bauds
111b = 9600 bauds
Sortie: AH = Etat de l'interface série
Bit 0: 1 = données prêtes
Bit 1: 1 = données effacées
Bit 2: 1 = erreur de parité
Bit 3: 1 = violation de protocole
Bit 4: 1 = interruption détectée
Bit 5: 1 = transmission Hold Register vide
Bit 6: 1 = transmisison Shift Register vide
Bit 7: 1 = time out (le périphérique ne répond pas)
AL = Etat du modem
Bit 0: 1 = (delta) modem prêt à émettre
Bit 1: 1 = (delta) modem activé
Bit 2: 1 = (delta) sonnerie
Bit 3: 1 = (delta) liaison établie
Bit 4: 1 = modem prêt à émettre
Bit 5: 1 = modem activé
Bit 6: 1 = sonnerie
Bit 7: 1 = liaison établie
(Les bits delta montrent une modification par rapport au dernier appel de la
fonction)
Câble
Câble droit:
DTE (Ordinateur) DB-9 Femelle DCE (Modem, etc) DB9- Mâle
1 DCD 1 DCD
2 RD (RX) 2 RD (RX)
3 TD (TX) 3 TD (TX)
4 DTR 4 DTR
6 DSR 6 DSR
7 RTS 7 RTS
8 CTS 8 CTS
9 RI 9 RI
Broche Nom
2 RD (RX) 3 TD (TX)
3 TD (TX) 2 RD (RX)
2 RD (RX) 3 TD (TX)
3 TD (TX) 2 RD (RX)
4 DTR 6 DSR
6 DSR 4 DTR
2 TD (TX) 3 TD (TX)
3 RD (RX) 2 RD (RX)
4 RTS 7 RTS
5 CTS 8 CTS
6 DSR 6 DSR
8 DCD 1 DCD
20 DTR 4 DTR
22 RI 9 RI
1 DCD 8 DCD
2 TD (TX) 3 TD (TX)
3 RD (RX) 2 RD (RX)
4 DTR 20 DTR
5 GND 7 GND
6 DSR 6 DSR
7 RTS 4 RTS
8 CTS 5 CTS
9 RI 22 RI
Broche Nom
2 -3 TD (TX) - RD (RX)
2 RD (RX) 3 RD (RX)
3 TD (TX) 2 TD (TX)
4 RTS 5 CTS
5 CTS 4 RTS
7 GND 7 GND
Une interface parallèle utilise de base huit lignes de datas et trois lignes pour les signaux de contrôle (Strobe, Busy et ACK), cela permet un débit 10 fois
supérieur à une interface classique série. Mais l'interface parallèle possède plusieurs inconvénients:
L'utilisation de plusieurs lignes entraine un coût important, des désynchronisations peuvent se produire du fait que la vitesse de transmission des signaux
n'est pas constante.
L'interface parallèle est alors réservée à des applications de courtes distances de 2 à 3 mètres.
Connecteur Centronics:
Centronics femelle
Centronics mâle
Connecteur DB25:
Le port parallèle des PC et compatibles se présente sous la forme d'une prise DB25 femelle dont voici la géométrie:
Ce port ayant avant tout été pensé pour communiquer avec une imprimante, vous vous apercevrez que la plupart de ses signaux ont un rapport avec ce
périphérique. Il possède 17 broches utilisables ainsi que 8 broches reliées à la masse. Leurs affectations physiques sont les suivantes: (dans la 2ème
colonnes les signaux du connecteur Centronics pour infos)
1 STROBE /STROBE X
13 Select SELECT X
15 NC /ERROR (erreur) X
16 GND /INIT - Reset (réinitialisation) X
19 - 25 GND - Masse
26 - 30 GND - Masse
31 Initialize
32 Error
33 GND - Masse
34 NC
35 + 5 Volts
36 Select Input
Principe de fonctionnement
1. L'ordinateur met sur les lignes D0 à D7 l'ensemble des bits correspondant au caractère qu'il veut imprimer.
2. L'ordinateur génère une impulsion descendante sur la ligne STROBE lorsque les données sont stables pour indiquer à l'imprimante que les bits sont
effectifs sur le bus.
3. Recevant le signal STROBE à l'état bas, l'imprimante est autorisée à prendre en compte l'octet envoyé sur les lignes D0 à D7.
4. L'imprimante provoque la montée du signal BUSY, qui se charge alors de lire les données et de les traiter.
5. Lorsque l'imprimante est libre de recevoir la donnée suivante (peut importe qu’elle ait imprimé ou non la précédente) elle met un court instant à zéro
la ligne ACK pour indiquer à l'ordinateur que l 'octet envoyé est pris en compte, faisant à son tour descendre le signal BUSY. Puis elle remet ACK à
l'état haut jusqu'à la réception du prochain octet.
6. L'ordinateur peut alors envoyer la donnée suivante selon le même processus.
0V logique 1 Logique
Tension 0 à 1V 2,5 à 5V
Mode SPP
C'est le mode de base, le mode SPP (Standard Parallel Port) est le protocole de base permettant l’envoi de données vers une imprimante. Il peut être appelé
dans ce cas « Printer Mode » ou « unidirectionnel mode » ou encore « Centronics » (nom également attribué au cordon reliant le PC aux imprimantes).
Mode EPP
En 1991, Xircom, Zenith et Intel ont développé un port plus rapide appelé EPP (Enhanced Parallel Port). Il permet d’attendre un débit théorique de 2 Mo/s.
Intel a développé un circuit d'interface, le 82360, le comité IEEE-1284 ayant pris à son compte la standardisation du port EPP. Le protocole EPP est de
conception bidirectionnel contrairement au SPP qui reste un protocole « bricolé » lorsqu’il est bidirectionnel.
Mode ECP
L’ECP (Extended Capacity Port) a été conçu par Hewlett Packard et Microsoft. Il dérive du mode EPP et en possède les mêmes caractéristiques avec
toutefois des fonctionnalités supplémentaires, comme la gestion des périphériques « Plug and Play », l’identification de périphériques auprès de la machine
dès le début du boot, le support du DMA (Direct Memory Access). Ainsi, il est possible d’envoyer ou de recevoir des données sans avoir besoin du
processeur.
Une autre fonction intéressante est la compression de données, de type RLE (Run Lenght Encoding - compression des répétitions d’octets) au niveau
matériel. Le taux de compression peut attendre 64:1. C'est utile avec des scanners et des imprimantes où une grande partie des données est constituée de
longues chaînes répétitives. Il utilise aussi un « buffer » de type FIFO pour envoyer et recevoir les données.
Enfin, l’adressage des périphériques se fait par un numéro de canal. Par exemple, un fax muni d’une liaison parallèle peut être utilisé comme scanner,
modem/fax et imprimante, chaque fonction pouvant être adressée séparément. Ce système d’adressage ne permet pas d’utiliser des périphériques différents.
On est limité à l’utilisation d’un périphérique multifonctions, chaque fonction ayant une adresse.
Néanmoins, que ceux qui n'ont pas de port étendu se rassurent, il est tout à fait possible de rendre bidirectionnel le port grâce à une petite astuce. L'interface
parallèle possède en effet 4 bits en entrée (ACK, BUSY, PE et SELECT). Il suffit de multiplexer les 8 bits dont on veut effectuer l'acquisition en deux quartets.
La sélection du quartet haut ou du quartet bas s'effectue par une ligne libre du port (SELECT IN par exemple). Ainsi un simple multiplexeur du type 74LS157
résout le problème...
Performances
La transmission parallèle n'est pas conçue pour les grandes distances. Un cable parallèle standard a un longueur de 2 mètres. On peut en trouver jusqu'a 5
mètres mais au delà on aura besoin de l'électronique d'amplification pour fiabiliser la transmission.
En SPP la vitesse de transmission maximale que l'on peut espérer obtenir avec un tel port est de l'ordre de 150ko/s.
Les ports plus récents, de type EPP (pour Enhanced Parallel Port, développé par Xircom, Zénith et Intel en 1991), permettent d'atteindre un débit de 2Mo/s
soit un débit environ treize fois supérieur. Si il reste inférieur au débit du bus ISA (8Mo/s) il permet néanmoins la réception de périphériques tels que des
lecteurs de CD-ROM ou des disques durs. En plus d'un débit supérieur, les ports EPP sont bidirectionnels.
Encore plus récent, le port ECP (Extended Capacity Port) possède le même débit de 2 Mo/s avec toutefois des fonctionnalités supplémentaires,. Mais du
point de vue de l'électronicien amateur, l'avantage de ces ports est sans conteste leur bidirectionnalité.
Programmation
Les ordinateurs type P.C. possèdent généralement un seul port imprimante nommé LPT1 d'adresses 378h, 379h, 37Ah. Ces adresses correspondent aux
trois registres nécessaires au fonctionnement de l'interface.
Dans le tableau ci-dessous nous avons:
Une table à l'adresse 0040h:0008h comportant les adresse de base des trois interfaces parallèles. Ces adresses sont remplies par le POST (Power
On Self Test) au démarrage de l'ordinateur. Le POST ne laisse jamais d'intervalle. Les numéros des ports parallèles peuvent être redéfinis en
changeant ces valeurs.
Dans les 3 dernières colonnes, les adresses par défaut des ports de registre de données, d'état et de commande.
Mémoire IRQ Adresse de base Adresse Port Registre
(Bien qu'à l'initialisation du système le BIOS ne recherche que 3 interfaces, on peut faire fonctionner une quatrième interface "LPT4", son adresse de base se
situe à l'offset 000Eh)
A moins que vous ne possédiez une interface parallèle étendue, ce registre n'est accessible qu'en écriture. L'écriture d'un octet dans ce registre place
immédiatement les lignes D0-D7 aux niveaux demandés sur la prise.
7 6 5 4 3 2 1 0
* . . . . . . . D7
. * . . . . . . D6
. . * . . . . . D5
. . . * . . . . D4
. . . . * . . . D3
. . . . . * . . D2
. . . . . . * . D1
. . . . . . . * D0
Etat de l'imprimante (379h)
Ce registre, accessible uniquement en lecture, est l'image de l'état des lignes ERROR, SELECT, PE, ACK et BUSY. Il faut cependant remarquer que le bit 7
du registre (correspondant à l'image de la ligne BUSY) est inversé par rapport à l'entrée. Un inverseur est en effet présent entre la prise et le registre.
Attention donc à ne pas se tromper.
7 6 5 4 3 2 1 0
* . . . . . . . /BUSY (0 = Imprimante utilisée)(logique inverse)
. * . . . . . . /ACK (0 = Imprimante a reçu des données et prête à recevoir)
. . * . . . . . PE (1 = Plus de papier dans l'imprimante)
. . . * . . . . SELECT (1 = Imprimante On-Line)
. . . . * . . . /ERROR (0 = erreur)
. . . . . x x x Indéfini
7 6 5 4 3 2 1 0
x x . . . . . . Inutilisées
. . * . . . . . BIT CtrL
. . . * . . . . IRQ ENABLE (1 = Déclenche l'interruption losque /ACK passe à 0)
. . . . * . . . SELECT IN (1 = Met l'imprimante On-Line)
. . . . . * . . /INIT (Reset de l'imprimante)
. . . . . . * . AUTOFEED (1 = LF à CR)
. . . . . . . * /STROBE (0 = Données se trouvant sur D0 - D7)
Pour utiliser la communication bidirectionnelle, on active le bit 5 "BIT Ctrl" du 3ème port. Un niveau 0 le port est en sortie et un 1 le port est en entrée.
LE PORT USB
L'Universal Serial Bus U.S.B est un bus informatique plug-and-play à transmission série servant à brancher des périphériques informatiques
à l'ordinateur. Co-développé par sept compagnies (Compaq, Digital, IBM, Intel, Microsoft, NEC et Northern Telecom), il est devenu le port universel des
ordinateurs.
L'USB a été conçu au milieu des années 1990 (1994) afin de remplacer les nombreux ports externes d'ordinateur lents et incompatibles. Les différentes
normes existantes sont :
Utilisation
Le port USB est le moyen de communication le plus utilisé pour faire communiquer un appareil avec l'ordinateur. On l'utilise en tant que :
Emetteur/Récepteur
Avec la possibilité de recevoir la TNT, le Wi-Fi, le Bluetooth et l'Infrarouge via des clefs spécifiques.
Stockeur
Les clés USB permettent de stocker des fichiers de toute sorte. Le système est dépendant de l'ordinateur parce qu'il n'a pas de batterie.
Les lecteurs multimédias (mp3, mp4) stockent des fichiers supportés par le lecteur; contrairement à la clé USB, ce lecteur est indépendant
de l'ordinateur puisque il a une batterie et peut être géré depuis l'appareil lui-même (touches PLAY, etc.).
Les appareils photo numériques servent à copier ou visualiser les fichiers d'images sur l'ordinateur, depuis un appareil photo numérique.
Fournisseur de service
Avec un port USB, il est aussi possible de brancher aussi bien des claviers, que des imprimantes, des caméras, des haut-parleurs, un scanner, etc.
Chargeur
On peut utiliser le port USB pour recharger son téléphone portable, baladeur mp3 ou son système de navigation GPS, tout simplement à l'aide d'un
câble USB.
La reconnaissance des périphériques U.S.B se fait automatiquement et " à chaud"( " Hot Plug" ), c'est à dire qu'elle s'effectue dès le branchement il
devient donc possible de brancher, débrancher et rebrancher sans avoir besoin de rebooter (de redémarrer) l'ordinateur.
On peut brancher un contrôleur-hôte à un autre contrôleur-hôte ce qui permet de fortement augmenter le nombre de périphériques, mais il ne faut pas
oublier que l'on partagera alors la bande passante entres tous les périphériques.
Possibilité de chaîner et de faire fonctionner jusqu'à 127 périphériques simultanément par contrôleur (hôte).
Bande passante jusqu'a 12 Mégabits par seconde pour l'USB 1.1, 480 Mbit/s pour l'USB 2.0 et 5 Gbits/s pour l'USB 3.0.
La version 1.1 du bus peut communiquer dans deux modes : lent (1,5 Mbit/s ) ou rapide (12 Mbit/s, soit 1,5 Mo/s).
Le mode lent "Low Speed" permet de connecter des périphériques qui ont besoin de transférer peu de données, comme les claviers et souris
;
Le mode rapide "Full Speed" remplace les ports série et parallèle. Il est utilisé pour connecter des imprimantes, scanners, disques durs,
graveurs de CD et autres périphériques ayant besoin de plus de rapidité. Néanmoins il est insuffisant pour beaucoup de périphériques de
stockage de masse (par exemple, il ne permet que la vitesse 4× sur les lecteurs/graveurs de CD).
Avec l'USB 2.0 il y a un troisième mode qui permet de communiquer à 480 Mbit/s (soit 60 Mo/s). Il est utilisé par les périphériques rapides : disques
durs, graveurs, etc.
Avec l'USB 3.0 a un quatrième mode "Super Speed" apparait permettant de communiquer à 5 Gbit/s (soit 625 Mo/s théorique).
Un mode veille lorsque l’on n'utilise pas le périphérique (Power conservation). Le bus USB se met en suspend après 3 ms ou il n’est plus utilisé.
Pendant ce mode, le composant ne consomme que 500μA
Alimentation direct de certains périphériques dans la limite des 500 mA et sur du 5V.
Connectique
La longueur maximale autorisée est de 3m pour un câble non blindé pour les périphériques Low USB (= 1.5Mb/s) et de 5m pour un câble blindé pour les
périphériques Full USB (=12Mb/s).
Le câble USB est composé de deux fiches bien différentes :
Une fiche appelé connecteur USB de type A, branché au host (ordinateur).
L'autre connecteur peut se retrouver en deux versions :
Soit un connecteur USB de type B, soit un mini connecteur type B.
Voici les fonctions des broches, pour les types A et B décrites ci-dessous :
Voici les fonctions des broches, pour le type mini B décrites ci-dessous :
Les connecteurs USB (de type A ou B), ont les deux pattes d’alimentation un peu plus longues que les pattes de données. Ceci permet d'alimenter le
périphérique USB avant que transitent les données (un composant doit toujours être alimenté avant de recevoir des données).
Principe de fonctionnement
Le bus USB est supporté par un protocole plug-and-play (« branchez et utilisez »). Dès la connexion, l'hôte lit certaines informations sur le périphérique.
Celles-ci lui permettent d'identifier le périphérique (type, constructeur, nom, version) et donc facilitent le travail du système pour déterminer le pilote le plus
approprié. La plupart des systèmes d'exploitation possèdent des pilotes génériques, pour chaque type de périphérique. Ces pilotes génériques donnent accès
aux fonctions de base, mais des fonctions avancées peuvent manquer. L’hôte USB a la charge de mener à bien toutes les transactions et de programmer la
bande passante.
L'hôte communique successivement avec chaque périphérique, le débit total est donc partagé entre l'ensemble des périphériques. Il est possible d'attribuer à
certains périphériques un débit constant pour une période de temps. Le reste du débit est toujours attribué de façon équitable entre les autres périphériques.
Une autre caractéristique du protocole USB est la possibilité de structurer la communication entre un hôte et un périphérique en plusieurs canaux logiques
pour simplifier la commande du périphérique. Par exemple sur un disque dur USB, il est commode de disposer d'un canal pour passer les commandes
(lire/écrire secteur n°, formater secteur n°) et d'un autre séparé pour passer les données (contenu du secteur).
L'architecture USB a pour caractéristique de fournir l'alimentation électrique aux périphériques en utilisant pour cela un câble composé de quatre fils (la
masse GND, l'alimentation VBUS et deux fils de données appelés D- et D+). Ces deux derniers fils (D+ et D-) utilisent le principe de la
transmission différentielle afin de garantir une certaine immunité aux bruits parasites de l'environnement physique du périphérique ou de son câble.
La norme USB permet le chaînage des périphériques, en utilisant une topologie en bus ou en étoile. Les périphériques peuvent alors être soit connectés les
uns à la suite des autres, soit ramifiés. La ramification se fait à l'aide de boîtiers appelés « hubs » (ou concentrateurs), comportant une seule entrée et
plusieurs sorties. Certains sont actifs (fournissant de l'énergie électrique), d'autres passifs (alimentés par l'ordinateur).
La communication entre l'hôte (l'ordinateur) et les périphériques se fait selon un protocole basé sur le principe de l'anneau à jeton ( token ring ). Chaque
transaction USB comprend un:
L'USB est un Bus géré par l'hôte donc c’est lui qui initie toutes les transactions.
Le premier paquet, aussi appelé Jeton est produit par l'hôte pour décrire ce qui va suivre et si la transaction de données sera en lecture ou écriture et ce que
sera l'adresse de l'appareil et la terminaison désignée.
Le paquet suivant est généralement un paquet de données transportant la « charge utile » et est suivi par un paquet « poignée de mains » (handShaking),
signalant si les données ou le jeton ont été reçus correctement ou si la terminaison est bloquée, ou n'est pas disponible pour accepter les données.
La bande passante est partagée temporellement entre tous les périphériques connectés. L'hôte émet un signal de début de séquence chaque milliseconde,
intervalle de temps pendant lequel il va donner simultanément la « parole » à chacun d'entre eux. Lorsque l'hôte désire communiquer avec un périphérique, il
émet un jeton (un paquet de données, contenant l'adresse du périphérique, codé sur sept bits) désignant un périphérique, c'est donc l'hôte qui décide du
« dialogue » avec les périphériques. Si le périphérique reconnaît son adresse dans le jeton, il envoie un paquet de données (de 8 à 255 octets) en réponse,
sinon il fait suivre le paquet aux autres périphériques connectés. Les données ainsi échangées sont codées selon le codageNRZI (Non Retour à Zéro
Inversé).
Puisque l'adresse est codée sur sept bits, 128 périphériques (27) peuvent être connectés simultanément à un port de ce type. Il convient en réalité de ramener
ce chiffre à 127 car l'adresse 0 est une adresse réservée. À raison d'une longueur de câble maximale entre deux périphériques de cinq mètres et d'un
nombre maximal de cinq hubs (alimentés), il est possible de créer une chaîne longue de 25 mètres.
Les ports USB supportent le Hot plug and play. Ainsi, les périphériques peuvent être branchés sans éteindre l'ordinateur. Lors de la connexion du
périphérique à l'hôte, ce dernier détecte l'ajout du nouvel élément grâce au changement de la tension entre les fils D+ et D-. À ce moment, l'ordinateur envoie
un signal d'initialisation au périphérique pendant 10 ms, puis lui fournit du courant grâce aux fils GND et VBUS (jusqu'à 100 mA). Le périphérique est alors
alimenté en courant électrique et récupère temporairement l'adresse par défaut (l'adresse 0). L'étape suivante consiste à lui fournir son adresse définitive
(c'est la procédure d'énumération). Pour cela, l'ordinateur interroge les périphériques déjà branchés pour connaître la leur et en attribue une au nouveau, qui
en retour s'identifie. L'hôte, disposant de toutes les caractéristiques nécessaires est alors en mesure de charger le pilote approprié.
(Une adresse dynamique est allouée à chaque fois que l’on branche un autre périphérique)
Énumération
L'énumération est une étape qui permet d'identifier et de configurer le périphérique qui vient juste d'être branché sur le bus USB. Pendant l'énumération le
périphérique fournit à l'hôte une suite de descripteurs qui permettent son identification. L'hôte assigne une adresse unique au périphérique (adressage
dynamique) et le configure.
Aucun périphérique USB ne peut consommer plus de 100mA sur le bus avant d’être énumérée. Apres énumération un Device peut consommer
jusqu’a 500mA pour un device « High power device » ou rester à 100mA pour un Low Power Device.
Le type de transfert
Il en existe 4 en USB :
La bande passante réclamée et non utilisée est perdue. C'est le transfert le plus efficace en matière de débit et du délai d'attente.
Utilisé quand il faut transférer une grande quantité d'information pendant un temps relativement court.
Système d'exploitation
Au niveau du système d'exploitation (OS), il faut que vous disposiez au minimum de Windows 95 OSR 2.1 soit la version 4.00.950B ou de Windows 98
(l'utilisation d'une clé USB nécessite l'installation d'un driver pour ces OS).
Mais ce n'est qu'a partir des O.S ci-dessous que l'USB est pleinement opérationnel.
L’installation d’un nouveau périphérique se fait en règle générale en installant le logiciel propriétaire puis en connectant le périphérique USB lorsque le logiciel
le demande.
Pour vérifier qu’un périphérique USB est bien installé, il suffit d’aller dans les propriétés systèmes de Windows - gestionnaire de périphériques et de regarder
s’il s’affiche correctement dans la liste.
S’il y a un point d’exclamation jaune devant le nom du périphérique USB c’est qu’il est détecté physiquement mais que l’installation du driver a
échoué. Il faut le réinstaller, en cliquant sur Propriété - puis dans l’onglet Pilote - et mettre à jour le Pilote.
S'il y a une croix rouge devant le nom du périphérique, c’est qu’il y a eu un problème lors de l’installation du driver, désinstallez le composant et
installer de nouveau le composant avec le bon pilote.
L'interface SATA.
L'interface IDE ou Parallel ATA.
Alimentation:
1 - Jaune, + 12 V DC
2 - Noir, Masse
3 - Noir, Masse
4 - Rouge, + 5 V DC
Batterie:
1 - Rouge , +6V DC
2-
3 - Noir, Masse
4- Noir, Masse
LES BUS SUR PC:
1 Bus PCI Express
2 Bus AGP
3 Bus PCI
Page précédente Page suivante
Bus PCI Express:
Le PCI Express, ( PCI-E ou PCIe est un bus local série développé par Intel et introduit en 2004 qui sert à connecter des cartes d’extension sur la carte mère
d’un ordinateur.
Son avantage est d’être dérivé de la norme PCI, ce qui permet aux différents
constructeurs d’adapter très simplement leurs cartes d’extension existantes,
puisque seule la couche matérielle est à modifier. D’autre part, il est
suffisamment rapide pour pouvoir remplacer non seulement le PCI classique
mais aussi l’AGP, un port rapide pour cartes graphiques.
Alors que le PCI utilise un unique bus 32-bit en bidirectionnel alterné (half
duplex) pour l’ensemble des périphériques, le PCI Express utilise une
interface série (1 bit donc) à base de lignes bidirectionnelles. On pourra ainsi
Port PCI Express (de haut en bas : ×4, ×16, ×1 et
parler d’une carte mère possédant 20 lignes PCIe. Une ligne permet
×16), comparé au traditionnel Port PCI 32-bit (en
théoriquement des échanges full duplex à 250 Mo/s pour la version 1.1 du
bas)
protocole.
Les différents périphériques communiquent alors par échange de paquets et l’arbitrage du bus PCI est remplacé par un commutateur. Le principe de
fonctionnement est semblable à de la commutation de paquets selon un modèle à quatre couches :
On parle de ports PCIe x1, x2, x4, x8, x16 et x32 pour différencier les ports en fonction du nombre de connecteurs de ligne dont ils disposent (respectivement
1, 2, 4, 8, 16 ou 32 lignes maximum).
Un port x16 par exemple peut n’être relié qu’à 8 lignes PCIe ; il devra tout de même avoir un apport de puissance électrique nécessaire aux cartes x16. Une
carte d’extension x16 fonctionnera sur ce port (mais probablement avec des performances non optimales), car le protocole PCI-e prévoit la négociation
mutuelle du nombre de lignes maximum supportée par les deux entités communicantes. De même, une carte (exemple : x1) peut être connectée et
fonctionnera correctement sur un port plus grand (exemple : x1, x2, …, x32).
C'est en 2007 que le PCI express 2.0 apparait en permettant le doublement du débit de données bidirectionnel soit 500Mo/s sur une unique ligne PCI-
Express.
Le PCI-Express 3.0 devrait doubler en passant le débit à 1Go/s sur une ligne. La norme PCI-Express a toujours offert une compatibilité descendante, qui
sera maintenue avec la version 3.0. Il sera donc tout à fait possible d'utiliser une carte fille de génération 2.0 ou 2.1 sur un port PCI-Express 3.0.
Bus AGP :
Lancé en mai 1997, l ’Accelerated / Advanced Graphics Port ou bus AGP est dédié exclusivement à l'affichage. Il possède une bande passante plus
importante que le bus PCI. Le busAGP se caractérise en effet par une vitesse d'horloge minimale de 66 M Hz, ce qui autorise des taux de transfert atteignant
jusqu'à 266 Mo/ s.
Le " bus mastering ", appelé également " fonctionnement en bus maître " permet à un accélérateur graphique de travailler indépendamment de l'unité
centrale qui l'héberge, ce qui accroît ses performances. En effet, le contrôleur graphique spécifique gère le bus en prélevant des informations directement
dans la mémoire système sans attendre les instructions de la CPU. Cette procédure réduit notablement le temps de réponse pour des opérations comme les
rendus 3D. La technologie DMA (Direct Memory Access) permet un accès direct à la mémoire centrale du système sans intervention du processeur. Cette
technique est déjà couramment utilisée par les jeux actuels via le bus PCI, mais la possibilité d'accès direct apportée par la technologie AGP va permettre des
échanges plus rapides avec la mémoire vive du système. Cet avantage est tout relatif par rapport aux cartes graphiques équipées de 8, 16 Mo voir de 32 Mo!
La technologie DIME (Direct Memory Execution) permet d'effectuer les calculs de textures directement dans la mémoire centrale du système avant de les
charger dans la mémoire vidéo de la carte (frame buffer). Cette innovation devrait supprimer la nécessité de stocker les textures dans la mémoire " off-screen
" de la carte.
Le PIPELINING permet à la carte AGP de transmettre plusieurs requêtes au CPU simultanément. Il n'est pas nécessaire d'attendre la réponse du processeur
pour envoyer la requête suivante. Le protocole PCI nécessite au contraire que chaque requête soit suivie d'une réponse de la carte mère avant de pouvoir
envoyer la requête suivante. Toutefois, le gain effectif en performances dépend essentiellement de la qualité d'implémentation du pipelining par les
constructeurs de cartes graphiques.
Le " Side Band Signaling " renvoie à l'utilisation d'un ensemble de circuits dédiés s'ajoutant au bus AGP, qui permet de transmettre et de recevoir des
données simultanément. En plus des 32 bits du bus, une bande latérale supplémentaire de 8 bits permet à la carte AGP d'envoyer de nouvelles requêtes à la
carte mère tout en recevant les données émises par celle-ci à la suite de la requête précédente. Cette possibilité est particulièrement utile lorsque le système
est fortement mobilisé par le transfert de textures depuis la mémoire système vers la mémoire d'affichage de la carte ; le " side band signaling " permet alors
à la carte AGP de " demander " les textures suivantes avant même que le transfert ne soit achevé.
AGP 2x est la capacité de transférer des données à la fois sur le front montant et sur le front descendant de chaque cycle d'horloge du bus 66 M Hz. Les
transfert des données ne s'effectuaient en effet jusqu'ici que sur les fronts montants de l'horloge du bus. Le contrôleur AGP utilise un " repère de
synchronisation " véhiculé par les 8 bits du " side band signaling ". Il fait correspondre les modes de fonctionnement (1x ou 2x) du bus AGP et de la carte
graphique de façon à les synchroniser. Une communication AGP en 2x donne un débit qu'atteindrait le bus PCI 133 M Hz, soit un débit maximal de 532 Mo/ s.
Cependant, une fois encore, certaines solutions AGP 1x peuvent s'avérer aussi rapides qu'une communication 2x. selon l'efficacité de la gestion des données
transférées à chaque cycle d'horloge !
Le port AGP se décline en plusieurs variantes avec compatibilité ascendante et dont les fréquences sont des multiples de l’AGP de base :
AGP 1x
bus 32-bit à 66 MHz permettant un taux de transfert maximal de 266 Mo/s, obtenu en
doublant la fréquence de 33 MHz du bus PCI ; tension de signalisation de 3,3 V ;
AGP 2x
bus 32-bit à 66 MHz DDR permettant un taux de transfert maximal de 533 Mo/s ; même
tension de signalisation de 3,3 V que l’AGP 1x ;
AGP 4x
bus 32-bit à 66 MHz QDR permettant un taux de transfert maximal de 1 066 Mo/s (1 Go/s)
; tension de signalisation à 1,5 V ;
AGP 8x
bus 32-bit à 66 MHz à fréquence octuple permettant un taux de transfert maximal
théorique de 2 133 Mo/s (2 Go/s) ; tension de signalisation de 0,8 V.
Bus PCI :
Peripheral Component Interconnect (PCI ) est un standard de bus local (interne) permettant de connecter des cartes d'extension sur la carte mère d'un
ordinateur.
La version 1.0 a été publiée le 22 juin 1992 . La version 2.0 a été publiée le 30 avril 1993 et a été implantée pour la première fois en 1994 avec des
processeurs Intel 80486. À partir de là, le bus PCI a remplacé rapidement les autres bus présents, comme le bus ISA .
Le PCI 2.2 existe en deux versions :
bus 32 bits à 33 MHz (soit une bande passante maxi de 133 Mo /s) (la plus
répandue) ;
bus 64 bits à 66 MHz (soit une bande passante maxi de 528 Mo/s), utilisé
sur certaines cartes mères professionnelles ou sur des serveurs (elles font
deux fois la longueur du PCI 2.2 à bus 32 bits)
Bus EISA:
Extended Industry Standard Architecture (EISA ) . C'est une évolution du bus ISA avec une compatibilité descendante théorique.
La vitesse de 8,33 MHz gardée et un taux de transfert à 32 Mo/ s, le bus de transfert de données prend une largeur de 32 bits, soit le double du bus ISA. Il
ajoute 90 nouvelles connexions à un connecteur classique ISA avec pour avantages la facilité d'installation et de configuration par logiciels des cartes
installées dans les plots d'expansion et la possibilité de partage d'une IRQ par plusieurs périphériques.
Le bus EISA est apparu en septembre 1988 comme une réponse à l'introduction du bus MCA par IBM et la manière dont il comptait s'en servir. Neuf
constructeurs sont à l'origine du bus EISA ( AST Research , Compaq , Epson , Hewlett-Packard , NEC , Olivetti , Tandy , WYSE et Zenith Data Systems )
Bus MCA:
Micro Channel Architecture (MCA) par IBM en 1987. Il transmettait les informations par paquets de 32 bits à une vitesse de 33 MHz et un taux de transfert
à 20 Mo/ s.
Bus ISA:
L' Industry Standard Architecture (ISA), a été pendant une dizaine d'années le bus
standard des compatibles PC . Depuis 1998 il a quasiment disparu des nouvelles cartes
mères au profit du Peripheral Component Interconnect (PCI).
C'est un bus de largeur 16 bits, extension du bus XT , avec une vitesse d'horloge de 8
MHz et un taux de transfert à 6.5 Mo/ s. Il est apparu sur les PC/AT en 1984 . Il permet
le bus mastering sur les 16 premiers méga-octets.
Connectique
Broche Nom Direction Description
A2 D7 Bit de donnée 7
A3 D6 Bit de donnée 6
A4 D5 Bit de donnée 5
A5 D4 Bit de donnée 4
A6 D3 Bit de donnée 3
A7 D2 Bit de donnée 2
A8 D1 Bit de donnée 1
A9 D0 Bit de donnée 0
A10 I/O CH RDY I/O Channel ready, pulled low to lengthen memory cycles
A11 AEN Address enable; active high when DMA controls bus
B1 GND Ground
B3 +5V +5 VDC
B5 -5VDC -5 VDC
B8 /NOWS No WaitState
B20 CLOCK Horloge système (67 ns, 8-8.33 MHz, 50% duty cycle)
B27 T/C Terminal count; pulses high when DMA term. count reached
B30 OSC High-speed Clock (70 ns, 14.31818 MHz, 50% duty cycle)
D16 +5 V
Notes:
D'autres types de connexions existent dans d'autres architectures d'ordinateurs, on pourra citer par exemples le bus VME (Versa Module Eurocard) mais ce
sont des technologies peu répandues et réservées au monde de l'informatique professionnelle ou à celui de l'industrie.
Quelques IBM ont utilisé le bus VLB (Vesa Local Bus).
Histoire
L'origine de DOS remonte en 1981, lors du lancement de l'IBM PC (Personal Computer) par International Business Machines Corporation (IBM).
PC-DOS ne diffère de la version distribuée par Microsoft que par deux choses:
Les fichiers [Link] et [Link] se nomment [Link] et [Link] sur la version Microsoft.
L'interpréteur BASIC nommé simplement BASICA sur IBM se nomme GWBASIC sur la version Microsoft.
MS-DOS est longtemps resté la base des systèmes d'exploitation grand public de Microsoft. Avec Windows 95 il devint transparent pour les utilisateurs car
l'interface graphique était directement chargée au démarrage. Mais MS-DOS est resté une sous-couche utilisée par Windows 95, Windows 98 et
Me(Millenium Édition).
Dans les versions plus récentes (Windows 2000, XP, Vista), le DOS est devenu un émulateur de l'environnement.
Celui-ci permet une compatibilité ascendante avec les applications DOS. Cet interpréteur ([Link]) n'est pas celui de MS-DOS à proprement parler
([Link]), et certains anciens programmes DOS ne peuvent s'exécuter dans ce mode.
La première version est DOS 1.00 en 1981, il occupe 11 Kio en mémoire et ne gère que des disquettes à simple face de 160 Kio.
La dernière version autonome est MS-DOS 6.22 en juin 1994, DoubleSpace est remplacé par DriveSpace.
Utilisations
Le prompt signale que le système est prêt à recevoir vos commandes et il vous oriente dans l'environnement de travail.
Exemple:
C:\data>
Le prompt ci-dessus "C:\data>" nous indique que nous somme dans le répertoire data sur le lecteur C.
Deux répertoires spéciaux sont définis dans chaque répertoire du système de fichiers :
Les fichiers sont soumis à des restrictions avec une longueur maximum de 8 caractères plus 3 caractères pour l'extension.
Lettres de A à Z
Chiffres de 0 à 9
Caractères spéciaux suivants: _ ^ $ ~ ! # % & - { } ( ) @ '
D'espace
De virgule
De barre oblique inverse "\" (antislash)
De point (hormis le point qui sépare le nom de l'extension)
On peut rediriger l'entrée et les sorties standards de la commande depuis/vers un fichier texte, en utilisant les caractères suivants :
NUL
Périphérique nul : toute écriture est absorbée, et la lecture ne retourne rien (vide) ;
CON
Console : clavier et écran ;
CONIN$
Console input : clavier ;
CONOUT$
Console output : écran ;
LPT1
Port parallèle 1 ;
LPT2
Port parallèle 2 ;
LPT3
Port parallèle 3 ;
COM1
Port série 1 ;
COM2
Port série 2 ;
COM3
Port série 3 ;
COM4
Port série 4 ;
AUX
Périphérique auxiliaire (en général équivalent à COM1) ;
PRN
Imprimante par défaut (En générale à LPT1).
Gestion des répertoires et des fichiers
Les noms des fichiers sont extrêmement importants dans un système gérant des milliers de fichiers. MS-DOS sait traiter des groupes de fichiers avec
l'utilisation de Joker.
Exemples de commandes
COPY *.EXE a: Copie de tous les fichiers se trouvant dans le dossier courant et dont l'extension est EXE, sur le lecteur A.
XCOPY a:*.* c: ; Équivaut à la commande précédente (COPY) mais à la différence près qu'elle permet quelques options supplémentaires comme nous allons
le voir.
XCOPY c:Data\*.* a: /s ; Copie de tous les fichiers se trouvant dans le dossier Data sur le lecteur C, sur le lecteur A mais en y incluant les fichiers situés dans
les sous répertoires (option /s).
XCOPY c:\Data*.* a: /s /m ; Idem que la commande précédente mais cette fois ci en désactivant l'attribut archive (voir ci-dessus). Dans ce cas XCOPY (avec
l'option /m) ne copie que les fichiers dont l'attribut archive est activé.
DIR X*.* Catalogue de tous les fichiers dont le nom commence par X.
DIR *.DOC>PRN. Impression de toute la liste des fichiers dont l'extension est DOC.
Listage page par page du répertoire "fonts" sous XP se trouve dans "Windows/fonts":
cd \
cd windows/fonts
dir *.* | more
Un fichier batch a l'extension .bat et il est au format texte. il peut être créer avec n'importe quel éditeur de texte reconnaissant l'ascii comme Edit (sous Dos)
ou le boc note (sous Windows).
Résumé des commandes
Echo
Cette instruction sert à deux choses, à afficher du texte à l'écran et à demander d'afficher ou non la suite des instructions à exécuter.
Exemple: Le signe arrobase @ masque la commande ECHO OFF, et la commande masque toutes les suivantes.
Commande: Résultat :
@echo off
cls
echo.
Exist
Choice
La commande choice demande à l'utilisateur de saisir une des lettres proposées. La récupération du choix se fait par la commande errorlevel.
Exemple avec le fichier [Link] :
@echo off
:menu
cls
echo d) lancer defrag
echo s) lancer scandisk
echo q) quitter
choice /c:sdq Quelle application désirez-vous
if errorlevel = 3 goto fin
if errorlevel = 2 goto def
if errorlevel = 1 goto scan
:def
defrag
goto menu
:scan
scandisk
goto menu
:fin
Shift
Call
For
Crée une boucle pour exécuter une commande plusieurs fois de suite avec des paramètres différents.
Goto
:Etiquette
If
Pause
Suspend le traitement du fichier. Pour continuer, il faut que l'utilisateur appuie sur une touche quelconque.
Rem
Commande clavier
Démarrage de MS-DOS:
CTRL +
Désactivation de [Link], [Link] et [Link]
F5
CTRL + F8 Désactivation de [Link], exécution interactive de [Link] et [Link]
Au prompt:
Il ne se passe rien dans un premier temps, mais dès que l'on tape un caractère, la dernière commande s'affiche après le prompt
F2
jusqu'au caractère spécifié.
Suivie d'une touche quelconque, F4 permet de rappeler tout le contenu de la mémoire tampon à partir du caractère spécifié à l'aide
F4
des touches F1 et F3.
Depuis la version 5.0 une commande suivie du paramètre /? affiche un mode d'emploi sommaire de la commande.
Commande Description
[Link] [Link] Définit les fonctions qui modifient l'affichage, contrôlent le déplacement du curseur et réaffectent les touches.
Permet aux programmes d'ouvrir les fichiers de données qui se trouvent dans les répertoires spécifies, comme
APPEND externe
s'ils figuraient dans le répertoire en cours.
ARP externe Affiche, ajoute, et supprime les informations arp des dispositifs du réseau.
ATMADM Liste les connexions et adresses vu par Windows ATM call manager.
BUFFERS [Link] Définir le nombre de mémoire tampon pour l'enregistrement temporaire de données
CHKNTFS Vérifie l'intégrité du disque dur au format NTFS. (absence et correction d'erreur)
La commande choice demande à l'utilisateur de saisir une des lettres proposées. La récupération du choix se fait
CHOICE externe
par la commande errorlevel.
COLOR <couleur texte> Change la couleur de la console et de la police de la fenêtre, affiche les codes de couleur si suivi de la commande
<couleur fond> HELP
DEBUG externe Utilitaire permettant des programmes en assembleur afin de modifier les paramètres Hardware.
DIR interne Affiche la liste des fichiers et des sous-répertoires d'un répertoire.
DOS [Link] Charge le système d'exploitation dans la mémoire haute et active la mémoire supérieure.
DOSSHELL externe Représente les répertoires et les fichiers sous forme d'icônes dans un environnement de menus déroulants qui
contiennent les principales commandes du système d'exploitation.
ECHO batch Affiche un texte sur la console, Active ou désactive l'affichage des commandes dans un fichier de commandes.
[Link] [Link] Rétablir l'affichage sur un moniteur EGA après une commutation de tâches.
[Link] externe Gestionnaire chargé d'émuler la mémoire paginée et de gérer la mémoire supérieure.
FC externe Compare deux fichiers ou groupes de fichiers, et affiche les différences entre eux.
FCBS [Link] Crée et manipule des blocs de gestion (FCB)
FIND externe Cherche une chaîne de caractères dans un fichier ou dans un flux.
FOR batch Répétition d'une commande (boucle); Exécute une commande sur chaque fichier d'un groupe de fichiers.
Formatage d'une unité de disque. Formatage logique si c'est une partition d'un disque dur, physique et logique
FORMAT externe
pour les disquettes.
FTYPE Affiche ou modifie les types de fichiers utilisés dans les associations d'extensions.
GOTO batch Poursuit l'exécution d'un fichier de commandes à une ligne identifiée par une étiquette.
HELP externe Affiche des informations sur les commandes en une simple liste des commandes dans MS-DOS 5.0, elle se dote
d'un véritable système hypertexte dans MS-DOS 6.
[Link] [Link] Gestionnaire de la mémoire étendue ouvrant également l'accès à la mémoire haute (HMA)
[Link] externe Programme résident qui se charge de définir la disposition des touches du clavier.( France: FR, 850, 437)
Charge un programme en zone de mémoire supérieure, ce qui libère de la mémoire conventionnelle pour
LH
d'autres programmes.
Cette commande affiche les installations de Windows et de Windows NT détectées, et demande le mot de passe
LOGON de l'administrateur local pour la copie de Windows à laquelle vous souhaitez vous connecter.
NB: Au bout de 3 échecs, la console s'arrête et l'ordinateur redémarre...
MENUCOLOR [Link] Définit les couleurs d'un menu de lancement dans [Link]
MENUDEFAULT [Link] Définit les valeurs par défaut dans un menu de lancement [Link]
MODE externe Permet de charger des pages de codes, de configurer des liaisons séries.
NETSTAT Afficher les statistiques de protocole et l'état actuel des connexions NetBIOS sur TCP/IP
Outil de trace qui combine les caractéristiques du ping et de tracert avec des informations additionnelles
PATHPING
qu'aucune de ces 2 commandes ne fournit.
PAUSE batch Interrompt l'exécution d'un fichier de commandes en attente de saisie clavier
SHARE externe Permet de verrouiller les fichiers lorsqu'ils peuvent être accédés par plusieurs programmes en même temps
SYS <lecteur source> Transfère les fichiers système ([Link], [Link] et [Link]) sur le lecteur cible ainsi que la zone
externe
<lecteur cible> d'amorçage du disque.
TRACERT Permet de voir le chemin parcouru entre votre poste et l'ordinateur qui héberge le site
TRUENAME interne Indique le chemin d'accès des lecteurs déviés ou intégrés dans un réseau
VERIFY interne Indique à [Link] s'il faut vérifier que vos fichiers sont correctement écrits sur un disque.
WINDOWS:
La gamme Windows est composée de plusieurs branches:
Première branche:
De Windows 1 à 3.11 est née en 1985. Deux branches se sont suivies ensuite en parallèle.
Deuxième branche:
La seconde branche, dite branche NT Windows NT est apparue en 1993. C’est une réécriture complète du système,
destinée aux ordinateurs personnels comme aux serveurs. Elle s’est principalement développée dans le milieu
professionnel.
Troisième branche:
La troisième branche est apparue en 1995 avec Windows 95, puis Windows 98 et Windows ME. Elle était plus
connue du grand public et avait pour vocation de remplacer la première, dont elle était une évolution 32 bits.
Quatrième branche:
La quatrième branche, apparue en 1996 avec Windows CE, est destinée au système embarqué et matériel léger et
portable (assistant personnel, téléphone portable). C'est la base deWindows Mobile et Pocket PC.
Evolution de la troisième branche:
- Windows 2000 en février 2000 puis Windows XP, sorti en octobre 2001, continue la branche NT (New Technology)
en fusionnant avec la branche Windows 9x : elle couvre à la fois le grand public et les professionnels, en deux versions
différentes.
- Windows Vista sorti en janvier 2007 en est une nouvelle évolution.
- Windows 7(Seven) sorti en octobre 2009
- Windows 8 sorti en octobre 2012
ARCHITECTURE OSI
Couche 7 Application
Couche 6 Présentation
Couche 5 Session
Couche 4 Transport
Couche 3 Réseau
Couche 2 Liaison
Couche 1 Physique
Encapsulation des données
Pour identifier correctement toutes les composantes nécessaires au bon fonctionnement d'un réseau, un modèle de référence a été élaboré. Ainsi dans les
années 80, une norme ISO a modélisé l'assemblage logique des différents composants réseau, l'OSI (Open Systems Interconnection) .
Dans une pile de protocoles, chaque couche résout un certain nombre de problèmes relatifs à la transmission de données, et fournit des services bien définis
aux couches supérieures. Les couches hautes sont plus proches de l'utilisateur et gèrent des données plus abstraites, en utilisant les services des couches
basses qui mettent en forme ces données afin qu'elles puissent être émises sur un medium physique.
Modèle OSI
Nivea
Couche
u
Telnet • NFS • Gopher • SSH • FTP • NNTP • DNS • SNMP • XMPP • SMTP • POP3 • IMAP • IRC • VoIP • WebDAV • SIMPLE • HTTP
7 Application
• Internet Explorer • Firefox
6 Présentation SMB • Videotex • Unicode • TDI • ASN.1 • XDR • UUCP • NCP • AFP • SSP • ASCII • JPG • GIF • MP3 • HTML
5 Session ISO 8327 • CCITT X.225 • RPC • Netbios • ASP • RTSP • H.323 • SIP • AppleTalk
Transport
4 ATP • TCP • UDP • SCTP • RTP • SPX • TCAP • DCCP
(message)
Réseau
3 NetBEUI • IPv4 • IPv6 • IPX • ICMP • BGP • OSPF • RIP • IGMP • IS-IS • CLNP • WDS • ATM
(Paquet)
Liaison Ethernet • Token Ring • PPP • HDLC • RNIS • ARP • LocalTalk • FDDI • X.21 • X.25 • Frame Relay • BitNet • CAN • ADSL • Wi-Fi •
2
(Trame) PPP • PPPoE • HDLC
Techniques de codage du signal ( électronique , radio , laser , ...) pour la transmission des informations sur les réseaux physiques
(réseaux filaires, optiques, radioélectriques ...)
1 Physique (bit) CSMA/CD • CSMA/CA • Codage NRZ • Codage Manchester • Codage Miller • RS-232 • RS-449 • V.21-V.23 • V.42-V.90 • Câble
coaxial • 10Base2 • 10BASE5 • Paire torsadée • 10BASE-T • 100BASE-TX • RNIS • PDH • SDH • T-carrier • EIA-422 • EIA-485 •
SONET • ADSL • SDSL • VDSL • DSSS • FHSS • HomeRF • IrDA • USB • IEEE 1394(FireWire) • Wireless USB • Bluetooth
Couche 7 Application:
La couche Application du modèle OSI est celle qui fournit l’accès à l'environnement réseau au logiciel d’application. Se trouvent à son niveau des
programmes aussi variés qu’un logiciel de messagerie électronique, de transfert de fichiers, d’accès à des bases de données ou encore de gestion de réseau.
C’est aussi la couche Application qui rend possible les fonctions de réseau telles que l’accès aux fichiers, aux imprimantes, au partage de ressources et
l’accès aux bases et services d’annuaires. Dans tous les cas, ces programmes font appel aux protocoles présents dans la couche Application pour pouvoir
fonctionner : X.400 (Spécifications de courrier), X.500 (services d’annuaires) ou encore FTP (File Transfer Protocol) sont quelques-uns des protocoles
présents dans la couche 7.
En fait la couche d’application gère les programmes de l’utilisateur et définit des standards pour que les différents logiciels adoptent les mêmes principes,
comme par exemple :
• Notion de fichier virtuel représenté sous forme d’arbre pour les applications de transfert de fichiers opérations permises sur un fichier, accès concurrentiels,
…
• Découpage des fonctions d’une application de courrier électronique qui se compose : d’un contenu (en-tête et corps) et d’un enveloppe. Une fonctionnalité
de l’application gère le contenu et un autre le transfert en interprétant l’enveloppe.
Couche 6 Présentation:
La couche Présentation se charge de la syntaxe des informations que les applications se communiquent.
En clair, la tâche principale de la couche Présentation consiste à garantir que les informations transmises entre deux ordinateurs sont encodées avec le
même alphabet. En effet, si la plupart des ordinateurs utilisent le même système de codage, la norme ASCII (American Standard Code for Information
Interchange), on trouve des machines – le plus souvent des systèmes centraux IBM type AS/400 – qui se servent d’un autre jeu, le EBCDIC (Extended Binary
Coded Decimal Interchange Code).
Par exemple, sur un ordinateur à base de processeur de la famille des 68000 les entiers sont codés à l’inverse que sur un ordinateur basé sur un processeur
de la famille du 80x86. Cette difficulté sera prise en compte par la couche présentation qui effectuera les opérations nécessaires à la communication correcte
entre ces deux familles de machines. Pour ce faire l’ISO a défini un norme appelée Abstract Syntax Notation 1) permettant de définir une sorte de langage
commun ( une syntaxe de transfert) dans lequel toutes les applications représentent leurs données avant de les transmettre.
La couche Présentation gère également le cryptage (RSA, DES, …) et la compression des données ( Huffman …) afin de réduire le nombre de bits à
transmettre.
Couche 5 Session:
Initialise et termine l'authentification
La couche Session prend des mesures de sécurité, telles que la validation des mots de passe.
Etablit et maintient les sessions entre applications
La couche Session est chargée de faire en sorte que les applications des ordinateurs expéditeurs et destinataires puissent établir une connexion,
aussi appelée session.
Pour démarrer le processus, la couche Session des ordinateurs établit la connexion. Une fois la connexion établie, la couche Session garantit que le
dialogue se déroule correctement. Pour ce faire, elle contrôle et synchronise le flux des données, tout en arbitrant les demandes de transmission,
ainsi que leur moment et leur durée
Permet de gérer les Timeout et les keepalives (maintient des sessions en vie) des sessions
Elle garantit que la session s’achève convenablement.
Les couches Session, Présentation et Application constituent les couches hautes du modèle OSI et offrent des services orientés vers les utilisateurs alors
que les couches basses sont concernées par la communication fiable de bout en bout. Elles considèrent que la couche Transport fournit un canal fiable de
communication de bout en bout et ajoutent des caractéristiques supplémentaires pour les applications.
Couche 4 Transport: (Message)
L'unité d'information de la couche Transport est le message.
La couche Transport est en quelque sorte la société de vérification du modèle de référence OSI. Elle ne déplace pas le fret, mais s’assure que la livraison est
exempte d’erreurs et garantit que les informations ne sont ni perdues, ni dupliquées. C’est la première couche à résider sur les systèmes d’extrémité. La
couche Transport de l’ordinateur expéditeur subdivise les informations, qui ont pour le moment été transmises de couche en couche dans leur taille d’origine
en paquets de la taille requise par les couches réseau situées sous elle. Sur l’ordinateur destinataire, la couche Transport les assemble pour reformer le
fragment originel d’information. Cette couche doit assurer un transfert transparent des données entre utilisateur de service réseau en leur rendant invisible la
façon dont les ressources de communication sont mises en œuvre.
La couche Transport se situe à la charnière entre les couches qui relèvent plus des applications qui sont situées au-dessus d’elle, et les couches réseau et
matériel situées après elle.
Conditions du réseau
Volume de trafic
Les divers segments intermédiaires en cas de transmission entre réseaux
La couche Réseau peut également permettre à un routeur de scinder en unités plus petites des trames, et ce en fonction des types de réseau qu’il a à relier.
En ce qui concerne la réception des données, c’est également la couche Réseau qui ré assemblera les trames ainsi subdivisées. La couche Réseau sert
aussi pour l’adressage, à savoir qu’elle transforme l’adresse logique d’un nœud en adresse physique de carte. Les protocoles présents sur cette couche sont
entre autres IP (Internet Protocol) et X.25, pour les réseaux à commutation de paquets.
Elle assure donc l’adressage, le routage, le contrôle de flux et la détection d’erreurs non réglées par la couche 2.
La fonction de la couche Liaison relève des données et des liaisons entre ordinateurs.
Son travail implique deux activités :
• La formation de paquets de données, ou trames, requises par l’architecture réseau ; c’est la partie données.
• La création et la terminaison de liaisons logiques entre les nœuds du réseau, ainsi que la transmission des paquets sur la couche physique ; c’est la
partie liaison.
En effectuant ce travail, elle ne se contente pas d’empaqueter des données et d’établir des liaisons. Afin de s’assurer que la couche Réseau bénéficie d’une
transmission exempte d’erreurs, elle est responsable du contrôle du flux des trames, de l’acceptation de la transmission et, si nécessaire, de la retransmission
des trames abîmées.
L'unité d'information de la couche liaison de données est la trame qui est composées de quelques centaines à quelques milliers d'octets maximum.
La couche Physique fournit les moyens mécaniques, électriques, électroniques, fonctionnels et procéduraux nécessaires à l’activation, au maintien et à la
désactivation des connexions physiques destinées à la transmission de bits entre deux entités de liaison de données.
L'unité d'information typique de cette couche est le bit.
On s’occupe donc de transmission des bits de façon brute, l’important est que l’on soit sur que si l‘émetteur envoie un bit à 1 alors le récepteur reçoit un bit à
1. Les normes et standards de la couche physique définissent le type de signaux émis (modulation, puissance, portée …), la nature et les caractéristiques des
supports (Connecteur RJ 45, câble, fibre optique …), les sens de transmission…
La couche traite les aspects moins visibles du signal, tels que le codage et le décodage du flux de bits, ainsi que la synchronisation, permettant à chaque bit
de partir et d’arriver dans les mêmes conditions. La couche Physique inclut un grand nombre de spécifications, telles que les IEEE 802.3 des réseaux
Ethernet et les IEEE 802.5 des réseaux Token Ring.
Avec la couche Physique, on atteint le matériel (médium physique que l'on appelle parfois Couche 0). C’est par elle que passe le réseau filaire, qui relie un
ordinateur à un autre. Cette couche s’occupe du câblage, des connecteurs, des signaux électriques et du flux de 0 et de 1.
Equivalences couches-équipements
APPLICATION Gateways,FTP,SMTP,POP,etc … SEMANTIQUE
Le modèle Internet TCP/IP a été créé dans les années 1970 par le Département de la Défense Américain (DOD) afin de répondre à un problème pratique: le
nombre de plus en plus important de machines utilisant des protocoles de communication différents et surtout incompatibles.
Modèle TCP/IP
4 Couche Application Telnet, FTP, SMTP, HTTP
3 Couche Transport TCP (Transmission Control Protocol) et UDP
2 Couche internet IP (Internet Protocol)
1 Couche Accès Réseau
Couche Application:
Contrairement au modèle OSI, c'est la couche immédiatement supérieure à la couche transport, tout simplement parce que les couches présentation et
session sont apparues inutiles. On s'est en effet aperçu avec l'usage que les logiciels réseau n'utilisent que très rarement ces 2 couches, et finalement, le
modèle OSI dépouillé de ces 2 couches ressemble fortement au modèle TCP/IP.
Cette couche contient tous les protocoles de haut niveau, comme par exemple Telnet, TFTP (trivial File Transfer Protocol), SMTP (Simple Mail Transfer
Protocol), HTTP (HyperText Transfer Protocol).
Couche Transport:
Les protocoles de la couche de transport peuvent résoudre des problèmes comme la fiabilité des échanges (« est-ce que les données sont arrivées à
destination ? ») et assurer que les données arrivent dans l'ordre correct. Dans la suite de protocoles TCP/IP, les protocoles de transport déterminent aussi à
quelle application chaque paquet de données doit être délivré.
TCP (protocole IP numéro 6) est un protocole de transport « fiable », orienté connexion, qui fournit un flux d'octets fiable assurant l'arrivée des données sans
altérations et dans l'ordre, avec retransmission en cas de perte, et élimination des données dupliquées. Il gère aussi les données « urgentes » qui doivent être
traitées dans le désordre (même si techniquement, elles ne sont pas émises hors bande). TCP essaie de délivrer toutes les données correctement et en
séquence - c'est son but et son principal avantage sur UDP, même si ça peut être un désavantage pour des applications de transfert ou de routage de flux en
temps-réel, avec des taux de perte élevées au niveau de la couche réseau.
UDP (protocole IP numéro 17) est un protocole simple, sans connexion, « non fiable » - ce qui ne signifie pas qu'il est particulièrement peu fiable, mais qu'il ne
vérifie pas que les paquets sont arrivés à destination, et ne garantit pas leur arrivée dans l'ordre. Si une application a besoin de ces garanties, elle doit les
assurer elle-même, ou bien utiliser TCP. UDP est généralement utilisé par des applications de diffusion multimédia (audio et vidéo, etc.) pour lesquelles le
temps requis par TCP pour gérer les retransmissions et l'ordonnancement des paquets n'est pas disponible, ou pour des applications basées sur des
mécanismes simples de question/réponse comme les requêtes DNS, pour lesquelles le surcoût lié à l'établissement d'une connexion fiable serait
disproportionné par rapport au besoin.
Couche internet:
La couche internet possède une implémentation officielle : le protocole IP (Internet Protocol).
Cette couche est la clé de voûte de l'architecture. Cette couche réalise l'interconnexion des réseaux (hétérogènes) distants sans connexion. Son rôle est de
permettre l'injection de paquets dans n'importe quel réseau et l'acheminement des ces paquets indépendamment les uns des autres jusqu'à destination.
Comme aucune connexion n'est établie au préalable, les paquets peuvent arriver dans le désordre ; le contrôle de l'ordre de remise est éventuellement la
tâche des couches supérieures.
La qualité de service du protocole IP est très faible, sans aucune détection de paquets perdus ni de reprise sur erreur.
Du fait du rôle imminent de cette couche dans l'acheminement des paquets, le point critique de cette couche est le routage. C'est en ce sens que l'on peut se
permettre de comparer cette couche avec la couche réseau du modèle OSI.
Couche Accès Réseau:
La seule contrainte de cette couche, c'est de permettre un hôte d'envoyer des paquets IP sur le réseau. L'implémentation de cette couche est laissée libre. En
fait, cette implémentation est typique de la technologie utilisée sur le réseau local. Par exemple, beaucoup de réseaux locaux utilisent Ethernet ; Ethernet est
une implémentation de la couche hôte-réseau.
TCP/IP et OSI
Le schéma qui suit essaie de montrer l'équivalence entre le modèle TCP/IP et le modèle OSI :
Le Transmission Control Protocol ( TCP , « protocole de contrôle de transmissions »), est un protocole de transport fiable, en mode connecté ,
documenté dans la RFC 793 de l' IETF .
Dans le modèle TCP/IP , TCP est situé au niveau de la couche transport (entre la couche de réseau et la couche application ). Les applications transmettent
des flux d' octets sur le réseau. TCP découpe le flux d'octets en segments , dont la taille dépend de la MTU du réseau sous-jacent ( couche liaison de
données ).
Fonctionnement
l'établissement de la connexion ;
les transferts de données ;
la fin de la connexion.
L'établissement de la connexion se fait par une poignée de main en trois temps ( handshaking )(triple poignée de main). La rupture de connexion, elle, utilise
une poignée de main en quatre temps. Pendant la phase d'établissement de la connexion, des paramètres comme le numéro de séquence sont initialisés afin
d'assurer la transmission fiable (sans perte et dans l'ordre) des données.
En bits
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Numéro de séquence
Numéro d'acquittement
Taille de l'en-tête réservé ECN URG ACK PSH RST SYN FIN Fenêtre
Options Remplissage
Données
Signification des champs :
Même s'il est possible pour deux systèmes d'établir une connexion entre eux simultanément, dans le cas général, un système ouvre un 'socket' (point d'accès
à une connexion TCP) et se met en attente passive de demandes de connexion d'un autre système. Ce fonctionnement est communément appelé ouverture
passive , et est utilisé par le côté serveur de la connexion. Le côté client de la connexion effectue une ouverture active en 3 temps (poignée de mains en trois
temps) :
Durant cet échange initial, les numéros de séquence des deux parties sont synchronisés :
1. Le client utilise son numéro de séquence initial dans le champ "Numéro de séquence" du segment SYN (x par exemple),
2. Le serveur utilise son numéro de séquence initial dans le champ "Numéro de séquence" du segment SYN/ACK (y par exemple) et ajoute le numéro
de séquence du client plus un (x+1) dans le champ "Numéro d'acquittement" du segment,
3. Le client confirme en envoyant un ACK avec un numéro de séquence augmenté de un (x+1) et un numéro d'acquittement correspondant au numéro
de séquence du serveur plus un (y+1).
Transferts de données
Pendant la phase de transferts de données, certains mécanismes clefs permettent d'assurer la robustesse et la fiabilité de TCP. En particulier, les numéros
de séquence sont utilisés afin d'ordonner les segments TCP reçus et de détecter les données perdues, les checksums permettent la détection d'erreurs, et les
acquittements ainsi que les temporisations permettent la détection des segments perdus ou retardés.
Numéros de séquence et d'acquittement:
Grâce aux numéros de séquence et d'acquittement, les systèmes terminaux peuvent remettre les données reçues dans l'ordre à l'application destinataire.
Les numéros de séquence sont utilisés pour décompter les données dans le flux d'octets. On trouve toujours deux de ces nombres dans chaque segment
TCP, qui sont le numéro de séquence et le numéro d'acquittement . Le numéro de séquence représente le propre numéro de séquence de l'émetteur TCP,
tandis que le numéro d'acquittement représente le numéro de séquence du destinataire. Afin d'assurer la fiabilité de TCP, le destinataire doit acquitter les
segments reçus en indiquant qu'il a reçu toutes les données du flux d'octets jusqu'à un certain numéro de séquence.
1. L'hôte A envoie un segment à l'hôte B contenant un octet de données, un numéro de séquence égal à 42 (Seq = 42) et un numéro
d'acquittement égal à 79 (Ack = 79),
2. L'hôte B envoie un segment ACK à l'hôte A contenant le même octet de données. Le numéro de séquence de ce segment correspond au numéro
d'acquittement de l'hôte A (Seq = 79) et le numéro d'aquittement au numéro de séquence de A tel que reçu par B, augmenté de la quantité de
données en bytes reçue (Ack = 42 + 1 = 43),
3. L'hôte A confirme la réception du segment en envoyant un ACK à l'hôte B, avec comme numéro de séquence son nouveau numéro de séquence , à
savoir 43 (Seq = 43) et commenuméro d'aquittement le numéro de séquence du segment précédemment reçu, augmenté de la quantité de données
reçue (Ack = 79 + 1 = 80).
Les numéros de séquence sont des nombres entiers non signés sur 32 bits , qui reviennent à zéro après avoir atteint 2^32-1. Le choix du numéro de
séquence initial est une des clefs de la robustesse et de la sécurité des connexions TCP.
Une amélioration de TCP, nommée acquittement sélectif (selective acknowledgement ou SACK), autorise le destinataire TCP à acquitter des blocs de
données reçus dans le désordre.
Somme de contrôle:
Une somme de contrôle sur 16 bits, constituée par le complément à un de la somme complémentée à un de tous les éléments d'un segment TCP (en-tête et
données), est calculée par l'émetteur, et incluse dans le segment émis. Le destinataire recalcule la somme de contrôle du segment reçu, et si elle correspond
à la somme de contrôle reçue, on considère que le segment a été reçu intact et sans erreur.
La somme de contrôle en complément à un utilisée par TCP est relativement peu fiable selon les standards modernes. Ceci restreint l'utilisation de TCP à des
réseaux offrant des taux d'erreurs faibles. Si TCP était redéfini aujourd'hui, on utiliserait probablement un CRC sur 32 bits au lieu du mécanisme actuel. Ce
manque de fiabilité de la somme de contrôle est partiellement compensé par l'utilisation fréquente d'un CRC ou d'un meilleur contrôle d'intégrité au niveau 2
( couche liaison de données ), au-dessous de TCP et IP, comme par exemple dans les trames PPP ou Ethernet . Toutefois, cela ne signifie pas que la somme
de contrôle TCP est redondante: des études sur le trafic Internet ont montré qu'on rencontre couramment des erreurs matérielles et logicielles qui introduisent
des erreurs dans les paquets entre les nœuds protégés par des CRC, et que le principe de somme de contrôle de bout en bout de TCP détecte la plupart de
ces erreurs.
Temporisation:
La perte d'un segment est gérée par TCP en utilisant un mécanisme de temporisation et de retransmission. Après l'envoi d'un segment, TCP va attendre un
certain temps la réception du ACK correspondant. Un temps trop court entraîne un grand nombre de retransmissions inutiles et un temps trop long ralentit la
réaction en cas de perte d'un segment.
Dans les faits, le délai avant retransmission doit être supérieur au RTT moyen d'un segment, c'est-à-dire au temps que prend un segment pour effectuer
l'aller-retour entre le client et le serveur. Comme cette valeur peut varier dans le temps, on "prélève" des échantillons à intervalle régulier et on en calcule une
moyenne pondérée :
Une valeur typique pour a est 0.125. L'influence des échantillons diminue de manière exponentielle dans le temps.
Le délai à utiliser est obtenu à partir de cette estimation du RTT moyen et en y ajoutant une marge de sécurité. Plus la différence entre un échantillon et la
moyenne est grande, plus la marge de sécurité à prévoir est importante. Le calcul se fait à partir de la variance pondérée entre l'échantillon et la moyenne :
Une valeur typique pour ß est 0.25. Le délai à utiliser est finalement donné par la formule suivante :
Contrôle de flux:
Chaque partenaire dans une connexion TCP dispose d'un tampon de réception dont la taille n'est pas illimitée. Afin d'éviter qu'un hôte ne surcharge l'autre,
TCP prévoit plusieurs mécanismes de contrôle de flux. Ainsi, chaque segment TCP contient la taille disponible dans le tampon de réception de l'hôte qui l'a
envoyé. En réponse, l'hôte distant va limiter la taille de la fenêtre d'envoi afin de ne pas le surcharger.
Contrôle de congestion:
La congestion intervient lorsque trop de sources tentent d'envoyer trop de données trop vite pour que le réseau soit capable de les transmettre. Ceci entraîne
la perte de nombreux paquets et de longs délais.
Les acquittements des données émises, ou l'absence d'acquittements, sont utilisés par les émetteurs pour interpréter de façon implicite l'état du réseau entre
les systèmes finaux. À l'aide de temporisations, les émetteurs et destinataires TCP peuvent modifier le comportement du flux de données. C'est ce qu'on
appelle généralement le contrôle de congestion.
Autres:
TCP utilise un certain nombre de mécanismes afin d'obtenir une bonne robustesse et des performances élevées. Ces mécanismes comprennent l'utilisation
d'une fenêtre glissante, l'algorithme de démarrage lent ( slow start ), l'algorithme d'évitement de congestion ( congestion avoidance ), les algorithmes de
retransmission rapide ( fast retransmit ) et de récupération rapide ( fast recovery ), etc. Des recherches sont menées actuellement afin d'améliorer TCP pour
traiter efficacement les pertes, minimiser les erreurs, gérer la congestion et être rapide dans des environnements très haut débit.
La phase de terminaison d'une connexion utilise une poignée de main en quatre temps, chaque extrémité de la connexion effectuant sa terminaison de
manière indépendante. Ainsi, la fin d'une connexion nécessite une paire de segments FIN et ACK pour chaque extrémité.
Ports TCP
TCP utilise la notion de numéro de port pour identifier les applications. À chaque extrémité de la connexion TCP est associé un numéro de port sur 16 bits
assigné à l'application émettrice ou réceptrice. Les ports peuvent faire partie de trois catégories de base : les ports bien connus, les ports enregistrés et les
ports dynamiques/privés. Les ports bien connus sont assignés par l' IANA (Internet Assigned Numbers Authority), [RFC793] et sont souvent utilisés par des
processus système ou ayant des droits privilégiés. Les applications bien connues qui fonctionnent en tant que serveur et sont en attente de connexions
utilisent généralement ces types de ports. Exemples : FTP (21), Telnet (23), SMTP (25) et HTTP (80). Ici la liste des principaux ports.
INTERNET PROTOCOL
IP , Internet Protocol , est un protocole de communication de réseau informatique . IP est le protocole d' Internet . IP est un protocole de niveau 3 du modèle
OSI.
Fonctionnement
Lors d'une communication entre deux postes, les données provenant des protocoles des couches supérieures sont encapsulées dans des datagrammes à
leur passage au niveau de la couche réseau par le protocole IP. Ces datagrammes sont ensuite transmis à la couche liaison de données (niveau 2 du modèle
OSI) afin d'y être encapsulés dans des trames.
Lorsque deux terminaux communiquent entre eux via ce protocole, aucun circuit pour le transfert des données n'est établi à l'avance : on dit que le protocole
est non orienté connexion . Par opposition, pour un système comme le réseau téléphonique classique , le chemin par lequel va passer la voix (ou les
données) est établi au commencement de la connexion : on parle de protocole orienté connexion
Fiabilité
IP est considéré comme étant un protocole non-fiable . Cela ne signifie pas qu'il n'envoie pas correctement les données sur le réseau, cela signifie qu'il n'offre
aucune garantie pour les datagrammes envoyés pour aucun des points suivants :
corruption de donnée
ordre d'arrivée des datagrammes (un datagramme A peut être envoyé avant un datagramme B, mais le datagramme B peut arriver avant le
datagramme A)
perte ou destruction de datagramme
ré-émission des datagrammes en cas de non-réception
En terme de fiabilité, le seul service offert par IP est de s'assurer que les en-têtes de datagrammes transmis ne comportent pas d'erreurs grâce à l'utilisation
de somme de contrôle (checksum). Si l'en-tête d'un datagramme comprend une erreur, son checksum ne sera pas valide et le datagramme sera détruit sans
être transmis. En cas de destruction de datagrammes, aucune notification n'est envoyée à l'expéditeur (encore qu'un datagramme ICMP peut être envoyé).
Pour garantir ces points de fiabilité qu'IP n'offre pas, un protocole de niveau supérieur doit être utilisé.
La raison principale de cette absence de gestion de la fiabilité au niveau IP est la volonté de réduire le niveau de complexité des routeurs et ainsi de leur
permettre de disposer d'une plus grande rapidité. L'intelligence est alors déportée vers les points d'extrémité du réseau.
IPv4
IPv4 utilise une adresse IP sur 32 bits, ce qui est un facteur limitant à l'expansion d'Internet puisque 4 294 967 296 adresses sont possibles(Peut cependant
être étendu par des techniques de traduction d'adresses NAT ou par l'utilisation d'adresses IP dynamiques). Cette limitation conduit à la transition d'IPv4 vers
IPv6, actuellement en cours de déploiement, qui devrait progressivement le remplacer.
Le plus souvent, une adresse IP est représentée sous la forme de quatre nombres décimaux (0 à 255) séparés par des points comme par exemple
[Link]. Chacun des nombres représente un octet. Comme un octet est composé de 8 bits, cela fait 32 bits.
En-tête IPv4
En bits
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Version d'IP Longueur de l'en-tête (en mots de 32 bits) Type de service Longueur totale en octets
Identification (pour les fragments) Flags (pour les fragments) Fragment offset
Adresse source
Adresse destination
Option(s) + bourrage
Internet Control Message Protocol ou ICMP est repéré par les bits 00000001, qu'on écrit souvent en hexadécimal avec 01
Transmission Control Protocol ou TCP par les bits 00000110, soit 06
User Datagram Protocol ou UDP par les bits 00010001, soit 17 en décimal
Fragmentation
Une trame a une taille maximale, appelée Maximum Transmission Unit ou MTU. Lorsque la longueur du paquet (datagramme) est supérieure, l'information
sera fragmentée. La taille maximum supportée par IPv4 (car codée sur 16 bits) est de 64kio mais les réseaux ne prennent pas en charge de trames de telles
longueurs, typiquement, on a un MTU de l'ordre de 1kio(Arpanet), 1,5kio(Ethernet) etc...
Pour reconstituer l'information, on utilise les champs suivants dans l'en-tête IPv4 :
Fragment offset (13 bits) : Position du fragment par rapport au paquet de départ, en nombre de mots de 8 octets.
Durée de vie ou TTL Time To Live (8 bits) : initialisé par l'émetteur, ce champ est décrémenté d'une unité généralement à chaque saut de routeur.
Quand TTL = 0, le paquet est abandonné et un message ICMP est envoyé à l'émetteur pour information.
Protocole (8 bits) : Numéro du protocole au-dessus de la couche réseau : TCP = 6, UDP = 17, ICMP = 1.
Somme de contrôle de l'en-tête ou Checksum ou encore CRC pour Contrôle de Redondance Cyclique (16 bits) : Vérification de l'intégrité de l'en-tête
seulement. Si le CRC est invalide, le paquet est abandonné sans message d'erreur.
Adresse source (32 bits) : Adresse IP de l'émetteur sur 4 octets ou 32 bits.
Adresse destination (32 bits) : Adresse IP du récepteur sur 4 octets ou 32 bits.
Options (0 à 40 octets ou 0 à 320 bits par mots de 32 bits ou 4 octets) : facultatif.
Bourrage : de taille variable comprise entre 0 et 7 bits. Il permet de combler le champ option afin d'obtenir un en-tête IP multiple de 32 bits. La valeur
des bits de bourrage est 0.
IPv6
Le protocole IPv4 permet d'utiliser un peu plus de quatre milliards d'adresses différentes pour connecter les ordinateurs et les autres appareils reliés au
réseau. Du temps des débuts d'Internet, quand les ordinateurs étaient rares, cela paraissait plus que suffisant. Il était pratiquement inimaginable qu'il y aurait
un jour suffisamment de machines sur un unique réseau pour que l'on commence à manquer d'adresses disponibles.
Une grande partie des quatre milliards d'adresses IP théoriquement disponibles ne sont pas utilisables, soit parce qu'elles sont destinées à des usages
particuliers (par exemple, lemulticast ), soit parce qu'elles appartiennent déjà à des sous-réseaux importants. En effet, d'immenses plages de 16,8 millions
d'adresses, les réseaux dits de classe A, ont été attribuées aux premières grandes organisations connectées à Internet, qui les ont conservées jusqu'à
aujourd'hui sans parvenir à les épuiser.
C'est pourquoi il y a aujourd'hui, principalement en Asie, une pénurie d'adresses que l'on doit compenser par des mécanismes comme la Traduction
d'adresse et de port réseau (NAPT) et l'attribution dynamique d'adresses, et en assouplissant le découpage en classes des adresses ( CIDR ).
C'est principalement en raison de cette pénurie, mais également pour résoudre quelques-uns des problèmes révélés par l'utilisation à vaste échelle d'IPv4,
qu'a commencé en 1995 la transition vers IPv6. Parmi les nouveautés essentielles, on peut citer :
l'augmentation de 232 (soit environ 4 × 109 ) à 2128 (soit environ 3,4 × 1038) du nombre d'adresses disponibles ;
des mécanismes de configuration et de renumérotation automatique ;
IPsec , QoS et le multicast implémentés nativement ;
la simplification des en-têtes de paquets, qui facilite notamment le routage.
Utilisation d'IPv6
L' ICANN a annoncé le 20 juillet 2004 que les enregistrements de type AAAA référençant les adresses IPv6 des serveurs de nom des country code Top Level
Domain (ccTLD, ou domaines nationaux de premier niveau ) .jp ( Japon ), .kr ( Corée du Sud ) et .fr ( France ) deviennent visibles dans le fichier de zone des
serveurs DNS racines ).
L'un des premiers réseaux français à utiliser IPv6 est RENATER , depuis 1996 .
En 2008, la quasi-totalité des FAI français disposent de ressources IPv6 pour la gestion interne de leur réseau, ils sont connectés au backbone IPv6, et
proposent même aux clients professionnels des offres de connexion IPv6.
Adresses IPv6
Une adresse IPv6 est longue de 16 octets , soit 128 bits , contre 4 octets (32 bits) pour IPv4. On dispose ainsi d'environ 3,4 × 1038 adresses, soit
340 282 366 920 938 463 463 374 607 431 768 211 456, soit encore, pour reprendre l'image usuelle, plus de 667 132 000 milliards (6,67 × 1017) d'adresses
par millimètre carré de surface terrestre.
On abandonne la notation décimale pointée employée pour les adresses IPv4 (par exemple [Link]) au profit d'une écriture hexadécimale , où les 8
groupes de 16 bits sont séparés par un signe deux-points :
[Link]
Les 64 premiers bits de l'adresse IPv6 (préfixe) servent généralement à l'adresse de sous-réseau, tandis que les 64 bits suivants identifient l'hôte à l'intérieur
du sous-réseau : ce découpage joue un rôle un peu similaire aux masques de sous-réseau d'IPv4.
Différentes sortes d'adresses IPv6 jouent des rôles particuliers. Les propriétés de ces blocs sont fixées par un plan d'adressage qui définit des préfixes .
L'Internet IPv6 est défini comme étant le sous-réseau 2000::/3 , soit les adresses commençant
par 2000:: jusqu'à [Link] . Seules ces adresses peuvent être routées. Toutes les autres adresses ne
peuvent être utilisées que localement sur un même réseau physique (de niveau 2), ou par un accord privé de routage mutuel. Parmi les adresses
de 2000::/3 , on distingue :
Les adresses 6to4 ( 2002::/16 ) permettant d'acheminer le trafic IPv6 via un ou plusieurs réseaux IPv4.
Les adresses du 6bone ( 3ffe::/16 ) pour l'expérimentation des interconnexions de réseaux IPv6. (Le 6bone n'est plus opérationnel depuis le
6/6/2006)
ADRESSAGE IPv4
Une adresse IPv4 permet d'identifier chaque machine connectée sur un réseau informatique utilisant le protocole IP version 4.
Représentation
Une adresse IP est codée sur 4 octets. Cette adresse se présente sous la forme "[Link]" où "xxx" est situé entre 0 et 255(notation en décimal). Les
numéros s'étendent donc de [Link] à [Link].
En fait, ces quatre groupes "xxx" représente chacun un octet, donc une adresse IP est codée sur 4 fois 8 bits soit 32 bits : cela donne au maximum 232 soit 4
294 967 296 adresses IPv4 possible.
En représentation binaire, une adresse IP est comprise entre:
00000000.00000000.00000000.00000000. et
11111111.11111111.11111111.11111111.
Principe
Lorsqu'un ordinateur tente de communiquer sur le réseau IP, il se sert du masque de sous -réseau:
Il fait un ET logique entre son adresse IP et le masque de sous -réseau. Il obtient son ID réseau.
Il fait un ET logique entre l'adresse IP de destination et le masque.
Si le résultat est identique à l'ID réseau local précédemment calculé alors il envoie le paquet vers le réseau local.
Si le résultat est différent à l'ID réseau local alors l'ordinateur envoie le paquet vers la passerelle par défaut. La passerelle devient alors responsable
du routage du paquet vers le réseau adéquat.
Le masque
L'adresse IP est constituée de deux parties: un identificateur de réseau et un identificateur de la machine (hôte).
ID réseau ID hôte
32 bits
Le masque de sous-réseau permet de savoir quelle partie d'une adresse IP correspond à la partie ID réseau et laquelle correspond à la partie ID hôte.
Un masque est constitué de 32 bits comme l'adresse IP. Pour calculer la partie ID réseau d'une adresse IP, on effectue une opération ET logique bit à bit
entre l'adresse IP et le masque.
Exemple avec l'adresse [Link] et le masque par défaut [Link]:
128 64 32 16 8 4 2 1
1 x 27 + 1 x 26 + 0 x 25 + 0 x 24 + 0 x 23 + 0 x 22 + 0 x 21 + 0 x 20 = 1100 0000b
Donc
(192. 168. 0. 1)
et
(255 255 255 0)
192. 168. 0. 1
ID réseau ID Hôte
Résumé: Le masque de sous-réseau consiste en l'attribution de 1 aux bits de l'identificateur réseau, et de 0 aux bits de l'identificateur d'hôte.
Ressource: Calcul d'un masque et d'un réseau.
Adressage IP dynamique
L'adresse IP d'un ordinateur sur un réseau local lui est transmise et assignée au démarrage grâce au protocole DHCP (Dynamic Host Configuration Protocol).
Adressage IP statique
L'adresse IP d'un ordinateur est fixée manuellement dans la configuration du système d'exploitation. Les serveurs sont en IP statique notamment le serveur
DHCP.
Adresse IP unique
Chaque machine, raccordée à un réseau IP, est identifiée par une adresse IP. Cette adresse IP doit être unique sur le réseau.
Chaque paquet transmis via le protocole IP contient dans son en-tête l'adresse IP de l'émetteur ainsi que l'adresse IP du destinataire (adresses IP
source et destination). Cela permet aux équipements du réseau de "router" les paquets jusqu'à destination grâce à l'adresse IP. Le destinataire saura ainsi à
qui renvoyer les données grâce à l'adresse IP de l'émetteur contenu dans les en-têtes des paquets envoyés.
Il est donc nécessaire que chaque composant connecté à un réseau informatique dispose d'une adresse IP unique pour pouvoir communiquer avec les
autres équipements.
Conventions
L'ID réseau ne doit pas être 127 (boucle locale). L'adresse [Link] est une adresse de bouclage local (localhost, Loopback). Les autres adresses
dans le réseau [Link]/8 sont considérées comme locales, de même que celles du réseau [Link]/8.
L'ID réseau et Hôte ne doivent pas être tous à 0. L'adresse [Link] est illégitime en tant qu'adresse de destination, elle est interprétée comme ce
"réseau local".
L'ID réseau et Hôte ne doivent pas être tous à 1. L'adresse [Link] est une adresse de diffusion.
La première adresse d'un réseau spécifie le réseau lui-même, la dernière est une adresse de diffusion (broadcast) sur ledit réseau.
Les classes
C'est InterNic qui alloue les adresses Internet. Ces adresses IP se divisent en trois classes pour les plus courantes: Les classes A, B et C.
Multicast
D 1110 28
De [Link] à [Link]/4
Classe A
De [Link] à [Link]
Les 8 premiers bits identifient le réseau et les 24 autres identifient les hôtes
27 -2 = 126 réseaux possibles car [Link] et [Link] sont réservés. Un seul de ces réseaux peut accueillir 224 -2 machines, soit 16 777 214
ordinateurs.
Classe B
Les 16 premiers bits identifient le réseau et les 16 autres identifient les hôtes
214 = 16 384 réseaux possibles avec 216 -2 soit 65 534 ordinateurs par réseau.
Adresse IP: [128à191].[Link]
Adresse de réseau: [128à191].xxx.0.0
Adresse de broadcast: [128à191].xxx.255.255
Masque: [Link]
Classe C
Les 24 premiers bits identifient le réseau et les 8 autres identifient les hôtes
221 = 2 097 152 réseaux possibles avec 28 -2 soit 254 ordinateurs par réseau.
APIPA (Automatic Private Internet Protocol Addressing) [Link Local - RFC 3330] ou IPv4LL est une plage réservée auprès l'IANA qui permet à un système
d'exploitation de s'attribuer une IP automatiquement (en cas d'absence de configuration manuelle explicite et de non-détection d'autres systèmes de
configuration comme le DHCP).
CIDR
En 1992 la moitié des classes B étaient prises et si le rythme avait continué, il y aurait eu pénurie d'adresse IP sur internet. De plus la croissance du nombre
de réseaux se traduisait par un volume important de routes à l'intérieur des routeurs, lesquels arrivaient à saturation.
Aussi le CIDR (Classless InterDomain Routing ou routage interdomaine sans classe) est mis en place par l'L'IETF. Le CIDR réduit le nombre de route
stockées sur un routeur et augmente le nombre d'adresses IP disponibles.
Des sous-réseaux en ajoutant des bits à 1 au masque de sous-réseau qui permet de le diviser en sous-réseau.
Exemple: un masque de sous-réseau /27 au lieu de /24 désigne la subdivsion du réseau en 8 sous-réseaux.
Des super-réseaux en empruntant des bits de l'ID réseau et les masquant comme ID d'hôte.
Exemple: un masque de sous-réseau /22 au lieu de /24 désigne un bloc de quatre classes C consécutives
La notation CIDR définit une convention d'écriture qui spécifie le nombre de bits utilisés pour identifier la partie réseau (ID réseau), c'est à dire les bits à 1 du
masque. (RFC 1518 et 1519 définissent le CIDR (Classless Inter-Domain Routing))
Les adresses IP sont alors données sous la forme :
VLSM
VLSM (Variable-Lengh Subnet MASK ou masque de sous-réseau à longueur variable) se sont des masques de sous-réseau variant entre routeurs d'un
même réseau. Cela permet une plus grande souplesse dans les plages d'adresses de sous-réseau.
CIDR et VLSM repose sur des protocoles sans classe donc incompatible avec RIP v1. L' OSPF, IS-IS, RIP-2, BGP-4 le sont.
LES SOUS-RESEAUX
Présentation
Le nombre croissant de réseaux principalement sur internet, a fini par causer la saturation du schéma d'adressage en classe.
Les principales raisons justifiant le découpage en sous-réseaux sont les suivantes:
Réduire la taille des domaines de diffusion (de broadcast), ce qui crée des réseaux plus petits avec un trafic réseau réduit.
Augmenter la sécurité en séparant les réseaux locaux les uns des autres. (Puisque le trafic d'un réseau peut toujours être intercepté par un utilisateur
compétent)
Utilisation de supports physiques différents. Permettre à des réseaux locaux situés à différents emplacements géographiques de communiquer par le
biais de routeurs.
Isoler une partie du réseau en cas de défaillance d'un composant du réseau.
Optimisation de l'espace réservé à une adresse IP. Avec le découpage en sous-réseaux: l'adresse de réseau de classe A peut être découpée pour
permettre sa distribution à plusieurs réseaux séparés. La gestion de chaque réseau séparé peut facilement être déléguée et permet d'éviter
l'utilisation de numéros de réseau IP supplémentaires pour chaque réseau physique.
Principe
L'adresse IP est constituée de deux parties: un identificateur de réseau et un identificateur de la machine (hôte).
ID réseau ID hôte
32 bits
Pour créer des nouveaux sous-réseaux on prélève les bits à gauche de l'ID hôte (l'identifiant machine) avec le masque de sous-réseau (subnet mask).
ID réseau ID hôte
32 bits
Exemple:
Un réseau de classe B ayant comme adresse [Link]: (140.70.x.y)
• 140.70 est l'identifiant réseau
• 0.0 est l'identifiant machine (soit 216 -2 = 65534 machines possibles)
Cette organisation ne facilite pas la gestion et n'est pas optimisée en termes de bande passante. Nous allons diviser le réseau [Link] en plusieurs sous-
réseaux en prélevant des bits de l'identifiant machine(ID hôte) et allons les utiliser comme identifiant de sous-réseaux.
L'ID de sous-réseau est constitué de 8 bits, on peut alors en théorie créer 28 soit 256 sous-réseaux. On indique le nombre de bits prélevés à l'aide du
masque associé à l'adresse. Le masque "par défaut" d'une adresse de classe B est:
Ainsi seuls les ordinateurs ayant les 3 premiers octets identiques appartiennent au même sous-réseau.
L'ID hôte est constitué de 8 bits, on peut alors en théorie adresser 28 soit 256 machines.
L'adresse du sous-réseau 0 140.70.0.x est [Link]. Cette adresse est aussi l'adresse du réseau 170.40.x.y. Aussi, le sous-réseau 0 n'est pas
utilisé.
L'adresse du sous-réseau 255 140.70.255.x est [Link]. L'adresse de diffusion de ce sous-réseau est [Link]. Mais c'est aussi
l'adresse de broadcast du réseau 170.40.x.y. Aussi, le sous-réseau 255 n'est pas utilisé.
Il y a donc 28 -2 = 254 sous-réseau possible dans notre exemple.
La première adresse de chaque sous-réseau n'est pas utilisée: c'est l'adresse identifiant le sous-réseau.
La dernière adresse de chaque sous-réseau n'est pas utilisée: c'est l'adresse de broadcast destinée à envoyer un message à toutes les machines
du sous-réseau.
Il y a donc 28 -2 = 254 hôtes possible pour chaque sous-réseau.
Rappel: Le découpage en sous-réseau n'est pas visible de l'extérieur. Tout se passe comme si on avait un seul réseau [Link].
RESSOURCES
Utilitaires en ligne de commande :
ARP
Hostname
Ifconfig
Ipconfig ou winipcfg
Nbtstat
Netstat
Netdiag
Netmon
Nslookup
Pathping
Ping et fping(6) ou ping6 (pour une adresse IPv6)
Route
Tcpdump
Telnet
Traceroute ou tracert
Utilitaire en ligne :
Logiciels:
CurrPorts:
Affiche la liste de tous les ports TCP/IP et UDP ouverts.
Iptraf:
C'est un outil de monitoring réseau. Il permet de surveiller l'activité sur une interface.
LogMeIn:
Prise de contrôle à distance
Nagios:
Superviser des services réseaux : (SMTP, POP3, HTTP, NNTP, ICMP, SNMP, LDAP, etc.)
Netflow:
Netflow développé par CISCO est un logiciel d’analyse des flux IP.
Netmon:
Moniteur réseau Microsoft à installer dans les composant Windows.
NetStumbler:
NetStumbler est un logiciel qui permet d'identifier et de qualifier les réseaux Wifi environnants. Chaque réseau est détaillé avec un numéro du canal,
un SSID, un débit, le type de périphérique Wifi (point d'accès, routeur...), le SNR, l'adresse IP (si elle est disponible), la force du signal et le bruit.
Nmap:
Nmap est un scanner de ports open source.
PRTG:
Network Monitor utilitaire d'administration réseau
Rancid:
(Really Awesome New Cisco confIg Differ) Sauvegarde les configurations des équipements réseau
Superscan:
Superscan est un scanner de port TCP, pinger et un hostname resolver.
Tcpview:
Affiche des listes détaillées de tous les points de terminaison TCP et UDP de votre système.
TeamViewer:
Permet d'accéder facilement à une machine à distance Mac et Windows et d'en prendre le contrôle total avec partage d'écran.
WhatsUp Gold:
Surveillance et gestion du réseau
Wireshark:
Analyseur de captures réseau. Il peut désassembler complètement les paquets. il est utilisé dans le dépannage et l'analyse de réseaux informatiques,
le développement de protocoles, l'éducation et la rétro-ingénierie.
Matériels:
Le connecteur RJ-45.
Le Wifi-Box est sous la forme non pas d'un routeur mais d'une carte réseau à relier à son ordinateur par USB. D'une puissance d'émission variable
de 50 à 500 milliwatts (100 milliwatts en France), exploite la puce Realtek RTL8187L, permettant de tirer pleinement parti des outils du système
d'exploitation BackTrack fourni.
Ce dernier comprend de nombreux outils de surveillance et de cassage de réseau. Il comporte en particulier le logiciel SpoonWEP, qui permet
d'infiltrer en toute illégalité un réseau Wi-Fi protégé par clé WEP ou WPA en quelques minutes.
FAQ :
La base de connaissance côté pratique sous forme de FAQ.
WiFi
Le Wi-Fi est une technique de réseau informatique sans fil mise en place pour fonctionner en réseau interne et, depuis, devenu un moyen d’accès
à haut débit à Internet. Il est basé sur la norme IEEE 802.11.
Description
La norme IEEE 802.11 (ISO/CEI 8802-11) est un standard international décrivant les caractéristiques d’un réseau local sans fil (WLAN). La marque déposée
« Wi-Fi » correspond initialement au nom donné à la certification délivrée par la WECA (« Wireless Ethernet Compatibility Alliance »), organisme ayant pour
mission de spécifier l’interopérabilité entre les matériels répondant à la norme 802.11 et de vendre le label « Wi-Fi » aux matériels répondant à leurs
spécifications.
Le Wi-Fi permet de relier des ordinateurs portables, des machines de bureau, des assistants personnels (PDA), des téléphones ou même des périphériques
à une liaison haut débit (de 11 Mbit/s théoriques ou 6 Mbit/s réels en 802.11b, à 54 Mbit/s théoriques ou environ 25 Mbit/s réels en 802.11a ou 802.11g et
300 Mbit/s théoriques pour le 802.11n en version draft 2.0) sur un rayon de plusieurs dizaines de mètres en intérieur.
Des fournisseurs d’accès à Internet commencent à irriguer des zones à forte concentration d’utilisateurs (gares, aéroports, hôtels, trains…) avec des réseaux
sans fil connectés à l'Internet. Ces zones ou point d’accès sont appelées bornes Wi-Fi ou points d’accès Wi-Fi ou en anglais « hot spots ».
La norme 802.11a (baptisée Wi-Fi 5) permet d'obtenir un haut débit (dans un rayon de 20 mètres : 54 Mbit/s théoriques, 25 Mbit/s réels)
et ~75m en extérieur. La norme 802.11a spécifie 52 canaux de sous-porteuses radio dans la bande de fréquences des 5 GHz (bande U-NII =
802.11a 1999
Unlicensed '- National Information Infrastructure 5.15-5.35/5.47-5.725/5.725-5.875 GHz), huit combinaisons, non superposées sont
utilisables pour le canal principal.
La norme 802.11b est la norme la plus répandue en base installée actuellement. Elle propose un débit théorique
de 11 Mbit/s (6 Mbit/s réels) avec une portée d'environ 35 mètres et 100 mètres à l'extérieur. La plage de fréquences utilisée est la bande
802.11b 1999
des 2.4-2.5 GHz (Bande ISM = Industrial Scientific Medical ) avec, en France, 13 canaux radio disponibles dont 4 au maximum non
superposés (1 - 5 - 9 - 13).
La norme 802.11e vise à donner des possibilités en matière de qualité de service au niveau de la couche liaison de données. Ainsi, cette
802.11e norme a pour but de définir les besoins des différents paquets en termes de bande passante et de délai de transmission de manière à
permettre, notamment, une meilleure transmission de la voix et de la vidéo.
La norme 802.11g est la plus répandue dans le commerce actuellement(2008). Elle offre un haut débit
(54 Mbit/s théoriques, 25 Mbit/s réels) sur la bande de fréquences des 2.4-2.5 GHz et avec une portée ~25 m à l'intérieur et ~75 m à
802.11g 2003 l'extérieur. La norme 802.11g a une compatibilité ascendante avec la norme 802.11b, ce qui signifie que des matériels conformes à la
norme 802.11g peuvent fonctionner en 802.11b. Cette aptitude permet aux nouveaux équipements de proposer le 802.11g tout en restant
compatibles avec les réseaux existants qui sont souvent encore en 802.11b.
802.11i La norme 802.11i a pour but d'améliorer la sécurité des transmissions (gestion et distribution des clés, chiffrement et authentification).
Cette norme s'appuie sur l'AES (Advanced Encryption Standard ) et propose un chiffrement des communications pour les transmissions
utilisant les standards 802.11a, 802.11b et 802.11g.
La norme 802.11n propose un débit théorique de 300-540 Mbit/s (200 Mbit/s réels) avec une portée ~50 mètres intérieur et ~125 m en
extérieur.
802.11n 2009
Le 802.11n a été conçu pour pouvoir utiliser les fréquences 2,4 GHz ou 5 GHz avec des adaptateurs double-bande (2,4 GHz ou
5 GHz, au choix) ou même double-radio (2,4 GHz et 5 GHz simultanément).
C'est le principe baptisé MIMO (Multiple-In - Multiple Out) utilise plusieurs antennes en émission et en réception. C'est à dire le
MIMO 2x3 (300 Mbps) ou le MIMO 3x3 (450 Mbps) et enfin le MIMO 4x4 (600 Mbps). Aujourd'hui le MIMO 2x3 avec ses 2
émetteurs envoie 2 fois plus de données (soit 2x72Mbps=144Mbps) et le doublement de la largeur des canaux d'émission de
20MHz à 40MHz permet d'atteindre les 300 Mbps.
Le successeur du 802.11n affiche des débits théoriques trois fois plus rapides.
Le 802.11 ac propose un débit théorique maximal de 1,3 Gbit/s. Avec une antenne, on pourrait ainsi atteindre 450 Mbit/s. La
802.11ac
norme délaisse la bande des 2,4 GHz, trop souvent soumise à des perturbations naturelles ou liées à d'autres appareils. Elle utilise
une bande passante plus large au delà des 5 GHz, qui est moins caution aux interférences et offre surtout 23 canaux non
superposés.
Historique
Date de Taux de transfert Taux de transfert Portée Portée
Protocole Fréquence
normalisation (Typ) (Max) (Intérieur) (Extérieur)
5.15-5.35/5.47-5.725/5.725-5.875
802.11a 1999 25 Mbit/s 54 Mbit/s ~25 m ~75 m
GHz
802.11g 2003 2.4-2.5 GHz 25 Mbit/s (3,1 Mo/s) 54 Mbit/s ~25 m ~75 m
802.11n 2007 (version "draft" 2.4 GHz ou 5 GHz 200 Mbit/s 540 Mbit/s ~50 m ~125 m
2.0)
802.11n 2009 2.4 GHz ou 5 GHz 200 Mbit/s 540 Mbit/s ~50 m ~125 m
Fonctionnement
Le protocole hertzien ne peut utiliser le CSMA/CD. Pour éviter les collisions, on oblige les différentes stations à attendre un temps différent avant d'émettre,
c'est le CSMA/CA (Collision Avoidance). Ce temps d'attente est supérieur au temps de propagation, la station qui a le temps d'attente le plus long trouve le
support physique occupé et évite ainsi la collision.
Le mode infrastructure
En mode infrastructure chaque ordinateur station équipés d’une carte Wi-Fi "STA" se connecte à un point d'accès "AP" (Access Point) via une liaison sans
fil. L'ensemble formé par le point d'accès et les stations situés dans sa zone de couverture est appelé ensemble de services de base "BSS" (Basic Service
Set) et constitue une cellule. Chaque BSS est identifié par un BSSID, un identifiant de 6 octets (48 bits). Dans le mode infrastructure, le BSSID correspond à
l'adresse MAC du point d'accès.
Les bornes, ainsi que les machines, doivent être configurées avec le même nom de réseau SSID (Service Set IDentifier) afin de pouvoir communiquer.
L’avantage de ce mode est de garantir un passage obligé par un AP, il est donc possible de vérifier qui accède au réseau.
Il est possible de relier plusieurs points d'accès entre eux (donc plusieurs BSS) par une liaison appelée système de distribution "DS" '(Distribution System)
afin de constituer un ensemble de services étendu "ESS" (Extended Service Set) qui n'est pas différent d'un sous-système radio de réseau de mobiles. Le
système de distribution DS peut être dans la plupart des cas un câble Ethernet entre les deux points d'accès ou bien avec une liaison sans fil (réseau mesh).
Le mode ad hoc
En mode ad hoc les machines équipées d’une carte Wi-Fi se connectent les unes aux autres afin de constituer un réseau point à point (peer to peer). Dans
ce réseau ainsi formé les machines sont en même temps "client" et " point d'accès". Le réseau formé par les différentes stations est appelé ensemble de
services26-03-2014quot; (Independant Basic Service Set).
De fait on n'utilise pas de matériel tiers tel qu’un point d’accès AP. Ce mode est donc idéal pour interconnecter rapidement des machines entre elles.
La mise en place d’un tel réseau se borne à configurer les machines en mode ad hoc (au lieu du mode Infrastructure), la sélection d’un canal (ou fréquence),
d’un nom de réseau "SSID" communs à tous et d'une clé de cryptage.
Un IBSS est ainsi un réseau sans fil constitué au minimum de deux stations et n'utilisant pas de point d'accès. L'IBSS constitue donc un réseau éphémère
permettant à des personnes situées dans une même salle d'échanger des données. Il est identifié par un SSID, comme l'est un ESS en mode infrastructure.
Dans un réseau ad hoc, la portée du IBSS est déterminé par la portée de chaque station. Cela signifie que si deux des stations du réseau sont hors de
portée l'une de l'autre, elles ne pourront pas communiquer, même si elles "voient" d'autres stations. En effet, contrairement au mode infrastructure, le
mode ad hoc ne propose pas de système de distribution capable de transmettre les trames d'une station à une autre. Ainsi un IBSS est par définition un
réseau sans fil restreint.
Sécurité
Les réseaux sans fil partage le support. Tout ce qui est transmis peut donc être intercepté aussi il est nécessaire d’élaborer une politique de sécurité dans les
entreprises et chez les particuliers.
Il faudra en premier:
Cacher le nom du réseau (SSID) afin que l'on ne puisse pas voir le réseau.
Filtrer avec une liste d'adresses MAC autorisées. Seules les stations dont l'adresse MAC est dans la liste sont autorisées à accéder au réseau.
Mais cela ne suffit pas, il est fortement recommandé de choisir une méthode de codage de la communication sur l’interface radio
En premier, la méthode de codage avec une clé dite WEP (Wired Equivalent Privacy), communiquée uniquement aux utilisateurs autorisés du réseau.
Le WEP utilise l'algorithme de chiffrement par flot RC4 pour assurer la confidentialité et la somme de contrôle CRC-32 pour assurer l'intégrité. Les
clés peuvent être sur 64 bits, 128 bits ou même sur 256 bits mais, malheureusement, la longueur des clés n'est pas le problème de sécurité le plus
important du WEP.
En effet la sécurité n'est pas garantie car il a été démontré que l'on peut casser les clés de chiffrement assez facilement (en 3 minutes!), avec l’aide
de programmes tels qu'Aircrack.
Le WPA ( Wi-Fi Protected Access) a été créé en avril 2003 pour combler les nombreuses failles de sécurité du WEP. Les données sont chiffrées en
utilisant l'algorithme de chiffrement par flot RC4, avec une clé de 128 bits et un vecteur d'initialisation (initialization vector ou IV) de 48 bits. En plus
de l'identification et du chiffrement, WPA garantit aussi une intégrité nettement améliorée des données.
Il y a deux modes de fonctionnement:
Le WPA peu être utilisé en mode ad-hoc où la clé est appelée PSK (pre-shared key) ou WPA-Personal, dans lequel tous les utilisateurs
partagent la même phrase secrète.
Le WPA a été conçu pour être utilisé en collaboration avec un serveur d'identification 802.1X chargé de distribuer les différentes clés à
chaque utilisateur. le protocole TKIP(Temporal Key Integrity Protocol) ou WPA-Enterprise ou WPA2-Enterprise, qui échange de manière
dynamique les clés lors de l'utilisation du système.
Le WPA2
WPA2 inclut tous les éléments obligatoires de la norme 802.11i. Cette norme a pour but d'améliorer la sécurité des transmissions (gestion et
distribution des clés, chiffrement et authentification avec notamment l'AES (Advanced Encryption Standard ))
Le mode PSK (pre-shared key) ou Personal mode ou WPA2-Personal a été conçu pour les réseaux individuels qui n'utilise pas de serveur
d'identification 802.1X. Chaque utilisateur doit saisir une phrase secrète pour accéder au réseau. La phrase secrète peut contenir de 8 à 63
caractères ASCII ou 64 symboles hexadécimaux (256 bits). Une clé donnée sous la forme de caractères ASCII est convertie vers la clé de
256 bits grâce à une fonction de hachage cryptographique, la PMK (Pairwise Master Key).
C'est le WPA2-Enterprise, qui échange de manière dynamique les clés lors de l'utilisation du système. Un serveur d'authentification
centralisé de type Radius (Remote Authentitication Dial-In User Server) est chargé de gérer les accès par nom d’utilisateur et mot de passe.
Il génére une clé maître, appelée PMK (Pairwise Master Key).
.
NetStumbler
NetStumbler est un logiciel qui permet d'identifier et de qualifier les réseaux Wifi environnants. Chaque réseau est détaillé avec un numéro du canal, un SSID,
un débit, le type de périphérique Wifi (point d'accès, routeur...), le SNR, l'adresse IP (si elle est disponible), la force du signal et le bruit.
BLUETOOTH
Au commencement les sociétés Ericson, IBM, Intel, Nokia et Toshiba contituaient le Bluetooth Special Interest Group(SIG). Ils ont été aujourd'hui
rejoints par plus de 2 500 sociétés.
Bluetooth est une spécification de l'industrie des télécommunications. Elle utilise une technologie radio courte distance destinée à simplifier les connexions
entre les appareils électroniques. Elle a été conçue dans le but de remplacer les câbles entre les ordinateurs et les imprimantes, les scanners, les claviers, les
souris, les téléphones portables, les PDA, les autoradios et les appareils photo numériques.
Son nom est directement inspiré du roi danois Harald Ier surnommé Harald Blåtand (« à la dent bleue »), connu pour avoir réussi à unifier les États du
Danemark, de Norvège et de Suède. Le logo de Bluetooth, est d'ailleurs inspiré des initiales en alphabet runique de Harald Blåtand.
Description
La technologie Bluetooth est intégrée dans une puce de 9mm sur 9mm de côté. Elle utilise une plage de fréquence entre 2 400 MHz et 2 483.5 MHz (2,4
GHz).
Dans la version la plus répandue, la liaison Bluetooth exploite les caractéristiques suivantes :
Pour commencer, les appareils doivent être appairer. Cette opération se fait en lançant la découverte à partir d'un appareil et en échangeant un code. Par la
suite, les codes sont mémorisés, et il suffira alors qu'un appareil demande le raccordement et que l'autre l'accepte pour que les données puissent être
échangées.
Il existe trois classes de modules radio Bluetooth sur le marché ayant des puissances différentes et donc des portées différentes :
Class
Puissance Portée
e
100
1 100 mW (20 dBm)
mètres
3 1 mW (0 dBm) 1 mètre
Anné
Version Description Vitesse
e
(BLE(Bluetooth Low
Energy)
2013 4.1
Client et serveur
IPv6
IEEE 802.15.1 définit le standard Bluetooth 1.x permettant d'obtenir un débit de 1 Mbit/s ;
IEEE 802.15.2 propose des recommandations pour l'utilisation de la bande de fréquence 2,4 GHz (fréquence utilisée également par le Wi-Fi);
IEEE 802.15.3 est un standard en cours de développement visant à proposer du haut débit (20 Mbit/s) avec la technologie Bluetooth ;
IEEE 802.15.4 est un standard en cours de développement pour des applications Bluetooth à bas débit.
Historique
1994 : création par le fabricant suédois Ericsson
1998 : plusieurs grandes sociétés (Agere, IBM, Intel, Microsoft, Motorola, Nokia et Toshiba) s'associent pour former le Bluetooth Special Interest
Group (SIG)
1999 : Bluetooth 1.0
2001: Bluetooth 1.1.
2003: Bluetooth 1.2. (721 kbit/s)
2005: Bluetooth 2 (3 Mbit/s, 2 Mbit/s en pratique)
2007: Bluetooth 2.1
2009: Bluetooth 3.0 (24 Mbit/s)
2010: Bluetooth 4.0 (24 Mbit/s)
2013: Bluetooth 4.1
Fonctionnement
Les éléments fondamentaux d'un produit Bluetooth sont définis dans les
deux premières couches protocolaires, la couche radio et la couche bande
de base. Ces couches prennent en charge les tâches matérielles comme le
contrôle du saut de fréquence et la synchronisation des horloges.
Couche radio
La couche radio (la couche la plus basse) est gérée au niveau matériel. C'est elle qui s'occupe de l'émission et de la réception des ondes radio. Elle définit
les caractéristiques telles que la bande de fréquence et l'arrangement des canaux, les caractéristiques du transmetteur, de la modulation, du récepteur, etc.
La technologie Bluetooth utilise l'une des bandes de fréquences ISM (Industrial, Scientific and Medical) réservée pour l'industrie, la science et la médecine.
La bande de fréquences utilisée est disponible au niveau mondial et s'étend sur 83,5 MHz (de 2,4 à 2,4835 GHz).
Cette bande est divisée en 79 canaux séparés de 1 MHz(en France, il est possible d'utiliser uniquement 23 canaux). Le codage de l'information se fait par
sauts de fréquence. La période est de 625 µs, ce qui permet 1 600 sauts par seconde.
La bande de base
C'est également la bande de base qui gère les différents types de communication entre les appareils. Les connexions établies entre deux appareils Bluetooth
peuvent être synchrones ou asynchrones.
La bande de base peut donc gérer deux types de paquets :
Réseau piconet
Un piconet est un mini réseau qui se crée de manière instantanée et
automatique quand plusieurs périphériques Bluetooth sont dans un même
rayon. Un piconet est organisé selon une topologie en étoile : il y a un maître
et plusieurs esclaves.
Un périphérique maître peut administrer jusqu'à :
7 esclaves actifs ;
255 esclaves en mode parked.
Tous les esclaves du piconet sont synchronisés sur l'horloge du maître. C'est
le maître qui détermine la fréquence de saut pour tout le piconet.
Les profils
Un profil correspond à une spécification fonctionnelle d'un usage particulier. Les profils peuvent également correspondre à différents types de périphériques.
Les différents profils sont :
Description
Principe de fonctionnement
Les générations
La sécurité
La téléphonie mobile est une infrastructure de télécommunication qui permet de communiquer par téléphone sans être relié par câble à un central.
Description
La téléphonie mobile est fondée sur la radiotéléphonie, c'est-à-dire la transmission de la voix à l'aide d'onde radioélectrique entre une base relais qui couvre
une zone de plusieurs dizaines de kilomètres de rayon et le téléphone mobile de l'utilisateur.
A l'origine l'usage de base du téléphone portable est la téléphonie. Aujourd'hui, il permet désormais:
D'envoyer des SMS (Short Message Service): envoi de messages écrits de 160 caractères maximum.
Des MMS (Multimedia Messaging Services) : Service de messagerie multimédia.
i-mode : Protocole permettant de se connecter à Internet avec le langage C-HTML.
WAP (Wireless application protocol) : Protocole permettant de se connecter à Internet avec le langage WML (Wireless Markup Language.
Il sert d'agenda, de montre/chronomètre/minuteur, lecteur multimédia, dictaphone, de télécommande (s'il est équipé de Bluetooth), d'appareil photo,
de caméscope numérique ou de console de jeu 3D mobile depuis 2006 et il remplace de plus en plus les PDA (c'est alors un smartphone). C'est la
convergence vers un seul appareil multimédia.
Principe de fonctionnement
Les systèmes mobiles actuels fonctionnent en mode numérique : ainsi la voix est échantillonnée, numérisée et transmise sous forme de bits, puis re-
synthétisée au niveau de la réception. Les progrès de la microélectronique ont permis de réduire la taille des téléphones mobiles à un format de poche
Une cellule est une zone géographique dont tous les points sont accessibles à partir d'une seule antenne.
Cette antenne est nommée, un BTS (Base Transceiver Station).
Il existe plusieurs types de cellules:
Si au cours de ses déplacements, le signal reçu de la cellule serveuse est plus faible que sur une cellule voisine, le système peut demander au mobile de
changer de cellule serveuse. Cette opération porte le nom de Handover ou Handoff suivants les systèmes.
Les bases de transmission sont réparties sur le territoire selon un schéma de cellules. Chaque base utilise un groupe de fréquences différent de ses voisines.
Les mêmes fréquences ne sont réutilisées qu'à une distance suffisante afin ne pas créer d'interférences.
Chaque cellule dispose d'une station de base (BTS), chaque BTS est
reliée à un contrôleur de station de base BSC (Base station
controller).
Un BSC pilote un ensemble de station de base.
• C’est un carrefour de communication: concentrateur de BTS et
aiguillage vers un BTS destinataire.
• Gestion des ressources radio: affectation des fréquences, contrôle
de puissance…
• gestion des appels: établissement, supervision, libération des
communications, etc.
• Gestion des transferts intercellulaires (handover).
Un BSC et les BTS qui lui sont raccordés constituent un sous-
système radio BSS (Base station system).
Le registre des abonnés locaux HLR (Home Location Register): il s'agit d'une base de données contenant des informations (position géographique,
informations administratives, etc.) sur les abonnés inscrits dans la zone du commutateur MSC.
Le Registre des abonnés visiteurs VLR (Visitor Location Register): il s'agit d'une base de données contenant des informations sur les autres
utilisateurs que les abonnés locaux. LeVLR rapatrie les données sur un nouvel utilisateur à partir du HLR correspondant à sa zone d'abonnement.
Les données sont conservées pendant tout le temps de sa présence dans la zone et sont supprimées lorsqu'il la quitte ou après une longue période
d'inactivité (terminal éteint).
Le registre des terminaux EIR (Equipement Identity Register) : il s'agit d'une base de données répertoriant les terminaux mobiles.
Le Centre d'authentification AUC (Autentication Center) : il s'agit d'un élément chargé de vérifier l'identité des utilisateurs.
L'ensemble MSC et VLR, HLR, EIR et AUC constituent le sous-ensemble NSS (Network SubSystem).
Pour savoir sur quelle base diriger un appel entrant, le réseau mobile échange périodiquement avec les téléphones mobiles des informations sous forme de
messages de signalisation.
Les systèmes mobiles sont standardisés pour être compatibles entre les réseaux des différents pays et s'interconnecter avec les réseaux de téléphonie fixe. Il
existe dans le monde deux grands standards de systèmes mobiles, le standard IS41 d'origine américaine (norme ANSI-41) et le standard GSM, défini dans
l'Europe par l'ETSI, le plus répandu.
Générations
Théorique Réel
Radiocom 2000 1G
GSM
Permet le transfert de voix ou de données numériques
Global System for Mobile 2G 9,6 kb/s 9,6 kb/s
de faible volume.
Communication
UMTS
Permet le transfert simultané de voix et de données
Universal Mobile 3G 0,144-2 Mb/s 1 Mb/s
numériques à haut débit.
Telecommunications System
HSDPA 3,5G, Permet le transfert simultané de voix et de données 1,8 Mbit/s, 3,6 Mbit/s, 3,6 Mb/s,
High Speed Downlink Packet Access 3G+ numériques à haut débit. 7,2 Mbit/s et 14,4 Mbit/s 7,2 Mb/s
HSUPA et HSPA+ 3,75G, Permet le transfert simultané de voix et de données 84,4 Mbit/s en download et 23
28 Mbit/s
High Speed Uplink Packet Access 3G++ numériques à haut débit. Mbit/s en upload
- 100
LTE
Permet le transfert simultané de voix et de données 300 à 1 Gb/s à l’arrêt Mbit/s
Long Term Evolution 4G
numériques à haut débit. et de 100 Mb/s en mouvement - 160
LTE Advanced
Mbit/s
Attention, les débits sont variables. Ils sont en fonction du nombre de connectés partageant la bande passante (Même antenne), de la distance à l'émetteur
(L'antenne) du récepteur (Le téléphone) et de votre vitesse de déplacement.
1G
La première génération de téléphonie mobile 1G possédait un fonctionnement analogique et était constituée d'appareils relativement volumineux (Radiocom
2000 France Telecom, Nordic Mobile Telephone). Il s'agissait principalement des standards suivants :
AMPS (Advanced Mobile Phone System), TACS (Total Access Communication System) et ETACS (Extended Total Access Communication System).
2G
GSM (Global System for Mobile communications) utilise les bandes de fréquences 900 MHz et 1800 MHz en Europe. Aux Etats-Unis par contre, la
bande de fréquence utilisée est la bande 1900 MHz et 800 MHz. Ainsi, on appelle tri-bande voir quadri-bande, les téléphones portables pouvant
fonctionner en Europe et aux Etats-Unis.
CDMA (Code Division Multiple Access), utilisant une technique d'étalement de spectre permettant de diffuser un signal radio sur une grande gamme
de fréquences.
TDMA (Time Division Multiple Access), utilisant une technique de découpage temporel des canaux de communication, afin d'augmenter le volume de
données transmis simultanément.
Avec les réseaux 2G ou GSM, il est possible de transmettre la voix ainsi que des données numériques de faible volume, par exemple des messages textes
(SMS, pour Short Message Service) ou des messages multimédias MMS (Multimedia Message Service) avec un débit maximal de 9,6 kbps.
• 2,5G ou GPRS (General Packet Radio System), qui permet d'obtenir des débits théoriques de l'ordre de 114 kbit/s, plus proche de 40 kbit/s dans la réalité.
• 2,75G ou EDGE (Enhanced Data Rates for Global Evolution) présentée comme 2.75G quadruple les améliorations du débit de la norme GPRS en
annonçant un débit théorique de 384 Kbps, ouvrant ainsi la porte aux applications multimédias. En réalité la norme EDGE permet d'atteindre des débits
maximum théoriques de 473 kbit/s, mais elle a été limitée afin de se conformer aux spécifications IMT-2000 (International Mobile Telecommunications-2000)
de l'ITU (International Telecommunications Union).
3G
La 3G propose d'atteindre des débits supérieurs à 144 kbit/s, ouvrant ainsi la porte à des usages multimédias tels que la transmission de vidéo, la
visioconférence ou l'accès à internet haut débit. Les réseaux 3G utilisent des bandes de fréquences différentes des réseaux précédents : 1885-2025 MHz et
2110-2200 MHz.
La 3G en Europe peut s'appeler aussi UMTS (Universal Mobile Telecommunications System), utilisant un codage W-CDMA (Wideband Code Division Multiple
Access).
Les caractéristiques de la 3G (troisième génération de téléphonie mobile) sont les suivantes :
• La 3.5G ou 3G+ ou HSDPA (High-Speed Downlink Packet Access) est un protocole de téléphonie mobile de troisième génération permettant d'atteindre
des débits de l'ordre de 8 à 10 Mbits/s. La technologie HSDPA utilise la bande de fréquence 5 GHz et utilise le codage W-CDMA.
• 3.75G ou 3G++ HSUPA (High Speed Uplink Packet Access), HSPA permet un débit pratique de 20 ou 40 Mb/s
4G
La 4G LTE (Long Term Evolution) et UMB (ultra Mobile Broadband). Les deux normes ont été finalisées fin 2007 et le début de la commercialisation en 2012.
La 4G utilise les bandes de fréquences suivantes:
- La bande des 800 MHz (bande LTE numéro 20), pour laquelle seuls Bouygues, Orange et SFR bénéficient d'une bande de 10 MHz chacun. Cette bande de
fréquences (Appelées aussi "fréquences en or") a une atténuation moins importante et porte donc plus loin. Par contre, elles peuvent rentrer en conflit avec la
TNT.
- La bande des 2 600 MHz (bande LTE numéro 7) est destinée à être utilisée dans les villes et les zones urbaines. Son atténuation est plus importante, mais
les fréquences sont plus nombreuses.
- La bande des 1 800 MHz (bande LTE numéro 3) d'abord utilisée pour la 2G.
La LTE exploite les fréquences OFDM (Orthogonal Frequency Division Multiplexing) et MIMO (Multiple Inputs Multiple Outputs) qui permet le transfert de
données à plus longue portée et à plus grande vitesse grâce à l'utilisation simultanée de multiples liens de transmission radio. La LTE permet un débit
descendant théorique de plus de 100 Mb/s et montant de 50 Mb/s
Sécurité
Les téléphones mobiles contiennent une carte SIM qui permet d'identifier l'utilisateur, l’ensemble des paramètres de l’abonnement et de stocker un certain
nombre de numéros de téléphone. Chaque appareil est identifié, quelle que soit sa marque:
L'IMEI (International Mobile Equipment Identity) ou IIEM est un numéro qui permet d'identifier de manière unique chacun des terminaux mobiles (ME)
GSM ou UMTS, la norme prévoit que ces derniers embarquent un identifiant.
Ce numéro permet à l'opérateur du réseau de téléphonie mobile d'identifier le mobile appelant et ainsi de l'autoriser ou non à se connecter. Il permet
ainsi l'établissement des appels d'urgence sans carte SIM, et de bloquer un mobile volé suivant une black list auprès de l'ensemble des opérateurs.
L'IMEI est composé de 15 chiffres (14 chiffres utiles et un chiffre de contrôle). Depuis le 1er avril 2004, il contient les informations suivantes :
• Le Type Approval Code (TAC) fourni par l'autorité de certification. Il est codé sur huit chiffres, les deux premiers chiffres désignant le code pays où
le mobile a été immatriculé.
• Le numéro de série (SNR) de fabrication de cet appareil, codé sur six chiffres.
• Le chiffre de contrôle servant de somme de contrôle sur les 14 autres chiffres. Le nombre entier doit vérifier la formule de Luhn.
Le numéro d'abonné IMSI (International Mobile Subscriber ldentity) se trouvant dans la carte SIM (Subscriber ldentity Module) de l’abonné.
Identité permanente du mobile auprès du réseau. Elle n’est pas connue par l'utilisateur.
Egalement sur la carte SIM:
- ICCID (Integrated Circuit Card ID) composé de 6 digits identifiant l’opérateur,
- NSCE numéro de série identifiant la carte SIM de 14 chiffres.
Le numéro MSISDN (Mobile Station International ISDN Number) : Numéro international d’un abonné.
Le numéro TMSI (Temporary Mobile Subscriber Identity) : Identité temporaire du mobile auprès du MSC.
Le code PIN (Personal Identification Number ou numéro d'identification personnel) est un code confidentiel constitué d'une suite de 4 chiffres destinée
à authentifier le propriétaire d'une carte SIM.
Ce code protège la carte SIM contre toute utilisation non autorisée. Au bout de trois mauvaises saisies du PIN, le portable se bloque et se désactive.
Pour le réactiver il faut saisir le code PUK.
Le code PUK (Personal Unblocking Key ou clé de déblocage personnel) est un code comportant 8 chiffres fourni par votre opérateur ou votre
prestataire de services. Celui-ci sert à modifier un PIN désactivé. Si le code PUK est saisi de façon incorrecte dix fois de suite, la carte SIM du
téléphone devient inutilisable.
Le code PIN2 est un code PIN qui fait office de protection complémentaire pour certaines fonctionnalités du téléphone. Il fonctionne de la même
manière que le code PIN. De la même manière, si vous saisissez à plusieurs reprises un code PIN2 erroné, votre téléphone vous demande le
code PUK2.
Le code RIO : Relevé d'Identité Opérateur
Avec la ligne du mobile composez le 3179, vous recevrez alors un SMS avec votre N° de RIO et votre date de fin d'engagement.
A cause de l’utilisation des ondes radioélectriques pour transporter les informations, les transmissions sont particulièrement vulnérables :
• Les communications peuvent être écoutées lors du transit des informations sur les ondes.
•Une utilisation frauduleuse des comptes d'abonnés par des personnes disposant de mobiles "pirates", qui se présentent avec l’identité d’abonnés autorisés.
Pour éviter l’interception de l’IMSI on le transmet le plus rarement possible. En fait, l’IMSI est transmis lors de la mise sous tension du mobile. Par la suite, le
réseau génère un TMSI et avec les bases de données gère et conserve la correspondance entre IMSI et TMSI. Ainsi pour toutes les autres transmissions,
seuls des TMSI seront transmis.
Authentification et chiffrement
Pour les fonctions d’authentification et de chiffrement, le GSM utilise les éléments suivants :
Une clé Ki est attribué propre pour chaque abonné par contre les algorithmes A3, A5 et A8 sont les mêmes.
• Le DECT (Digital System for Mobile Communications) est une norme d'interface radio pour les télécommunications sans fil à courte portée.
• Le GAP (Generic Access Profile) permet l'interopérabilité entre les équipements téléphoniques domestiques. Un terminal d'un constructeur "X" est
compatible avec la base d'un constructeur "Y".
ELECTRONIQUE
Le transistor est le composant électronique actif fondamental en électronique utilisé principalement comme interrupteur commandé et pour l'amplification,
mais aussi pour stabiliser une tension , moduler un signal ainsi que de nombreuses autres utilisations.
Les transistors
En 1930, Lilienfeld avait déjà déposé un brevet concernant le principe du transistor à effet de champ.
L'effet transistor a été découvert en 1947 par les américains John Bardeen, William Shockley et Walter Brattain, chercheurs de la
compagnie Bell Téléphone. Ils ont reçu le prix Nobel de physique en 1956.
Le terme transistor provient de l' anglais transconductance varistor (résistance variable de transconductance). Il a été voté par un comité
directeur de 26 personnes des Bell Labs le 28 mai 1948. Il désigne un dispositif semi-conducteur à trois électrodes actives qui permet le
contrôle grâce à une électrode d'entrée (base pour les bipolaires et grille pour les FET) d'un courant ou d'une tension sur l'une des
électrodes de sorties (collecteur pour les bipolaires et drain pour les FET).
Il a été rapidement assemblé, avec d'autres composants, au sein de circuits intégrés, ce qui lui permit de conquérir encore plus de terrain
sur les autres formes d'électronique active.
Autre :
Le principe de fonctionnement d'un transistor bipolaire est basé sur 2 jonctions PN , une en direct et une en inverse. La polarisation de la
jonction PN inverse par un faible courant électrique (parfois appelé effet transistor ) va permettre de « commander » un courant
beaucoup plus important. C'est le principe de l'amplification de courant.
Le principe de fonctionnement d'un transistor à effet de champ est d'utiliser un champ électrique pour contrôler la forme et donc la
conductivité d'un « canal » dans un matériau semiconducteur. Il concurrence le transistor bipolaire sur de nombreux domaines
d'applications, tels que l'électronique numérique.
Parmi les transistors à effet de champ (ou FET , pour Field Effect Transistor ), on peut distinguer les familles suivantes :
Le transistor dit unijonction: Ce transistor est utilisé pour ses caractéristiques de résistance dynamique négative, ce qui permet
de réaliser simplement un oscillateur à relaxation, n'est quasiment plus utilisé.
Technologie hybride
L' IGBT , est un hybride de bipolaire et de MOSFET, il a les caractéristiques d'un transistor à effet de champ en entrée et les
caractéristiques d'un transistor bipolaire en sortie. Ils sont principalement utilisé en électronique de puissance .
Phototransistor
C'est un transistor bipolaire, dont la jonction base-collecteur est sensible à la lumière. Par rapport à une photodiode , il est plus
sensible, car il bénéficie de l'effet amplificateur propre au transistor.
L'opto-isolateur
Le phototransistor est monté dans le même boîtier qu'une diode électroluminescente . C'est la lumière qui assure la transmission
des signaux entre le phototransistor et la diode électroluminescente. Le pouvoir d'isolation très élevée (de l'ordre de 5 KV) en fait
le composant idéal pour isoler galvaniquement un circuit de commande, d'un circuit de puissance.
Il existe aussi des opto-isolateurs utilisant d'autres composants en sortie tel le thyristor, le triac .
Les applications
Les deux principaux types de transistors permettent de répondre aux besoins de l'électronique analogique, numérique et de l'électronique
de puissance et haute tension.
Constitution
Les substrats utilisés vont du germanium (série AC, aujourd'hui obsolète), en passant par le silicium , l' arséniure de gallium , le silicium-
germanium et plus récemment le carbure de silicium , le nitrure de gallium , l'antimoniure d'indium.
Pour la grande majorité des applications, on utilise le silicium alors que les matériaux plus exotiques tels que l'arséniure de gallium et le
nitrure de gallium sont plutôt utilisés pour réaliser les transistors hyper-fréquence et micro-onde.
Un transistor bipolaire se compose de deux parties de substrat semi-conducteur dopées identiquement (P ou N) séparées par une
mince tranche de semiconducteur dopée inversement ; on a ainsi deux types : N-P-N et P-N-P ;
Le transistor à effet de champ classiquement se compose d'un barreau de semiconducteur dopé N ou P, et entouré en son milieu
d'un anneau de semiconducteur dopé inversement (P ou N). On parle de FET à canal N ou P suivant le dopage du barreau ;
Le transistor MOS se compose d'un barreau de semiconducteur P ou N sur lequel on fait croître par épitaxie une mince couche
d'isolant ( silice par exemple), laquelle est surmontée d'une électrode métallique.
Description schématique
Les trois connexions sont appelées :
PNP
Pour le transistor bipolaire, la flèche identifie l'émetteur ; elle pointe vers l'extérieur dans le cas d'un NPN,
vers l'intérieur dans le cas d'un PNP. L'électrode reliée à la ligne droite figure la base et l'autre électrode
NPN figure le collecteur.
Symboles de transistors
bipolaires :
B - Base
C - Collecteur
E - Émetteur
Symboles de transistors
à effet de champs :
D - le drain
G - la grille
S - la source
Dans le cas de l' effet de champ , la flèche disparaît, car le dispositif est symétrique (drain et source sont échangeables). Les traits
obliques sont habituellement remplacés par des traits droits.
Pour le transistor MOS , la grille se détache des autres électrodes, pour indiquer l'isolation due à la présence de l'oxyde.
En réalité, il existe une quatrième connexion pour les transistors à effet de champ, le substrat (parfois appelé bulk ), qui est
habituellement relié à la source (c'est la connexion entre S et les deux traits verticaux sur le schéma).
Évolution
Les premiers transistors avait comme base le germanium. Ce matériau, de nouveau utilisé pour certaines applications, avait été vite
remplacé par le silicium plus résistant et plus souple d'emploi. Il existe aussi des transistors à l'arséniure de gallium utilisés en particulier
dans le domaine de l'hyper-fréquence.
Les transistors à effet de champ étaient principalement utilisés en amplification grand gain de signal de faible amplitude, très basse
tension. Ils étaient très sensibles aux décharges électrostatiques.
Les évolutions technologiques ont donné les transistors ou commutateurs MOS de puissance, ils sont de plus en plus utilisés dans toutes
les applications de commutation de forte puissance, basse tension, vu qu'il n'ont presque plus de résistance de drain avec des capacités
de courants très intéressantes.
Emploi
Sauf dans le domaine des fortes puissances, il est rare de n'avoir qu'un transistor dans un boîtier (pour les fortes puissances on optera
pour un montage Darlington, permettant d'obtenir un gain en courant plus important).
Les circuits intégrés ont permis d'en interconnecter d'abord des milliers, puis des millions. Le milliard de transistors sur un seul
composant a été réalisé en 2007.
Ces circuits intégrés servent à réaliser des microprocesseurs, des mémoires, des DACs, etc.
Principe de fonctionnement
Les transistors MOS et bipolaires fonctionnent de façon très différentes :
Transistor MOS
Un transistor à effet de champ est un transistor unipolaire : nous allons prendrons l'exemple d'un canal N, le plus fréquent ; le canal P a un fonctionnement
identique en inversant les polarisations.
Le transistor est généralement constitué d'un substrat de type P, faiblement dopé, dans lequel on diffuse par épitaxie deux zones N+ qui deviendront la
source et le drain. Le silicium au-dessus du canal est oxydé en SiO2 puis métallisé pour réaliser la grille, ce qui constitue une capacité entre la grille et le
substrat.
En général, on relie la source à la masse, ainsi que le substrat. On porte le drain a un potentiel supérieur de ceux de la source et du substrat, créant ainsi un
champ électrostatique entre la source, le substrat et le drain.
Ou bien la capacité grille/substrat est flottante à vide : il n'y a quasiment pas de porteurs pour conduire un éventuel courant, les deux jonctions
source-substrat et substrat-drain sont polarisées en inverse ; dans ce cas, on parle d'un MOSFET à enrichissement ;
Ou bien la capacité grille/substrat est en inversion, ce qui signifie que des électrons du substrat sont attirés au voisinage de l'oxyde. Ceux-ci
constituent un afflux de porteurs minoritaires qui vont être disponible pour conduire le courant entre source et drain ; le transistor est normalement
conducteur, on parle de MOSFET à deplétion (ou à appauvrissement).
Dans les deux cas, le courant source-drain est modulé par la tension de grille. Dans le type à enrichissement, il faut appliquer une tension positive à la grille
pour amener la capacité grille-substrat en inversion : le transistor conduit à partir d'un certain seuil. Dans le type à déplétion, le transistor est conducteur
lorsque la grille est à la masse, il faut donc l'amener à une tension négative pour faire cesser la conduction.
Lorsque le transistor conduit, une augmentation de la polarisation entre le drain et la source augmente le courant (non-linéairement). À partir d'une tension de
drain supérieure à la tension de grille, le champ électrostatique entre le substrat et la grille s'inverse localement au voisinage du drain. Le canal d'électrons y
disparaît, le courant sature. Toute augmentation de la tension de drain au-delà de la tension de saturation conduit à une disparition encore plus précoce du
canal d'électrons, et à une augmentation faible voire nulle du courant.
À tension source-drain constante, le courant de saturation varie comme le carré de la tension grille-substrat.
Une analogie très utile pour comprendre facilement le fonctionnement d'un FET, sans utiliser des concepts d'électrostatique, est de le comparer à un robinet
d'eau. La grille est la commande analogue au pas de vis du robinet qui contrôle le débit d'eau (courant). Après un quart de tour, il se peut que seul un faible
filet d'eau coule. Puis, le courant augmente rapidement avec une faible rotation. Enfin, malgré des tours dans le vide, le courant n'augmente plus, il sature.
Enfin, si on veut augmenter le débit du robinet, il faut augmenter le diamètre du tuyau (différence de potentiel grille-substrat).
Bipolaire
Le transistor bipolaire fonctionne différemment. Il existe 2 types de transistors bipolaires : de type NPN et de type PNP. Nous prendrons le cas d'un type NPN
qui se caractérise par des tensions positives et un courant à la base positif.
Dans ce type de transistor, l'émetteur, relié à la première zone N, se trouve polarisé à une tension inférieure à celle de la base, reliée à la zone P. La diode
émetteur/base se trouve donc polarisée en direct, et du courant (injection d'électrons) circule entre l'émetteur et la base.
Le secret du transistor bipolaire réside dans sa géométrie : la base, faite de matériau P, présente des dimensions négligeables par rapport aux deux régions
N. Ceci a deux effets :
Le courant inverse de porteurs majoritaires type trous dans le substrat P est négligeable par rapport à l'injection d'électrons venus de l'émetteur, les
recombinaisons restent donc marginales ;
Un grand nombre d'électrons injectés par l'émetteur se retrouvent projetés vers la jonction base-collecteur, le champ électrique n'ayant pas le temps
d'agir sur les électrons en transit dans la base.
En fonctionnement normal, la jonction base-collecteur est polarisée en inverse, ce qui signifie que le potentiel du collecteur est bien supérieur à celui de la
base. Les électrons, en trajectoire balistique, se trouvent donc projetés contre une jonction polarisée en inverse. Cependant, la différence de potentiel, et donc
de niveaux d'énergie, induit un effet tunnel important qui permet à la quasi-totalité de ces électrons de franchir la zone de charge d'espace et de se retrouver «
collectés » dans le collecteur (d'où le nom).
Approximativement donc, tout le courant issu de l'émetteur se retrouve dans le collecteur. Ce courant est une fonction non-linéaire de la tension base-
émetteur. Stricto sensu, le transistor bipolaire fait donc également partie des dispositifs à transconductance, qui produisent un courant modulé par une
tension. Cependant, dans la plupart des cas, le transistor opère dans un régime de petits signaux, quasi-linéaire, où l'on préfère l'utiliser comme amplificateur
de courant : le courant collecteur est alors un simple multiple du courant de base.
En principe, le transistor bipolaire devrait être un dispositif symétrique donc réversible, mais, en pratique, pour fonctionner correctement, les dimensions des
trois parties sont très différentes et ne permettent pas un fonctionnement symétrique.
Différences
Le transistor bipolaire est un amplificateur de courant, on injecte un courant dans l'espace base/émetteur afin de créer un courant multiplié par le
gain du transistor entre l'émetteur et le collecteur.
Les transistors bipolaires N.P.N. (négatif-positif-négatif) laissent circuler un courant de la base (+) vers l'émetteur (-) sont plus rapides et ont
une meilleure tenue en tension que les transistors P.N.P. base (-) émetteur (+), mais peuvent être produits avec des caractéristiques
complémentaires par les fabricants pour les applications le nécessitant.
Le transistor à effet de champ. Son organe de commande est la grille (gate en anglais). Celle-ci n'a besoin que d'une tension (ou un potentiel) entre
la grille et la source pour contrôler le courant entre la source et le drain. Le courant de grille est nul (ou négligeable) en régime statique, puisque la
grille se comporte vis-à-vis du circuit de commande comme un condensateur de faible capacité.
Il existe plusieurs types de transistors à effet de champ: technologie de déplétion, d'enrichissement (de loin les plus nombreux) et, de jonction
(JFET). Chaque famille se divise en canaux N et P, ce qui fait six types différents.
Pour les transistors à déplétion ainsi que les JFET, le canal drain-source est conducteur si le potentiel de grille est nul. Pour le bloquer, il faut
rendre ce potentiel négatif (pour les canaux N) ou positif (pour les canaux P).
Inversement, les transistors à enrichissement sont bloqués lorsque la grille a un potentiel [Link] on polarise la grille d'un transistor N par une tension
positive ou celle d'un transistor P par une tension négative, l'espace source drain du transistor devient passant.
Chacun de ces transistors est caractérisé par une tension de seuil, correspondant à la tension de grille qui fait la transition entre le comportement
bloqué du transistor et son comportement conducteur. Contrairement aux transistors bipolaires, dont la tension de seuil ne dépend que du semi-
conducteur utilisé (silicium, germanium ou As-Ga), la tension de seuil des transistors à effet de champ dépend étroitement de la technologie, et peut
varier notablement même au sein d'un même lot. Le transistor à effet de champ à déplétion à canal N est le semi-conducteur dont les caractéristiques
se rapprochent le plus des anciens tubes à vide (triodes). À puissance égale, les transistors N sont plus petits que les P. À géométrie égale, les
transistors N sont plus rapides que les P. Cela est dû à une plus grande conductivité électrique des transistors de type N.
La plupart des circuits intégrés digitaux (microprocesseurs entre autres) utilisent la technologie C-MOS qui intègre à grande échelle (plusieurs
millions) des transistors à effet de champ (à enrichissement) complémentaires (c'est-à-dire qu'on retrouve des N et des P). Pour une même fonction,
l'intégration de transistors bipolaires consommerait beaucoup plus de courant. Un circuit C-MOS ne consomme quasiment rien si la fréquence
d'horloge est modérée, ce qui permet le développement de circuits à piles ou batteries (téléphones ou ordinateurs portables, appareils photos ...)
Comme les transistors MOS et MOSFET, les transistors à effet de champ sont plus fragiles que les transistors à jonction, notamment parce qu'ils peuvent
claquer suite à une décharge d'électricité statique. Il faut donc les protéger contre les surtension d'origine statique ou dynamique afin d'éviter leur destruction.
en court-circuitant les connexions externes pendant leur stockage, leur manipulation ou leur soudure,
en les piquant dans des mousses conductrices.
LES CONDENSATEURS
Un condensateur est un composant électronique ou électrique dont l'intérêt de base est de pouvoir recevoir et rendre une charge électrique, dont la valeur
est proportionnelle à la tension. Il se caractérise par sa capacité électrique . Son comportement électrique idéal est donc :
où :
Les signes sont tels que la tension augmente dans le terminal par lequel entre le courant.
stabiliser une alimentation électrique (il se décharge lors des chutes de tension et se charge lors des pics de tension) ;
traiter des signaux périodiques ;
stocker de l'énergie, auquel cas on parle de supercondensateur .
Les propriétés
Un condensateur laisse passer le courant alternatif et inversement ne laisse pas passer le courant continu.
La tension aux bornes d'un condensateur varie en fonction du courant de charge ou de décharge et sera conservée si on le débranche.
Il s'oppose aux variations de tension à ses bornes.
Un condensateur peut désigner spécifiquement un composant électrique ou électronique conçu pour pouvoir emmagasiner une charge électrique importante
sous un faible volume ; il constitue ainsi un véritable accumulateur d'énergie.
En Octobre 1745 , Ewald Georg von Kleist de Pomerania inventa le premier condensateur. Le physicien hollandais Pieter van Musschenbroek le découvrit de
façon indépendante en janvier 1746 . Il l'appela la bouteille de Leyde car Musschenbroek travaillait à l' Université de Leyde .
Un condensateur est constitué fondamentalement de deux conducteurs électriques, ou "armatures", très proches l'un de l'autre, mais séparés par un
isolant , ou "diélectrique".
Les formules:
La charge électrique emmagasinée par un condensateur est proportionnelle à la tension appliquée entre ses 2 armatures. Aussi, un tel composant est-il
principalement caractérisé par sa capacité , rapport entre sa charge et la tension.
La capacité électrique d'un condensateur se détermine essentiellement en fonction de la géométrie des armatures et de la nature du ou des isolants ; la
formule simplifiée suivante est souvent utilisée pour estimer sa valeur :
avec S : surface des armatures en regard, e distance entre les armatures et e la permittivité du diélectrique .
L'unité de base de capacité électrique , le Farad représente une capacité très élevée, rarement atteinte (à l'exception des super-condensateurs) ;
ainsi, de très petits condensateurs peuvent avoir des capacités de l'ordre du picofarad .
Une des caractéristiques des condensateurs est leur tension de service limite, qui dépend de la nature et de l'épaisseur de l'isolant entrant dans leur
constitution. Cet isolant présente une certaine rigidité diélectrique, c'est-à-dire une tension au-delà de laquelle il peut apparaître un violent courant de
claquage qui entraîne une destruction du composant (sauf pour certains d'entre eux, dont l'isolant est dit auto-cicatrisant).
L' impédance d'un condensateur alimenté par une tension sinusoïdale est :
et l'impédance complexe
Condensateur en parallèle
Le condensateur équivalent à n condensateurs en parallèle a pour capacité la somme des capacités des n condensateurs considérés.
Condensateur en série
Le condensateur équivalent à n condensateurs en série a pour inverse de sa capacité la somme des inverses des capacités des n condensateurs
considérés.
Remarque : Cette association est généralement une association de n condensateurs identiques ayant pour but d'obtenir un ensemble dont la tension
maximale qu'il peut supporter est égale à n fois celle des condensateurs utilisés, ceci au prix d'une division de la capacité par n .
la valeur de la capacité ;
la tension de service;
la résistance série ;
l'inductance série ;
la résistance parallèle ;
Il y a aussi :
les condensateurs non polarisés, de faible valeur ( nanofarad ou microfarad ) sont essentiellement de technologie « mylar » ou « céramique » ;
les condensateurs dits polarisés sont sensibles à la polarité de la tension électrique qui leur est appliquée : ils ont une borne négative et une positive.
Ce sont les condensateurs de technologie « électrolytique » (également appelée, par abus de langage, « chimique ») et « tantale ». Une erreur de
branchement ou une inversion accidentelle de la tension conduit généralement à leur destruction, qui peut être très brutale, voire explosive ;
les super-condensateurs ( ultracapacitor ) non polarisés ont une énorme capacité mais une faible tenue en tension (quelques volts). Ils ont été
développés suite aux recherches effectuées pour améliorer les accumulateurs . La capacité qui peut dépasser la centaine de Farad est obtenue grâce
à l'immense surface développée d'électrodes sur support de charbon actif ;
les condensateurs à capacité variable, employés par exemple pour la réalisation des filtres RLC réglables.
Les condensateurs au tantale sont des électrolytiques où la gelée est plus dense et meilleure conductrice. Il en résulte des caractéristiques meilleures :
moins de résistance ;
moins d'inductances parasites ;
de plus de petites résonances.
C'est pourquoi ces condensateurs sont déconseillés pour la transmission de signaux sauf lorsqu'ils sont associés à d'autres condensateurs non
électrolytiques pour former un condensateur composite.
La céramique présente :
les avantages d'une inductance extrêmement faible et d'une très grande résistance série, c'est pourquoi les condensateurs à isolant de céramique
sont largement utilisés :
dans les applications haute fréquence (jusqu'à des centaines de giga Hertz )
dans les applications haute tension (circuits à valves ( tubes ) par exemple)
pour les composants de surface, car ils se prêtent bien à une miniaturisation.
les inconvénients :
d'être mécaniquement fragile
d'avoir un champ d'éclair pas très élevé. Ils nécessitent une certaine distance entre les plaques et se prêtent donc mal aux grandes capacités
(Ce qui n'a pas d'importance dans les hautes fréquences).
Ils ont une légère hystérésis de charge et génèrent un tout petit peu de bruit lorsque le dV/dt (courant donc) est élevé (grande amplitude de
signal ou très haute fréquence). Ce bruit étant un bruit blanc a peu d'effet sur les circuits haute fréquence, ceux-ci étant généralement
accordés ( syntonisés ) sur une bande étroite.
Les condensateurs à isolant plastique ( polyéthylène , polystyrène et polypropylène sont les plus courants) ont été conçus spécifiquement pour fins de
découplage de signaux et d'utilisation dans des filtres. Leur hystérésis de charge est très faible (nul pour le polypropylène) et, de ce fait, ils sont précieux pour
le traitement de très faibles signaux (radio- télescopes , communications spatiales et... audio de référence). Le polystyrène et le polypropylène n'ont pas
d'effet de batterie (le polyéthylène en a un très faible).
Polyester
Le polyester est principalement utilisé sous 2 de ses formes : le polyéthylène téréphtalate (PET), et le polyéthylène naphtalate (PEN)
L'avantage du polyéthylène est qu'il peut être étiré (ou laminé ) très mince et peut donc permettre des capacités appréciables dans un petit volume. (Pas
comparables aux électrolytiques, quant même.) Il est facile à manufacturer et à former, et ces condensateurs sont donc peu coûteux. Les condensateurs à
polyéthylène sont très employés dans les circuits audio de moyenne à bonne qualité et dans des circuits demandant une faible variation de capacité avec
l'âge et l'humidité. Ils sont faciles à reconnaître à leur couleur jaune serin.
Polystyrène
Le polystyrène n'est pas aussi facile à fabriquer avec précision que le polyéthylène. Il n'est pas coûteux en soi (des meubles de patio et des emballages sont
faits de polystyrène) mais difficile à laminer précisément en couches minces. Pour cette raison, les condensateurs en polystyrène sont relativement
encombrants pour une capacité donnée (un 0.01µF étant aussi volumineux qu'un électrolytique de 200µF). Ils sont aussi nettement plus coûteux que les
polyéthylènes. Le grand avantage des condensateurs en polystyrène est leur qualité. Ils sont très stables. Pour cette raison, ils sont employés là où la
précision est requise : circuits syntonisés à bande étroite, bases de temps, etc. Leur bruit est pratiquement indécelable et très proche de la limite théorique
( limite de Johnson ). Ils sont très peu sensibles à la température et à l'âge et, pour autant qu'on reste en-deçà des limites de courant et tension du
manufacturier, insensibles à l'usage. Leur inductance parasite dépend du montage : certains sont faits de deux feuilles de métal et deux feuilles de
polystyrène enroulées en spirale : ceux-là présentent une bonne précision de la capacité au prix d'une certaine inductance parasite (faible). D'autres sont faits
de plaques moulées dans un bloc de polystyrène : ils sont moins précis pour la capacitance (ce qui n'est pas un problème pour les circuits de précision qui ont
toujours un élément ajustable) mais ont une inductance parasite extrêmement faible. Leur comportement en audio est excellent .
Polypropylène
Les condensateurs polypropylène ( PP ) sont très utilisés en audio. Résistance série extrême, aucun effet de batterie, aucune hystérésis de charge
mesurable, bruit presqu'aussi faible que le polystyrène... Ils sont aussi moins chers que les condensateurs au polystyrène. (Le polypropylène est très connu
des manufacturiers de plastique : beaucoup de jouets, de meubles de patio, boîtiers divers, téléphones portables et autres accessoires, même ...les sacs
d'épicerie sont faits de polypropylène). Ils sont à toutes fins pratiques aussi stables que le polystyrène (la différence peut prendre des siècles avant d'être
appréciable). Ils sont moins précis en valeur nominale que les condensateurs au polystyrène mais, à part dans les circuits de référence (bases de temps ultra-
précises), ceci n'a aucune importance. Ils sont aussi assez gros pour leur capacité, le polypropylène se prêtant mal, lui aussi, à un laminage très fin.
Les condensateurs à film papier ont été utilisés dans les anciens récepteurs radio.
Les condensateurs multicouches avec un diélectrique en verre sont utilisés pour leur stabilité en température, et en durée de vie.
LES RESISTANCES
Généralités:
On fait souvent l'analogie entre le débit d'eau et le courant électrique I (où débit d'électrons), la différence de hauteur(pression) à la Différence De Potentiel
électrique(où Tension U ) et enfin, le rétrécissement d'une conduite à une résistance R .
Une résistance est donc un composant électronique qui s'oppose au passage du courant.
Symbole européen Symbole américain
La résistance est aussi responsable d'une dissipation d' énergie sous forme de chaleur. Cette propriété porte le nom d' effet Joule . Cette production de
chaleur est parfois un effet souhaité (résistances de chauffage), parfois un effet néfaste (pertes Joule).
Lorsqu'un dipôle est traversé par un courant électrique, sa résistance provoque un échauffement qui modifie sa température, laquelle modifie sa résistance.
La résistance d'un dipôle dépend donc fortement des conditions d'utilisation.
On distingue :
Les résistances de puissance dont le but est de produire de la chaleur, exemple : chauffage électrique. Généralement une plaque indique la tension
nominale d'utilisation et la valeur de la puissance produite.
Les résistances fixes dont le but est d'obtenir, dans un montage électronique, des potentiels ou des courants parfaitement déterminés en certains
endroits du circuits. On indique alors par un code de couleur sa valeur de résistance et la précision de cette valeur. La puissance maximale qu'elle
peut dissiper se devine (parfois) par sa taille. Ces résistances sont les seules à véritablement vérifier la loi d'Ohm dans un grand domaine d'utilisation
(or elles ont été conçues après sa mort)
Les résistances variables qui permettent à un utilisateur d'ajuster un courant (rhéostat) ou une tension (potentiomètre).
Les dipôles dont la résistance varie avec une grandeur physique :
La température : CTN (résistance à coefficient de température négatif) et CTP (à coefficient de température positif)
L'éclairement : photorésistances
Les forces appliquées : jauges de contraintes...
Les formules:
Pour un conducteur filiforme homogène, à une température donnée, il existe une relation permettant de calculer sa résistance en fonction du matériau qui le
constitue et de ses dimensions :
Aussi, pour une même tension U (où DDP), plus la résistance R sera forte, plus l' Intensitè du courant la traversant sera faible.
D'où la plus célébre des formules:
La LOI D'OHM :
U=R.I
Une résistance a une courbe de réponse linèaire de la forme U= f(I). c'est donc une droite. Le courant qui la
traverse est directement proportionnel à la tension entre ses bornes.
A noter que dans la pratique cette propriété ne se vérifie pas tout à fait à cause de la variation de résistivité
avec la température .
La puissance dissipée par une résistance est calculèe par la formule:
P = U.I
P = R.I² et P = U²/R
P s'exprime en Watts (W). P est la puissance dissipée par la résistance et transformée sous forme de chaleur.
La résistance équivalente de n résistances en série a pour valeur la somme des résistances des n résistances considérées.
Req= R1 + R2 + R3 + ...
La résistance équivalente de n résistances en parallèle a pour inverse de sa valeur la somme des inverses des résistances des n résistances
considérées.
Exemple pour deux résistances:
La Valeur ohmique:
Elle s'exprime en Ohm. Plus cette valeur est importante plus la résistance va s'opposer au passage du courant I.
La tolérance:
La valeur des résistances sont plus ou moins précises. Pour une résistance de 1000 Ohms 5% sa valeur sera comprise entre 0.95*1000 = 950 Ohms et
1.05*1000 = 1050 Ohms.
C'est la puissance en watts que la résistance peut dissiper dans régime continu sans détérioration à la températue nominale de service.
CODE DES COULEURS
Les résistances
L'unité des résistances est l' Ohm.
Les résistances sont codées de gauche à droite en partant de l'anneau situé au bord du corps de la résistance.
Chiffres significatifs, Multiplicateur, Tolérance et éventuellement Coefficient de température. Cela donne:
3 anneaux => 2 Chiffres, Multiplicateur et sans anneau de Tolérance = 20%.
4 anneaux => 2 Chiffres, Multiplicateur, Tolérance.
5 anneaux => 3 Chiffres, Multiplicateur, Tolérance.
6 anneaux => 3 Chiffres, Multiplicateur, Tolérance, Coefficient de température.
470 Ohm 5%
Coefficient de
Couleurs 2 ou 3 Chiffres significatifs Multiplicateur Tolérance
température
Noir 0 1
Violet 7 0.1%
Gris 8
Blanc 9
Or 0.1 5%
Le marquage en clair:
Pour les resistances de puissance ou de précision, les valeurs sont souvent indiquées en clair.
La tolérance est donnée par une lettre généralement placée après la valeur de la résistance. Dans notre exemple ci dessus, La lettre est J.
Elle peut également être écrite en clair (par exemple 5%).
Lettre correspondant
B C D F G H J K M
à la tolérance
Exemple:
4W 33WK c'est donc une résistance de 4Watts de puissance, d'une valeur de 33 Ohms et ayant une tolérance de 10%.
Un autre code, surtout utilisé sur les résistances C.M.S. et sur les résistances variables:
- Il s'apparente beaucoup au code couleur cité ci dessus, mais a la place des couleurs, on a mis les chiffres correspondants.
Ainsi une résistance de 24 Kilo Ohms sera codée: 243.
Les deux premiers chiffres sont les chiffres significatifs. Quant au troisième chiffre, il correspond au nombre de zéros qu'il faut ajouter pour obtenir la valeur de
la résistance.
Pour la tolérance, c'est la même chose que pour le code précédent.
Exemples:
471H = 470 Ohm 2.5%
105J = 1 Mega Ohm 5%
222M = 2.2 Kilo Ohm 20%
473K = 47 Kilo Ohm, 10% * (la lettre K Correspond a la tolérance)
Les condensateurs
L'unité des condensateurs est le picoFarad.
Les condensateurs reprend le code des résistances. On part de la bande du haut, opposée aux pattes et on descend. Seul la tolérance (4ème Bande) et la
tension d'isolement (propre aux condensateurs) diffèrent. (dernier marquage situé en bas du condensateur)
Exemples:
La cinquième barre indique la tension maximale du diélectrique.
Marron 100 V
Rouge 250 V
Jaune 400 V
Bleu 630 V
Table de conversion:
Micro Farad (µF) Nano Farad (nF) Pico Farad (pF)
0.001 1 1000
0.01 10 10 000
0.047 47 47 000
Nota:
Pour tous les autres condensateurs, électro-chimiques etc., la valeur et la tension sont marqués en clair.