Notions fondamentales des télécommunications
Notions fondamentales des télécommunications
1
est quantifiée. « L’aspect le plus important en science des télécommunications est la mesure
de la quantité d'information contenue dans un message »
Dans la théorie de C. Shannon la quantité d’information est un nombre réel compris entre 0 et 1.
Une information nulle a pour mesure 0 et une information « pleine échelle » a pour mesure 1.
Cette valeur est assez difficile à cerner, et seul le destinataire est habilité à la fixer comme
l’a précisé C. Shannon :
Voici un exemple simple pour clarifier le concept, et surtout établir un lien qui existe
réellement entre l’information au sens des masses media et l’information au sens de la théorie
des télécommunications :
1- Si je dis à quelqu’un « la température maintenant est de 8° », et qu’il ne le savait pas
jusque-là, il y a communication d’information
2- Si je lui répète juste après « la température maintenant est de 8° », la quantité
d’information est nulle car il savait déjà que la température est de 8°
3- Il existe un troisième cas de figure, j’aurais pu annoncer à mon interlocuteur « la
température maintenant est de 47° Fahrenheit », ici il y a information, mais en moins
grande quantité que dans le cas 1. C’est à la charge du destinataire de faire l’effort
supplémentaire de convertir 47°F en 8°C pour être réellement informé.
Il est important de noter dans cette introduction que dans la théorie de Shannon une nette
distinction est établie entre les concepts message, signal et information. En règle générale
dans le domaine des télécommunications, un message contenant ou non de l’information est
transporté par un signal.
3. Télécommunications analogiques
On a d’abord cherché à transporter le signal tel qu’il est émis, c’est à dire dans le cas de la
téléphonie en analogique. Le téléphone, la radio, la télévision continuent à utiliser
majoritairement, dans le monde, des supports de transmission analogiques, qu’il s’agisse de fils
de cuivre ou de l’atmosphère pour les transmissions dites hertziennes.
Les seules transformations que l’on fait subir au signal sont des transformations
analogiques : amplification du signal pour le régénérer car il a tendance à s’affaiblir avec
l’augmentation des distances et surtout conversion analogique, comme celle qui transforme
dans un microphone les vibrations d’une membrane, au contact des vibrations sonores de l’air,
en oscillations d’un signal électrique (ou l’inverse dans une enceinte acoustique).
Dans le monde des télécommunications analogiques, on cherche donc surtout à transporter
sans altération le signal émis par l’émetteur. Ceci n’est pas simple car les supports de
transmission ne laissent pas passer toutes les fréquences provoquant ainsi un appauvrissement
2
du signal (ex : différence entre une voix au téléphone et la même voix en direct). De plus
l’électronique analogique est sensible à des bruits parasites et génère elle-même ses bruits de
fond.
4. Télécommunications numériques
Pour supprimer les inconvénients des télécommunications analogiques, on a imaginé
d’avoir recours à la transmission numérique. Cela signifie qu’au lieu de transporter une variation
(ou modulation) des ondes qui reproduit la forme très complexe du signal émis, on transporte une
"représentation" de ce signal sous une forme beaucoup plus simple. La représentation du signal
d’origine sera obtenue par une conversion analogique-numérique : ce dispositif électronique,
aujourd’hui contenu dans un composant, prélève à intervalles réguliers des échantillons du signal,
mesure leur amplitude en la comparant à des étalons et attribue une valeur numérique à chaque
échantillon. C’est ce train d’informations, constitué des valeurs des différents échantillons
représentant les valeurs successives du signal d’origine, qui sera transporté. Pour peu que l’on ait
prélever suffisamment d’échantillons avec suffisamment de précision, il sera possible à l’autre
extrémité, par une opération inverse dans un convertisseur numérique-analogique, de reconstituer
le signal d’origine. Les avantages d’une telle solution sont considérables : puisque la transmission
est faite de quelques valeurs discontinues, elle se présente beaucoup plus simplement que le
signal qu’elle représente. De ce fait une transmission numérique est beaucoup moins sensible au
bruit et aux légères variations dus aux imperfections de la transmission. En conséquence, la
transmission numérique pourra se contenter de lignes de moins bonne qualité, ou plutôt à qualité
égale on pourra transmettre plus de signaux sur la même ligne.
5. Services offerts par les télécommunications
3
Figure 1.1 : schéma général d’une chaîne de transmission
La source envoie un message, souvent constitué d’une série de symboles pris dans un alphabet
donné. On parle dans ce cas de message numérique.
• Données discrètes : texte, numéros...
• Données analogiques numérisées : image, voix, vidéo...
L’émetteur prend ce message numérique et réalise les étapes suivantes :
• Codage source : compression des données pour qu’elles prennent le moins de place
possible. Cela revient à remplacer le message à envoyer par un message le plus court
possible, souvent représenté sous forme d’une série de 0 et de 1.
• Codage canal : rajout de bits d’information supplémentaires dans le message pour
permettre de corriger les éventuelles erreurs de transmission
• Transformer le message numérique en un signal physique (onde électromagnétique,
signal électrique, etc.…) qui puisse être transmis sur le canal de transmission
Le canal achemine le signal physique d’un point à l’autre
• Le canal peut être de différents types : câbles coaxiaux, paires torsadées, réseau
hertzien, infrarouge, fibres optiques....
• Généralement perturbé par un bruit qui dépendra de l’environnement et de la nature du
canal : perturbations électriques, réflexion d’ondes, détérioration du câble, etc...
• Ce bruit a pour conséquence une dégradation du signal voire la perte de parties du signal
Le récepteur prend le signal physique et réalise les étapes suivantes :
4
ancien de l’être humain, ainsi que des autres espèces animales, de communiquer, autrement
dit « de mettre en commun, de faire connaître des informations ».
Les Grecs, l’Empire romain et les Gaulois
• Les Grecs anciens : les signaux de feux, « Pour annoncer la bonne nouvelle, les messagers
allumaient des feux qui, dans l’obscurité, étaient repérés à des kilomètres à la ronde. Ces
feux étaient petit à petit relayés par d’autres postes jusqu’au destinataire final qui en allumait
un dernier pour annoncer qu’il avait bien reçu le message ».
• L’Empire romain : des signaux de feux étaient également utilisés. En effet, des « tours à
feux » permettaient aux marins de se repérer à l’approche des côtes. Ces tours étaient alors
un moyen de guider les marins. Les Romains créèrent ainsi un réseau de postes
télégraphiques reliant 3’000 villes d’Europe et d’Asie. A l’époque d’Auguste (62 av J.-C. -
14 ap J.-C.), une organisation « postale » voit le jour. Celui-ci établit un réseau de voies
militaires jalonnées de relais de chevaux et de magasins d’approvisionnement. Ce système
appelé 𝒄𝒖𝒓𝒔𝒖𝒔 𝒑𝒖𝒃𝒍𝒊𝒄𝒖𝒔 (course publique) permettait au cavalier de franchir plus
rapidement les distances en changeant de cheval à chaque relais. Cette organisation
disparaît avec la chute de l’empire romain au Vème siècle.
• Les Gaulois possédaient leur télégraphe « oral ». Ainsi comme le disait César : « Quand il
arrive chez eux quelque événement d’importance, les premiers qui l’apprennent le
proclament à grands cris dans la campagne. Ceux qui entendent ces cris les transmettent
à d’autres, et ainsi de suite, de village en village ; si bien que la nouvelle traverse la Gaule
avec la vitesse de l’oiseau ».
La télégraphie
• Le télégraphe optique : Claude Chappe et ses quatre frères en 1794,
• La télégraphie sans fil, en 1896 (le physicien Russe Alexandre Popoff pense ainsi à
l’utilisation des ondes hertziennes – découvertes quelques années auparavant par Heinrich
Hertz).
La radio
La radio doit son invention au physicien italien Giuglielmo Marconi. Après plusieurs tests de
transmission de signaux par le biais d’ondes électromagnétiques, il effectue, en 1895, la première
transmission radio de l’histoire, à Salvan, en Valais. Alors que les scientifiques de l’époque
prétendaient qu’une telle transmission entre deux points n’était possible que dans un espace
dégagé de tout obstacle, Marconi, aidé de Maurice Gay-Balmaz, installe un émetteur et un
récepteur distants de 1’500 mètres l’un de l’autre et séparés par une colline. Le succès est au
rendez-vous, mais Marconi finit par s’exiler en Angleterre, son pays n’étant pas convaincu par
l’utilité de sa découverte.
C’est là qu’il perfectionne son invention pour finalement créer en juillet 1897 la Wireless
Telegraph Trading Signal CO. LTD, puis en novembre sa toute première station émettrice, qui
établit une liaison de 23 kilomètres entre l’île de Wight et Bournemouth, sur la côte Sud. La
5
conquête des distances est lancée : elle atteindra les 300 kilomètres le 23 janvier 1901, entre l’île
de Wight et le cap Lizard en Cornouailles, puis deviendra transatlantique le 12 décembre de la
même année.
Les premières communications commerciales voient le jour et c’est dans le domaine
maritime que l’invention de Marconi va connaître sa plus grande expansion.
Le développement du système de Marconi a suscité l’intérêt d’autres scientifiques et trois
autres procédés ont pu être brevetés : Telefunken, Lee de Forest et United Wireless. La
concurrence entre ces procédés, ainsi qu’entre les 15 compagnies de radiocommunication
existantes à l’époque a pour conséquence que les opérateurs radio ont pour consigne de ne pas
intercepter les messages provenant de la concurrence. La radio subit les impacts négatifs dus à
son développement et à un manque de coordination universelle que le naufrage du Titanic a
dévoilé au grand jour. Marconi reçoit le prix Nobel de physique en 1909 pour « sa
contribution au développement de la télégraphie sans fil ».
Le Télex
Le développement de la télégraphie sans fil et de la radio dans les années 1930 ont permis
l’apparition d’un nouveau système de communication : le Télex - contraction de la locution anglaise
telegraph exchange. Le Télex est un réseau international de communication reliant des
téléscripteurs qui transmettent des messages via des signaux électriques. Les informations sont
automatiquement décodées et retranscrites par le téléscripteur, qui remplace ainsi les anciens
opérateurs Morse. Les avantages de ce système sont son faible coût ainsi que sa fiabilité, puisque
chaque message reçu peut être confirmé par le destinataire par un mécanisme de réponse
automatique. C’est en Allemagne que se développe le premier grand réseau Télex, dans les
années 1930, qui permet d’assurer les communications au sein du gouvernement. En Suisse, les
PTT (Postes, Téléphones et Télégraphes) développent le premier réseau Télex national en 1934,
d’abord entre les villes de Zurich, Bâle et Berne. Par la suite, la plupart des pays font de même, la
France inaugurant son propre réseau en 1946.
Le téléphone classique
Parallèlement à la télégraphie, les télécommunications connaissent au XIXème siècle une
autre grande voie de développement avec le téléphone. Deux grands chercheurs s’opposent alors
sur cette piste : Thomas Edison et Graham Bell. Ce dernier finit par l’emporter, mais Edison
améliorera la qualité sonore de l’invention, grâce au microphone à cartouche de carbone. En juillet
1875, Bell, accompagné de son assistant Thomas Watson, effectue la première transmission
vocale par téléphone. Les deux compères se lancent alors dans une course à la qualité nécessaire
à la commercialisation du produit, concurrencés en cela par un autre inventeur, Elisha Gray. Après
une course effrénée, Bell et Watson purent déposer leur brevet le 14 février 1876, deux heures
seulement avant Elisha Gray.
C’est en juin 1876 que Bell lance officiellement son invention, après en avoir amélioré le
dispositif initial. Ce dispositif, relativement simple à réaliser, fut publié en septembre de la
même année dans le magazine américain Scientific American. Aux quatre coins du monde,
des amateurs se mettent alors à créer leur propre téléphone. Les communications devaient à
l’origine passer par l’intermédiaire d’opératrices, qui mettaient les deux interlocuteurs en
relation. En 1891, Almon Strowger, entrepreneur de pompes funèbres, invente le
commutateur automatique, persuadé que sa faillite provient des opératrices, l’une étant la
femme de son principal concurrent. Cet apport, suivi de l’invention de la triode par Lee De
Forest, marque les premiers pas vers l’électronique.
6
En 1922, à la mort de Graham Bell, il y a alors 13 millions de téléphones en service dans le
monde. A fin 2006, le nombre d’abonnés à une ligne fixe s’élevait à 1,27 milliards. Alors que
les premiers réseaux se limitaient à une région, puis à un pays, avec la libéralisation du
marché, les entreprises nationales de téléphonie dépassent aujourd’hui souvent les frontières
de leur pays d’origine. Leur domaine d’activités s’est d’ailleurs depuis longtemps élargi aux
nouvelles offres de télécommunications.
Le téléphone mobile
Le téléphone mobile est de nos jours un objet inséparable d’une très grande majorité
d’individus, au point même de modifier nos relations sociales et notre organisation du temps.
Apparu dans le grand public dès les années 1990, son origine remonte pourtant aux années 1940,
avec la découverte de la technologie radio. Cependant, ce n’est qu’en 1973 que l’inventeur du
téléphone portable, le docteur Martin Cooper, passe son premier appel par ce biais. Le qualificatif
de mobile n’apparaît qu’avec le premier téléphone réellement miniaturisé, créé par la marque
Motorola, en 1983.
En 1982, la Conférence européenne des administrations des postes et télécommunications
(CEPT) lance le Groupe spécial mobile (GSM), chargé de développer un standard pour la
téléphonie mobile en Europe. En 1987, 13 pays européens adoptent la convention qui lance le
standard GSM (qui signifie cette fois Global System for Mobile communication). Cette
technologie est utilisée aujourd’hui par plus de 3 milliards d’utilisateurs dans 212 pays et
territoires.
La télévision
Le 24 décembre 1883, l’ingénieur allemand Paul Nipkow, alors étudiant à Berlin, réalise
pour la première fois dans une chambre d’hôtel le balayage d’une image à l’aide d’un disque
percé de trous : le principe de la télévision naissait, avant d’être breveté en 1884. Se basant
sur ce procédé, ainsi que sur les travaux notamment de Herz, de Marconi et de Braun (tube
cathodique), l’inventeur écossais John Baird présente en 1926 son procédé de réception
d’images, qu’il nomme « Televisor ».
Le public voit apparaître sur l’écran la première émission télévisée : le visage de deux
ventriloques. Cette même année, les sociétés Westinghouse, General Electric et RCA s’unissent
pour former la National Broadcasting Company, plus connue par ses initiales, NBC. Douze ans
plus tard, le même John Baird, appliqué à améliorer son invention, organise la première
démonstration expérimentale de la télévision en couleur. La télévision s’exporte mondialement,
mais ce n’est qu’en 1951 que les premières émissions de télévision publique en couleur
apparaissent, sur la chaîne américaine CBS.
L’informatique et Internet
Pour le Petit Larousse, l’informatique est « la science du traitement automatique et rationnel
de l’information en tant que support des connaissances et des communications (...), mettant en
œuvre des matériels (ordinateurs) et des logiciels (en anglais, respectivement hardware et
software) ». La numérisation de l’information est à la base de l’informatique. Elle consiste en la
conversion d’un objet réel en une suite de nombres permettant de le représenter informatiquement
ou électroniquement.
7
L’arithmétique binaire sur laquelle se base la numérisation n’est pas récente, puisque le
concept apparaît déjà en 3000 av. J.-C. dans le symbole de l’empereur chinois Fou Hi, l’octogone
à trigramme, le Yin et Yang.
L’Américain d’origine hongroise John Von Neumann (1903-1957) crée en 1944 la structure
qui compose les ordinateurs modernes, l’architecture de Von Neumann : unité de traitement,
unité de contrôle, la mémoire et les dispositifs d’entrée-sortie qui permettent de communiquer
avec le monde extérieur. L’informatique permet ainsi de garder des informations en mémoire,
dont la capacité ne cesse d’augmenter avec la technologie.
Ce n’est qu’avec l’avènement d’Internet et de son corollaire, le World Wide Web, que les
informations ne sont plus seulement stockées, mais également échangées et distribuées aux
quatre coins du monde. C’est la Bell Company qui, en 1958, invente le modem, qui permettra de
transmettre des informations en données binaires sur une simple ligne téléphonique.
1907 : Lee de Forest invente la triode qui permet l’amplification analogique de signaux
=>transmission longue distance.
1921 : Edwin Armstrong invente la FM (Modulation de Fréquences).
1928 : 1ère liaison radiotéléphonique commerciale transatlantique.
1935 : 1ère émission TV en France (Paris).
1938 : Alec Reeves invente la modulation par impulsions codées (MIC, ou PCM pour Pulse code
Modulation) : 1ère représentation numérique d’un signal analogique.
1948 : Invention du transistor => essor de l’électronique
1948 : Claude Shannon développe les bases de théorie de l’information : base de la
numérisation.
1956 : Premier câble transatlantique téléphonique (TAT1) : 60 circuits téléphoniques.
1956 : Premier réseau de radiotéléphonie français (10 000 abonnés).
1962 : 1er satellite de communication ("Telstar-1"), destiné aux communications téléphoniques et
télévision. 1ère émission de télévision entre USA et Europe.
1965 : Premier satellite géostationnaire "Early Bird" (simultanément téléphonie et télévision).
1965 : 3 millions d’abonnés au téléphone en France.
1969 : Transmission en direct des premiers pas sur la Lune.
1971 : Début du système de repérage par satellite GPS. Entièrement opérationnel en 1995 (28
satellites).
1972 : Naissance de l’InterNetworking, organisme chargé de la gestion d’Internet.
1973 : Angleterre et Norvège rejoignent Internet (1 ordinateur par pays !).
1980 : La sonde spatiale Voyager-1 transmet des photos de Jupiter et de Saturne.
1981 : Lancement du Satellite Télécom 1A (France).
8
1984 : Début des réseaux cellulaires de radiocommunications mobiles aux USA.
1986 : Ouverture du service de mobiles "Radiocom2000" (première génération de téléphonie
mobile... en voiture !)
1987 : Mise en service en France du premier réseau entièrement numérique à intégration de
services (RNIS).
1993, lancement commercial de la 2ème génération de téléphonie mobile (GSM) en France
(ITINERIS). Premier succès commercial de téléphonie mobile.
1997 : Arrêt de l’usage du Morse dans les télécommunications Radio-maritimes en France...
1999 : 35 millions d’abonnés filaires, et le téléphone portable dépasse toutes les
prévisions.
2001 : commercialisation de l’ADSL en France, jusqu’à 8 Mbit/s en réception et 640 Kbit/s
en émission.
2003 : Nouveau record de débit longue distance avec l’internet nouvelle génération IPv6 :
débit à flux unique sur TCP (Transfer Control Protocol) de 983 Gbit/s pendant plus d’une
heure entre le CERN et Chicago.
2004 : Lancement de l’UMTS en France, 3ème génération de téléphonie mobile. Nouvelles
applications (visioconférence, web, mail, streaming...). Développement des Smartphones.
2005 : Lancement officielle de la TNT (Télévision Numérique Terrestre) en France
(procédure débutée en 1996...).
>2006: Vers la convergence voix et données. Donc convergence entre réseaux de
télécommunications fixes et sans fil.
Institutions de normalisation
Les pouvoirs publics et industriels se sont rendus compte que les fournisseurs de produits
pour le réseau devaient se mettre d’accord sur des normes de communication reconnues et
9
internationales.
La norme est établie par consensus entre les diverses parties impliquées dans chacun des
sujets à normaliser et approuvée par un organisme reconnu. Les principaux organismes de
normalisation sont :
➢ ISO (International Standardization Organization, créée en 1947)
Organisme, dépendant de l’Organisation des Nations Unies : ONU), qui s’occupe de tous les
domaines techniques en dehors de l’électricité et de l’électronique. Il englobe les organismes
nationaux de tous les pays Organisé en TC (Technical Comittees) ou en SC (Sous-Comités), à
leur tour subdivisés en Groupes de travail (Working Group). Les projets de normes passent par
trois stades, DS (Draft Proposal) ou document de travail, DIS (Draft International Standard) ou
proposition de norme, et enfin IS (International Standard) après l'adoption définitive.
L’ISO regroupe les organismes nationaux de normalisation :
• AFNOR : France (Association française de normalisation)
• ANSI : Etats-Unis (American National Standards Institute )
• DIN : Allemagne (Deutsches Institut für Normung - Institut allemand de normalisation )
• BSI : Royaume Uni (British Standards Institute - Organisme britannique de normalisation)
• JISC : Japon (Japanese Industrial Standards Committee)
• CODINORM (Côte d’Ivoire Normalisation), association ivoirienne de Normalisation, est une
association à but non lucratif, reconnue d’utilité publique, créée le 24 septembre 1992 par
le Secteur Privé sur autorisation du Conseil des Ministres du 26 août 1992.
10
rôle prépondérant dans la normalisation des réseaux locaux avec les normes IEEE 802, 802.3
(Ethernet), 802.4 (bus à jeton), 802.5 (anneau à jeton).
➢ IETF / IRTF (Internet Engineering/ Research Task Force) de la structure IAB (Internet
Activities Board) qui avait remplacé l’ICCB en 1989.
Cet organisme émet des normes de l’internet appelées RFC (Request For Comment).
La dénomination d’une norme doit tenir compte d’un ensemble de critères :
- Son origine (ISO, IEEE, etc.).
- Son domaine d’application (réseaux publics/privés/locaux/, téléphone, etc.).
- Sa zone d’application (européenne, internationale, etc.).
➢ CEI - Commission Electrotechnique Internationale - IEC International Electrotechnical
Commission –
Organisme composé des Comités électrotechniques nationaux de plus de quarante pays. Elle
forme avec l'ISO un comité technique commun (joint technical committee) ISO/IEC/JTC 1 pour
traiter des problèmes relatifs à l'informatique et aux télécommunications pour l'informatique.
Tous les deux sont des référentiels établis pour le respect d'un mode de fabrication identique.
La norme est établi par un organisme officiel reconnu et accrédité par les états ou institutions. Çà
peut être organisme national (CODINORM en Côte d’Ivoire) ou communautaire (CEN en Europe,
ISO pour l'international). Les normes sont contraignantes et imposées. Les industriels fabricants
pour un pays, par exemple, se devront de respecter à la lettre les normes que ce pays impose.
Un fabricant prétendant respecter une norme s'expose à des contrôles et vérifications sur ses
produits et des sanctions pouvant aller jusqu'au retrait, destruction et interdiction de vente du
produit, voire interdiction pure et simple de tout produit de ce fabricant. Les normes portent bien
souvent plus sur des caractères de bon fonctionnement, et de sécurité des utilisateurs.
Le standard, lui, un référentiel de fait (qui s'impose par le terrain s'y tu veux), une sorte de norme
non officielle. Il n'est pas établi par un organisme accrédité par les états. Il est plus souvent établi
par un fabricant qui voit son système propre s'imposer sur le marché et devenir de fait le système
repris par bon nombre d'autres fabricants, le plus souvent pour des raisons de compatibilité,
d'interopérabilités, etc...
Les standards sont définis par des groupes qui n’ont pas de mandats officiels des
gouvernements. Ces groupes peuvent être :
• industriel ou commerciaux : par exemple PostScript ou PDF sont des standards de fait
qui sont définis par la société Adobe,
• collégiaux comme : comme
o le W3C (World Wide Web Consortium)
o le consortium Unicode,
11
o le consortium OASIS (Organization for the Advancement of Structured Information
Standards),
Il peut aussi être établi par un regroupement de fabricants, laboratoires de recherche, etc, comme
c'est le cas pour consortium IEEE qui a établi et établi bon nombre de "normes" utilisées en
informatique, notamment sur tout ce qui est communication entre périphériques.
Un standard n'est pas obligatoire, il n'est pas contraignant (enfin la plupart du temps). Rien n'oblige
un fabricant d'utiliser tel ou tel standard. Et même si un fabricant prétend respecter un standard, il
peut plus ou moins bien le respecter, voire pas du tout, il ne s'expose pas vraiment à des sanctions
si ce n'est celle du marché et de sa réputation.
Ça a été par exemple le cas de VIA dans les années 90 et l'apparition des port USB1.0 et 1.1. VIA
fabriquait un chipset qui ne respectait pas du tout le standard établi pour le port USB en termes
d'alimentation. Résultat, bon nombre de périphériques USB n'étaient pas suffisamment alimentés
sur les cartes mère intégrant ce chipset et fonctionnaient très mal ce qui a fait une bien mauvaise
réputation à ce fabricant et par ricochet aux fabricants de carte mère utilisant ces chipsets.
La norme garantie un fonctionnement minimum et surtout un minimum de sécurité dans le
fonctionnement. La norme a un caractère légal.
Un standard prétend répondre à un cahier des charges établi par l'auteur du standard, mais n'en
garantie pas forcément la bonne application, ou l'application complète. Mais surtout, un standard
ne garantit en rien le fonctionnement correct de l'appareil, ni un fonctionnement sécurisé pour
l'utilisateur. Le standard a plus un caractère commercial.
Les protocoles définissent une sorte de langage commun que les intervenants utilisent pour se
trouver, se connecter l’un à l’autre et y transporter des informations.
Les protocoles peuvent définir toute une série de paramètres utiles à une communication :
• des paramètres physiques comme des modulations, des types de supports physiques,
des connecteurs …
• le comportement d’un certain type de matériel,
• des commandes,
• des machines à état,
• des types de messages,
• des en-têtes qui comportent des informations utiles au transport.
12
Régulation des télécoms
Bien qu’il ne soit pas strictement lié à la normalisation, un nouvel acteur est venu s’ajouter
dans le monde des télécommunications. Avec la suppression des monopoles des opérateurs
publics en Europe, chaque pays a dû créer un organisme régulateur, chargé de veiller au maintien
de règles de concurrences saines. En Belgique, il s’agit de l’IBPT, l’Institut Belge des services
Postaux et Télécommunications.
En Côte d’Ivoire nous avons l’ARTCI (Autorité de Régulation des Télécommunication/ TIC
de Côte d’Ivoire).
L'Autorité de Régulation des Télécommunications/TIC de Côte d’Ivoire (ARTCI) a été créé par
l'Ordonnance n°2012-293 du 21 mars 2012 à l'issue de la fusion du Conseil des
Télécommunications de Côte d’Ivoire (CTCI) et de l’Agence des Télécommunications de Côte
d’Ivoire (ATCI).
▪ L’ARTCI est une autorité administrative indépendante dotée de la personnalité juridique et
de l’autonomie financière. Les missions de l’ARTCI sont déterminées par l’ordonnance
n°2012-293 du 21 mars 2012 susvisée. Les missions de régulation sont exercées par
l’ARTCI de façon indépendante, impartiale et transparente.
▪ Le siège de l’ARTCI est fixé à Abidjan. Il peut être transféré en tout autre lieu du territoire
national, après avis conforme du Conseil de Régulation.
▪ L’ARTCI est tenue de produire, chaque année, au plus tard le 30 mars, un rapport d’activité.
Ce rapport est communiqué au ministre chargé des Télécommunications. Il est publié sur
le site Internet de l’ARTCI.
13
comme les paires torsadées et les câbles coaxiaux, sont les plus anciens et les plus largement
utilisés ; ils transportent des courants électriques. Les supports de verre ou de plastique, comme
les fibres optiques, transmettent la lumière, et les guides d'onde propagent des ondes
électromagnétiques, tandis que les supports immatériels pour des communications sans fil
propagent des ondes électromagnétiques dans l'air et sont en plein essor.
TAF en Exposé :
Dans un exposé de 20mn (10 mn exposé +10 mn question et remarques) les étudiants par
groupe de trois (03) présenteront les différents supports de transmission :
• Lignes bifilaires
• Câble coaxial
• Fibre optique
• Lignes imprimées
• Wifi
• Lifi
• Bluetooth
• Infra rouge
• Faisceau Hertzien
• Ondes Radio
❖ La bande passante
C’est la bande de fréquences dans laquelle les signaux appliqués à l’entrée du support de
transmission ne subissent pas un affaiblissement trop important, et qu'ils ont une puissance de
sortie supérieure à un seuil donné après la traversée du support. Le seuil fixé correspond à un
rapport déterminé entre la puissance du signal d’entrée et la puissance du signal obtenu à la sortie.
Généralement, on parle de :
- Bande passante d'un support de transmission
- Occupation spectrale d'un signal
Pour que la transmission soit efficace, il faut s’assurer que :
I. L'occupation spectrale du signal (ou Largeur de Bande spectrale) soit inférieure à la bande
passante,
II. L'emplacement du spectre du signal coïncide avec celui de la bande passante.
Le problème de la figure ci-dessus (figure 1.2) est que l'occupation spectrale du signal est
supérieure à la bande passante, donc, on peut dire que la transmission ne sera pas efficace.
14
Fig.1.2. Occupation spectrale plus importante que la bande passante
La figure ci-dessus (figure 1.3) représente une occupation spectrale du signal qui est plus étroite
que la bande passante, mais elles ne coïncident pas, on peut dire alors que la transmission ne
sera pas efficace.
15
En comparant les deux figures, on remarque que le débit est différent (durés des bits
différentes),ce qui influe sur l'occupation spectrale (1/tb).
Donc, on peut dire qu'un canal de transmission d'une bande passante importante permet
d'envoyer des débits importants, et c'est ici ou réside l'intérêt d'avoir une bande passante
importante.
Les supports ont une bande passante limitée. Certains signaux s’y propagent correctement
(ils sont affaiblis mais reconnaissables à l’autre extrémité), alors que d’autres ne les traversent pas
(ils sont tellement affaiblis ou déformés qu’on ne les reconnaît plus à la sortie). Un circuit de
données est assimilable à un filtre de type Passe Bande.
Il se peut que l'occupation spectrale et la bande passante aient la même largeur et
coïncident, mais la transmission ne sera pas efficace, parce que le spectre subit un affaiblissement
important aux extrémités de la bande passante. Ce qui signifie que les fréquences aux extrémités
de la bande passantes ne doivent pas être considérées dans la définition de la bande passante.
En général, on caractérise un support par sa bande passante à 3 dB (décibels), c’est-à-dire
par la plage de fréquences à l’intérieur de laquelle, la puissance de sortie est, au pire, divisée par
deux. Si on note 𝑷𝒔 la puissance de sortie et 𝑷𝒆 la puissance d’entrée (figure.1.5), l’affaiblissement
A en décibels est donné par la formule :
Intuitivement, plus un support possède une bande passante large et plus il pourra transporter
d’informations par unité de temps.
Exemple :
16
Sachant que les fréquences audibles de l'être humain sont comprises entre 20 Hz et 20 KHz, une
ligne téléphonique ordinaire ne laisse passer que les signaux de fréquence comprise entre
300Hz et 3400Hz. En dehors de cette bande, les signaux sont fortement atténués et ne sont plus
compréhensibles, on dit alors que la bande passante d’une telle ligne est de 3400–300 Hz soit
3100Hz. Par contre un câble coaxial utilisé dans les réseaux locaux a une bande passante
nettement supérieure dont la largeur est de l’ordre des centaines de MHz (300 à 400 MHz). On
peut dire que le support joue le rôle d'un filtre passe bande.
La figure.1.8 indique une courbe typique d'affaiblissement en fonction de la fréquence pour une
voie de transmission quelconque. Les fréquences "optimales", si l'on souhaite une faible
atténuation d'un signal sinusoïdal envoyé, sont entre f1 et f2, les bornes de la bande passante.
• La capacité de transmission
La capacité (ou débit maximal) d'une voie est la quantité maximale d'information qu'elle peut
transporter par seconde. L'unité d'information étant le bit, la capacité s'exprime en bit/s. Un
théorème énoncé par Shannon (Claude Shannon, mathématicien américain du XXème siècle qui
a développé la théorie de l’information) définit une borne maximale de cette capacité, notée
CapMax et exprimée en bits par seconde :
𝑪 = 𝑾 𝒍𝒐𝒈𝟐 (𝟏 + 𝑺/𝑵)
Où W est la largeur de la bande passante exprimée en Hertz, S/B est la valeur du rapport
puissance du signal à puissance du bruit, la base deux du logarithme servant pour exprimer
l’information en bits.
A titre d’exemple, sur une liaison téléphonique dont la bande passante a une largeur de
3100 Hz (300 à 3400) et avec un rapport S/B correspondant à 32 dB (valeur courante), on obtient
:
10 𝑙𝑜𝑔10𝑺/𝑩 = 32, donc : 𝑙𝑜𝑔10 𝑺/𝑩 = 3,2 soit 𝑺/𝑩 = 1585
𝑪 = 3100 𝑙𝑜𝑔2 (1 + 1585) soit avec 1586 = 210,63
𝑪 = 3100 𝑥 10,63 = 33000 𝑏𝑖𝑡/𝑠.
Cette valeur théorique est rarement atteinte à cause des diverses imperfections de la voie.
17
d'être émis. L'importance de l'affaiblissement dépend des caractéristiques physiques du support :
il est moins important dans les fibres optiques que dans les câbles électriques, dans les câbles
coaxiaux que dans les paires torsadées.
• Le bruit et interférence
Les supports de transmission déforment les signaux qu’ils transportent même lorsque ceux-ci
ont des fréquences adaptées. En effet, plusieurs sources de bruit perturbent les signaux et des
distorsions (d’amplitude ou de phase) peuvent s’avérer gênantes pour la reconnaissance des
signaux en sortie (figure.1.7) : bruit blanc dû à l’agitation thermique dans les composants du
système, bruit impulsif dû principalement aux organes électromécaniques de commutation, bruit
diaphonique engendré par d'autres voies, ou échos.
Par ailleurs, la distance est un facteur d’affaiblissement, particulièrement important pour les
liaisons sans fil. Enfin, certaines perturbations de l’environnement peuvent également introduire
des bruits (foudre, orages pour le milieu aérien, champs électromagnétiques dans des ateliers pour
les supports métalliques…). Même lorsque les signaux sont adaptés aux supports de transmission,
on ne pourra pas garantir à 100% leur exactitude à la réception. Un signal de fréquence f s'écrit,
en notant A son amplitude et φ sa phase :
La transmission a pour effet de diminuer l'amplitude du signal dans une proportion qui dépend
souvent de la fréquence du signal : celle-ci sera donc multipliée par un facteur 𝑲(𝒇) < 𝟏 :
L'affaiblissement peut donc aussi s'écrire, en notant P(f) le rapport des puissances :
Le système ou canal de transmission peut encore être le siège d’autres perturbations que
les effets de non-linéarité. On donne parfois à ces perturbations la dénomination générale de
bruit. Il arrive que la transmittance d’un canal soit affectée par un facteur d’amplitude variant
dans le temps ; on parle alors d’un bruit multiplicatif. Dans un tel cas, il arrive fréquemment que
ce facteur d’amplitude prenne, à certains moments, des valeurs très faibles : on parle alors
d’évanouissements ou fading. Cet effet résulte généralement de l’existence dans le canal de
transmission, de deux ou plusieurs chemins de propagation (multitrajets ou multipath) dont les
délais de propagation varient dans le temps. À certains moments, les contributions de ces trajets
18
se renforcent, tandis qu’à d’autres moments elles s’opposent, de sorte que le signal de sortie
subit des évanouissements plus ou moins profonds. Le canal de transmission ne satisfait alors
pas à la condition de linéarité et d’invariance temporelle.
On peut encore avoir affaire à un autre type de perturbation. Il s’agit de signaux d’origine
tout à fait extérieure et indépendants du signal véhiculé par le canal de transmission, et qui
viennent se superposer à celui-ci. On parle alors de bruit additif. En l’occurrence, il peut s’agir de
– bruits ou parasites naturels,
– autres signaux de télécommunications transmis dans la bande de fréquence du signal utile,
– produits de non-linéarité provenant d’autres signaux de télécommunications situés dans une
autre bande de fréquence que le signal utile.
On voit que ceci fixe des limites sur la gamme dynamique (échelle d’amplitude) des signaux
que l’on peut utiliser. On ne peut travailler avec des signaux trop faibles, parce qu’ils se
retrouveraient noyés dans les bruits additifs.
On ne peut pas non plus utiliser des signaux trop puissants sous peine de les distordre ou de
perturber d’autres utilisateurs partageant ou non la même bande de fréquence.
Le système de transmission consiste souvent en une longue cascade de sous-systèmes. Il n’est
pas interdit de procéder, dans ces sous-systèmes, à des opérations non linéaires ou non
permanentes, pour autant que l’on procède ensuite aux opérations inverses. C’est en effet la
totalité de la chaîne qui doit s’approcher autant que possible des conditions idéales.
19
Donc pour transmettre un spectre audible dans l’espace, il faut réaliser ce qu’on appelle la
modulation, ce qui consiste à imprimer l’information à transmettre sur une fréquence fixe dite
porteuse rayonnée dans l’espace. A la réception, pour extraire le spectre audible (ainsi transmis)
du signal porteur d’information ainsi reçu, on réalise la démodulation.
La transmission par transposition de fréquence assure en général une meilleure protection
contre le bruit et permet le multiplexage en fréquence (voir plus loin).
La modulation consiste à transformer un signal connu par le signal à transmettre. Le signal
à transmettre est appelé signal d’information. Lorsqu’on module un signal, on appelle :
• porteuse : le signal connu
• modulant : le signal d’information
• modulé : le signal résultant de la transformation de la porteuse par le modulant
Le signal connu est généralement un signal sinusoïdal défini par son amplitude et sa fréquence.
Fig.1.8. Translation du spectre : Signal autour d’une haute fréquence (a) et en bande de base (b).
De nos jours, de nombreuses transmissions utilisent encore des modulations analogiques, bien
que celles-ci soient progressivement remplacées par des modulations numériques (sur porteuses
analogiques).
Il faut savoir que par abus de langage, on parle de modulation numérique alors qu’en réalité, seule
l’information à transmettre est numérique. Le principe est identique à la modulation analogique
dans le sens ou la porteuse reste analogique.
On peut citer :
• La transmission Radio : Les grandes ondes, les moyennes ondes, la FM
• Télévision analogique, chaine nationale.
• Talkie Walkie
• Balises de navigation des bateaux
Pourquoi la modulation ?
a. Pour transmettre les sons d’un émetteur à un récepteur quelconque, distant de plusieurs
Km, il faut utiliser les couches conductrices de l’atmosphère, or celle-ci ne donnent passage
qu’à des ondes dont la longueur d’onde est < à 3Km. Autrement dit, pour utiliser les couches
conductrices de l’atmosphère, il faut un rayonnement ; pour obtenir un rayonnement, il faut
un courant de très haute fréquence > 100KHz.
20
b. D'autre part, dans la plupart des supports de transmission, il est nécessaire que le spectre
de fréquence des signaux émis coïncide avec la bande passante du support, afin que ces
derniers ne soient pas filtrés. On utilise alors la transmission par transposition de fréquence
qui consiste à moduler une onde sinusoïdale porteuse de fréquence convenable par le
signal à transmettre.
c. Les signaux à transmettre sont le plus souvent soit des signaux audiofréquences provenant
d’un microphone excité par le son ; soit des signaux vidéofréquences provenant de la
caméra de prise de vue de télévision. Ce sont des signaux complexes à composantes toutes
de basse fréquence. Ces signaux constituant l’information à transmettre ne peuvent pas se
propager à grande distance par rayonnement dans l’atmosphère, à cause de la faible
puissance rayonnée (la puissance est proportionnelle au carré de la fréquence), qui serait
perdue entre le départ et l’arrivée. En plus, la transmission directe par onde hertzienne d’un
signal BF est impossible. Car les dimensions des antennes, étant de l’ordre de ¼ de la
longueur d’onde, seraient prohibitives. (La longueur d'onde est obtenue en divisant la
vitesse de la lumière par la fréquence). Par exemple il faudrait une antenne de longueur de
5km si la fréquence du signal est 15kHz ; et 750km si la fréquence du signal est 100Hz, ce
qui est impossible.
d. Le multiplexage, pour avoir plusieurs émetteurs. Dans la radio FM par exemple chaque
station utilise une fréquence 101.1 101 102 Mhz, alors que le signal information a la même
fréquence. Un exemple ou plusieurs enseignant enseignent à la fois dans la même classe.
3. Modes de transmission
Pour une transmission donnée sur une voie de communication entre deux machines la
communication peut s'effectuer de différentes manières. La transmission est caractérisée par :
• La liaison simplex caractérise une liaison dans laquelle les données circulent dans un
seul sens, c'est-à-dire de l'émetteur vers le récepteur. Ce genre de liaison est utile
lorsque les données n'ont pas besoin de circuler dans les deux sens (par exemple de
votre ordinateur vers l'imprimante ou de la souris vers l'ordinateur...).
21
• La liaison half-duplex (parfois appelée liaison à l'alternat ou semi-duplex) caractérise
une liaison dans laquelle les données circulent dans un sens ou l'autre, mais pas les
deux simultanément. Ainsi, avec ce genre de liaison chaque extrémité de la liaison émet
à son tour. Ce type de liaison permet d'avoir une liaison bidirectionnelle utilisant la
capacité totale de la ligne.
• La liaison full-duplex (appelée aussi duplex intégral) caractérise une liaison dans
laquelle les données circulent de façon bidirectionnelle et simultanément. Ainsi, chaque
extrémité de la ligne peut émettre et recevoir en même temps, ce qui signifie que la
bande passante est divisée par deux pour chaque sens d'émission des données si un
même support de transmission est utilisé pour les deux transmissions.
On désigne par liaison parallèle la transmission simultanée de N bits. Ces bits sont envoyés
simultanément sur N voies différentes (une voie étant par exemple un fil, un câble ou tout autre
support physique). La liaison parallèle des ordinateurs de type PC nécessite généralement 10
fils.
• N lignes physiques: auquel cas chaque bit est envoyé sur une ligne physique (c'est la
raison pour laquelle les câbles parallèles sont composés de plusieurs fils en nappe)
• une ligne physique divisées en plusieurs sous-canaux par division de la bande passante.
Ainsi chaque bit est transmis sur une fréquence différente...
Etant donné que les fils conducteurs sont proches sur une nappe, il existe des perturbations
(notamment à haut débit) dégradant la qualité du signal...
• Liaison série
Dans une liaison en série, les données sont envoyées bit par bit sur la voie de transmission.
Toutefois, étant donné que la plupart des processeurs traitent les informations de façon parallèle,
il s'agit de transformer des données arrivant de façon parallèle en données en série au niveau de
l'émetteur, et inversement au niveau du récepteur.
Ces opérations sont réalisées grâce à un contrôleur de communication (la plupart du temps une
puce UART, Universal Asynchronous Receiver Transmitter). Le contrôleur de communication
fonctionne de la façon suivante :
23
• La transformation série-parallèle se fait quasiment de la même façon grâce au registre
de décalage. Le registre de décalage permet de décaler le registre d'une position à
gauche à chaque réception d'un bit, puis d'émettre la totalité du registre en parallèle
lorque celui-ci est plein et ainsi de suite :
Etant donné les problèmes que pose la liaison de type parallèle, c'est la liaison série qui est la
plus utilisée. Toutefois, puisqu'un seul fil transporte l'information, il existe un problème de
synchronisation entre l'émetteur et le récepteur, c'est-à-dire que le récepteur ne peut pas a priori
distinguer les caractères (ou même de manière plus générale les séquences de bits) car les bits
sont envoyés successivement. Il existe donc deux types de transmission permettant de remédier
à ce problème :
• La liaison asynchrone, dans laquelle chaque caractère est émis de façon irrégulière
dans le temps (par exemple un utilisateur envoyant en temps réel des caractères saisis
au clavier). Ainsi, imaginons qu'un seul bit soit transmis pendant une longue période de
silence... le récepteur ne pourrait savoir s'il s'agit de 00010000, ou 10000000 ou encore
00000100...
Afin de remédier à ce problème, chaque caractère est précédé d'une information
indiquant le début de la transmission du caractère (l'information de début d'émission est
appelée bit START) et terminé par l'envoi d'une information de fin de transmission
(appelée bit STOP, il peut éventuellement y avoir plusieurs bits STOP).
• La liaison synchrone, dans laquelle émetteur et récepteur sont cadencés à la même
horloge. Le récepteur reçoit de façon continue (même lorsque aucun bit n'est transmis)
les informations au rythme où l'émetteur les envoie. C'est pourquoi il est nécessaire
qu'émetteur et récepteur soient cadencés à la même vitesse. De plus, des informations
supplémentaires sont insérées afin de garantir l'absence d'erreurs lors de la
transmission.
Lors d'une transmission synchrone, les bits sont envoyés de façon successive sans séparation
entre chaque caractère, il est donc nécessaire d'insérer des éléments de synchronisation, on
parle alors de synchronisation au niveau caractère.
24