0% ont trouvé ce document utile (0 vote)
9 vues24 pages

Codage de L'information Et Modulation Des Signaux: Alain Glavieux

Transféré par

MAROIENE
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
9 vues24 pages

Codage de L'information Et Modulation Des Signaux: Alain Glavieux

Transféré par

MAROIENE
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Codage de l’information

et modulation des signaux

par Alain GLAVIEUX


Ingénieur civil des Télécommunications
Professeur à l’École Nationale Supérieure des Télécommunications de Bretagne (ENSTB)

1. Source d’information et codage de source ...................................... R 380 - 3


1.1 Sources analogiques et sources numériques ........................................... — 3
1.2 Modélisation d’une source stationnaire .................................................... — 3
1.3 Codage de source ........................................................................................ — 4
2. Transmission analogique du signal..................................................... — 5
2.1 Introduction aux techniques de modulation ............................................. — 5
2.2 Modulation linéaire : les modulations d’amplitude.................................. — 6
2.3 Modulation angulaire : modulation de fréquence .................................... — 7
2.4 Structure et performances des principaux démodulateurs ..................... — 7
3. Transmission numérique du signal ..................................................... — 9
3.1 Élaboration d’un signal numérique............................................................ — 10
3.2 Transmission en bande de base : le codage binaire à signal .................. — 10
3.3 Transmission sur porteuse : les modulations numériques linéaires ...... — 11
3.4 Transmission sur canal réel ........................................................................ — 12
3.5 Structure et performances des récepteurs optimaux............................... — 13
4. Codage de canal ....................................................................................... — 16
4.1 Modélisation d’un canal.............................................................................. — 16
4.2 Capacité d’un canal ..................................................................................... — 16
4.3 Théorème fondamental sur le codage de canal
(2e théorème de Shannon).......................................................................... — 17
4.4 Codes en blocs linéaires ............................................................................. — 17
4.5 Codes cycliques ........................................................................................... — 18
4.6 Codes convolutifs (ou récurrents) .............................................................. — 20
Pour en savoir plus........................................................................................... Doc. R 380

’objet de cet article est de donner un aperçu des principes de base utilisés
L en transmission numérique et en transmission analogique. Comme nous
aurons l’occasion de le préciser, le caractère numérique ou analogique d’une
transmission est surtout lié à la nature des messages à transmettre et non à
la nature des signaux utilisés pour les transmettre. Historiquement, les trans-
missions analogiques furent les premières à être utilisées, mais la tendance
actuelle est de s’orienter vers les transmissions numériques qui offrent de
10-1991

nouvelles perspectives en matière de multiplexage, d’utilisation du spectre


radioélectrique et d’immunité aux bruits.
Le schéma classique d’un système de transmission est représenté sur la
figure A.
■ Une source d’information délivre le message qui contient l’information à
R 380

transmettre. Suivant la technique de transmission utilisée, analogique ou numé-


rique, la structure du message est très différente. Les paragraphes 1.1 et 1.2 sont
consacrés à la définition des sources d’information et à l’énoncé de leurs princi-
pales propriétés.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 1
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Figure A – Principe d’une chaîne de communication

■ Un codeur de source, utilisé uniquement pour les transmissions


numériques, permet de supprimer toute redondance dans le message issu de la
source d’information. Après codage de source, le message est sous forme concise
(c’est-à-dire qu’il est représenté à l’aide d’un nombre minimal de symboles), et
chacun de ses symboles doit être fidèlement transmis. Le codage de source est
abordé sous l’angle de la théorie de l’information dans le paragraphe 1.3.
■ Un codeur de canal, fonction spécifique aussi aux transmissions
numériques, introduit de nouveau de la redondance dans le message issu du
codeur de source. Cette redondance, connue du décodeur de canal, permet de
détecter, voire de corriger les erreurs de transmission. Le codage de canal, qui n’a
pas véritablement son équivalent en transmission analogique, est largement
développé dans le paragraphe 4.
■ L’émetteur a pour fonction principale d’assurer l’adaptation du message à la
voie de transmission. Quel que soit le type de transmission utilisé, analogique ou
numérique, le signal issu de l’émetteur est analogique. Ce signal représentatif
du message à transmettre doit posséder un spectre compatible avec la bande
passante de la voie de transmission et une puissance qui assure au récepteur de
travailler dans de bonnes conditions. Cette opération d’adaptation assurée par
l’émetteur porte, en transmission analogique, le nom de modulation et, en trans-
mission numérique, le nom de modulation ou parfois de codage en ligne.
■ La voie de transmission représente le lien physique entre l’émetteur et le
récepteur. Elle peut être constituée par l’espace libre entre deux antennes, par un
câble coaxial ou par une fibre optique. La voie de transmission est en général une
donnée du problème et l’on doit s’y adapter. Certains auteurs préfèrent utiliser le
terme de canal de transmission, mais cette appellation peut être ambiguë. En
effet, en théorie de l’information, le canal de transmission inclut l’émetteur, la voie
de transmission et le récepteur.
Le récepteur, le décodeur de canal et le décodeur de source réalisent respec-
tivement les fonctions inverses de l’émetteur, du codeur de canal et du codeur
de source.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 2 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

1. Source d’information
et codage de source
Nous allons tout d’abord introduire la notion de source
d’information en distinguant les sources analogiques, de nature
physique, des sources numériques, de nature abstraite.

Figure 1 – Représentation physique (tension ou courant)


1.1 Sources analogiques d’un signal numérique binaire
et sources numériques L’entropie H (Xk ) associée à un symbole Xk est définie comme
l’information moyenne apportée par les réalisations possibles de
■ Une source analogique délivre un message m (t ) représenté par
ce symbole :
un signal physique (tension ou courant électrique) prenant ses
H (Xk) = E {i (Xk )}
valeurs dans un ensemble continu. Ce message m (t) qui contient
l’information à transmettre est en général modélisé comme une q
réalisation d’une fonction aléatoire. soit H ( Xk ) = – ∑ pi log pi
Parmi les nombreux exemples de sources analogiques, nous pou- i=1
vons citer le signal issu d’un microphone, d’une caméra de télévision où E { · } désigne l’espérance mathématique.
ou d’un capteur (de pression, de température, etc.).
L’entropie a pour unité le bit si le logarithme utilisé est à base 2.
■ Une source numérique délivre aussi un message, mais sous forme L’entropie est maximale lorsque la distribution de probabilité est
d’une suite temporelle de variables aléatoires qui prennent leurs uniforme :
valeurs dans un ensemble discret appelé alphabet. Dans la suite de 1
l’exposé, ces variables aléatoires sont désignées sous le nom de si p i = -----  i alors H (Xk ) = log q
q
symboles. Si l’alphabet comprend q éléments, on dit que les
symboles sont q-aires (binaires, tertiaires, etc.). Le contenu d’une d’où H ( X k )  log q
page dactylographiée est un exemple de source numérique qui
utilise un alphabet à 26 éléments (si l’on néglige les signes de
ponctuation). Dans la suite de l’article, nous utiliserons le logarithme à
base 2, noté log2 .
Une source numérique est donc de nature abstraite ; aussi, pour
transmettre le message qu’elle délivre, il faut lui associer une repré-
sentation physique. On pourra par exemple représenter chaque ■ Source stationnaire de Markov : c’est une source où le symbole
élément de l’alphabet par une tension ou un courant électrique de émis à l’instant k ne dépend que du symbole émis à l’instant k – 1.
valeur caractéristique (figure 1). Tout le passé est alors résumé dans la valeur du dernier symbole
émis.
Une source de Markov est définie par ses probabilités de transi-
1.2 Modélisation tion pij de passer d’un symbole de valeur x i à l’instant k – 1 à un
symbole de valeur x j à l’instant k. Pour une source stationnaire,
d’une source stationnaire ces probabilités de transition sont indépendantes du temps.
L’ensemble des probabilités de transition forme une matrice de
Avant d’aborder le codage de source, nous allons présenter transition :
quelques modèles de sources numériques.
p 11 ... p 1q
■ Source stationnaire sans mémoire : c’est le modèle le plus simple,
T =
...
...

il correspond à une source qui délivre des symboles indépendants


X k aux instants k ; ces symboles prennent leurs valeurs dans un p q1 ... p qq
alphabet {x 1 ... x i ... x q } avec la distribution de probabilité
{p1... pi... pq } :
La source de Markov est dite régulière ou ergodique si :
pi = Pr {Xk = xi } ∀ k

l’abréviation Pr signifiant probabilité. T = lim T n existe


n→∞
La stationnarité signifie que la distribution de probabilité est
indépendante du temps, c’est-à-dire qu’elle est la même quel que Une condition d’existence de cette limite est qu’aucune probabi-
soit le symbole considéré. lité de transition ne soit nulle.
Toutes les lignes de la matrice T sont identiques et leur j ième
Exemple : le lancé répété d’une pièce de monnaie aux instants k
élément est égal à la probabilité pj qu’un symbole Xk prenne la
peut être modélisé par une source stationnaire sans mémoire qui
délivre des symboles X k de réalisation pile ou face avec la même valeur x j :
probabilité. pj = Pr { Xk = xj }

Avant de présenter un modèle de source stationnaire plus éla-


boré, rappelons la définition de l’entropie associée à un sym-
bole X k .
La réalisation de l’événement Xk = xi apporte une information i (xi )
mesurée par :
i (xi ) = – log pi

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 3
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Exemple : soit une source numérique obtenue en balayant ligne par ■ Théorème fondamental (1er théorème de Shannon) : pour toute
ligne à vitesse constante une feuille dactylographiée puis en échantillon- source stationnaire d’entropie H m par message, il existe un procédé
nant les résultats à fréquence suffisante (fax, télécopie). Cette source
délivre des symboles binaires Xk (blanc ou noir) qui sot manifestement de codage déchiffrable pour lequel la longueur moyenne n des
corrélés. Cette source peut être modélisée par une source de Markov. mots de code constitués de symboles q-aires soit aussi voisine que
Sa matrice de transition est : l’on veut de sa limite inférieure :
Hm
p bb p bn n min = -----------------
-
T = log 2 q
p nb p nn
Pour atteindre cette limite inférieure, il suffit de considérer des
où pbn est la probabilité d’avoir un échantillon blanc suivi d’un échan- messages infiniment longs (k tendant vers l’infini) et de les coder
tillon noir. par un code déchiffrable.
Des mesures statistiques ont montré que : ■ Propriétés de la source codée
Avant de présenter un exemple de codage de source, énonçons
0,93 0,07 quelques propriétés de la source codée :
T =
0,63 0,37 — les symboles issus du codeur constituent une source sans
mémoire dont l’entropie par symbole est maximale. En effet, si
Les probabilités de transition étant non nulles, la source de Markov l’entropie par message est égale à H m , l’entropie par mot de code
est ergodique et la matrice T existe. est aussi égale à H m et ainsi l’entropie H c par symbole en sortie du
On calcule : codeur est :
Hm
0,91 0,09 0,90 0,10 H c = ---------
-
n = log 2 q
T2 = T3 =
0,82 0,18 0,89 0,11 — le débit D c après codage de source est égal à :
Et finalement l’on obtient : H
D c = D -----------------
log 2 q
0,9 0,1
T =
0,9 0,1 où D le débit avant codage,
H l’entropie par symbole en sortie de la source à coder.
Pour une source de Markov stationnaire, on montre que l’entro-
pie par symbole est égale à : ■ Algorithme de Huffman
q q
Pour terminer notre exposé sur le codage de source, nous allons
H ( Xk ) = – ∑ pi ∑ pij log 2 pij présenter l’algorithme de Huffman qui permet de construire un code
déchiffrable. Pour exposer cet algorithme, nous allons reprendre
i=1 j=1
l’exemple du fax que nous modéliserons pour simplifier par une
Pour l’exemple considéré, on obtient : source stationnaire sans mémoire S.
H (X k ) = 0,424 bit Considérons la 3ième extension de la source S et rangeons les mes-
sages constitués de trois symboles dans la première colonne d’un
■ Les deux modèles de source que nous venons de présenter ne tableau (tableau 1) par probabilité décroissante d’apparition. Dans
permettent pas de modéliser toutes les sources que l’on peut la deuxième colonne de ce tableau, portons la valeur de ces
rencontrer. Il existe des modèles de source plus sophistiqués, mais probabilités d’apparition. Remplaçons les deux probabilités de plus
dont l’évaluation des paramètres devient très rapidement délicat. faible valeur de la deuxième colonne par leur somme
(0,009 + 0,001 = 0,01) et plaçons dans une troisième colonne par
ordre décroissant de valeur, les probabilités de la deuxième colonne.
Remplissons de la même façon toutes les colonnes de ce tableau
1.3 Codage de source jusqu’à ce que l’on obtienne une colonne qui ne contienne plus que
deux probabilités (0,729 et 0,271 dans notre cas). (0)
Nota : se reporter aux articles Théorie de l’information. Formalisation du concept
[E 3 080], Théorie de l’information. Aspects mathématiques [E 3 082] et Théorie de
l’information. Application à la physique [R 3 084] du traité Électronique.
Le codage de source consiste à associer un mot de code à chaque Tableau 1 – Algorithme de Huffman
message de k symboles issus de la source numérique S d’informa-
tion. L’objectif est de trouver un codage tel que la longueur moyenne Messages Probabilité des messages
des mots de code soit inférieure à la longueur k des messages.
En raisonnant maintenant sur les messages et non plus sur les
symboles de la source numérique S, on peut considérer que l’on
dispose d’une nouvelle source, appelée k ième extension de la
source S et notée S k.
Soit N le nombre de mots de code utilisé pour coder la
source S et {n 1,..., ni..., nN } leurs longueurs respectives. Ces mots
de code doivent a priori satisfaire aux propriétés suivantes :
— régularité : deux messages différents sont codés par deux
mots de code différents ;
— déchiffrabilité : les mots de code doivent pouvoir être séparés
sans ambiguïté ; cela peut être notamment réalisé en imposant
qu’aucun mot de code ne soit identique au début d’un autre ; on dit
alors que le code est irréductible.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 4 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

Le codage est réalisé en affectant aux deux probabilités les plus


faibles de chaque colonne les chiffres 0 et 1. Pour trouver, à partir 2. Transmission analogique
de ce tableau, le mot de code associé à un message donné, on suit
au travers des différentes colonnes la probabilité d’apparition de ce
du signal
message. Lorsqu’à cette probabilité est associé le chiffre 0 ou 1, on
Nota : se reporter à l’article Modulations. Démodulations [E 3 450] dans le traité
le note. Quand on est arrivé à la dernière colonne, on dispose de Électronique.
l’ensemble des symboles qui constitue le mot de code.
Exemple : recherchons le mot de code associé au message 101. En
deuxième colonne, on lit que sa probabilité est de 0,009 ; on passe à la 2.1 Introduction aux techniques
troisième colonne où l’on trouve que la probabilité 0,009 est associée de modulation
au chiffre 1. Ce chiffre 1 (qui est souligné) constitue le premier symbole
du mot de code. En quatrième colonne, la probabilité 0,009 s’est trans- En transmission analogique, le message à transmettre est sous
formée en 0,018 à laquelle est associée le chiffre 0 qui constitue le forme analogique, c’est par exemple les variations de pression de
deuxième symbole du mot de code. En suivant le chemin dans le l’air pour un signal sonore ou les variations d’intensité lumineuse
tableau 1 , on trouve qu’au message 101 est associé le mot de pour un signal d’image. La première étape pour transmettre ces
code 11101. grandeurs est de leur associer une représentation électrique à l’aide
(000 codé 0 : la longueur de ce mot de code est n 1 = 1 ; 001 codé d’un capteur : microphone pour la parole ou caméra pour l’image.
100 ; 010 codé 101 ; 100 codé 110 ; 110 codé 11100 ; 101 codé Dans la suite de l’exposé, on supposera que l’on dispose de cette
11101 ; 011 codé 11110 ; 111 codé 11111 : longueur n 8 = 5). représentation électrique que l’on désignera sous le nom de
message. L’opération de modulation consiste à adapter le message
La longueur moyenne n des mots de code est de :
issu du capteur à la voie de transmission.
8 Prenons un exemple et considérons la transmission d’un signal
n = ∑ pi ni = 1,598 symbole sonore par voie radioélectrique. Pour obtenir un rayonnement
i=1 satisfaisant de l’antenne d’émission, il faudrait que ses dimensions
atteignent plusieurs kilomètres (les dimensions d’une antenne sont
D’après le théorème fondamental sur le codage de source :
proportionnelles à la longueur d’onde à émettre).
Hm On voit sur cet exemple que le spectre d’un signal sonore n’est
n  -------------
- pas adapté à ce type de transmission. L’opération de modulation va
log 2 q
donc consister à translater le spectre du message dans une bande
Dans notre exemple, l’entropie H m par message est égale à 3H (X ) de fréquence mieux adaptée à sa transmission. Cette translation du
où H (X ) est l’entropie de la source par symbole, avec : spectre du message permet aussi de transmettre, sur une même voie
de transmission, plusieurs communications : c’est ce que l’on
H (X ) = 0,469 bit et H m = 1,407 bit appelle le multiplexage fréquentiel.
Nous voyons ici que nous n’atteignons pas la limite inférieure de Pour réaliser cette translation, l’idée de base est de partir d’un
1,407 (ici q = 2) pour la longueur moyenne n des mots de code. Pour signal sinusoïdal de fréquence ν 0 appelé signal porteur ou porteuse
se rapprocher de cette limite, il suffit de considérer le codage de et de venir modifier ses paramètres (amplitude ou phase) à l’aide
messages plus longs (k > 3). du message à transmettre. L’expression du signal modulé e (t ) est
donc de la forme :
On notera que la valeur de l’entropie H (X ) dépend du modèle choisi
pour la source (source sans mémoire ici, ou source de Markov au e (t ) = a (t ) cos [2 π ν0 t + Φ (t )] (1)
§ 1.2).
Parmi les modulations, on distingue :
■ Conclusion sur le codage de source — les modulations linéaires qui recouvrent l’ensemble des
L’utilisation du codage de source nécessite de bien connaître les modulations d’amplitude pour lesquelles c’est l’amplitude a (t ) du
propriétés statistiques de la source et c’est là, en général, une des signal modulé qui est fonction du message m (t ) ;
principales difficultés à surmonter. Imaginez en effet que les — les modulations angulaires (ou, parfois, non linéaires) où c’est
messages les moins probables (111 et 011 dans notre exemple) la phase Φ (t ) du signal modulé qui est fonction du message m (t ).
apparaissent subitement avec une fréquence plus importante. Dans Parmi ces modulations, on trouve notamment la modulation de
ce cas, les mots de code les plus longs vont être fréquemment utilisés fréquence.
et le débit Dc en sortie du codeur de source sera supérieur au Avant d’aborder la présentation des modulations, nous allons faire
débit D de la source à coder. On aura obtenu l’effet contraire à celui quelques hypothèses sur les propriétés statistiques du message à
recherché. transmettre. Ce message étant porteur d’une certaine information,
Enfin, on notera la grande sensibilité du codage de source aux il ne peut être modélisé par un signal déterministe, mais comme une
erreurs de transmission, puisque quelques erreurs de transmission réalisation d’une fonction aléatoire. Son spectre ou plutôt sa densité
peuvent entraîner le décodage erroné en réception d’un grand spectrale de puissance γ m (ν), définie comme la transformée de
nombre de messages. Fourier de sa fonction de corrélation, sera basse fréquence et
occupera une bande b (figure 2). On supposera aussi que ce message
est stationnaire, c’est-à-dire que sa valeur moyenne et sa puissance
moyenne sont indépendantes du temps.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 5
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Figure 2 – Densité spectrale de puissance du message m (t)

Figure 3 – Densité spectrale de puissance


d’une modulation d’amplitude à porteuse conservée
2.2 Modulation linéaire :
les modulations d’amplitude
■ Bilan énergétique
2.2.1 Modulation d’amplitude
La puissance moyenne Pe émise est égale à :
à porteuse supprimée (MAPS)
Pe = Pp [1 + 2 k E {m (t)} + k 2 Pm]
La façon la plus simple au niveau du concept pour réaliser une
modulation d’amplitude est d’avoir l’amplitude a (t ) proportion- En général, le message m (t) est à moyenne nulle et ainsi il y a
nelle au message m (t ). Le signal modulé e (t ) s’écrit alors : k 2 Pm
seulement une fraction -------------------------- de la puissance émise Pe qui
e (t ) = A m (t ) cos (2 π ν0 t + Φ0 ) (2) 1 + k 2 Pm
sert à transmettre le message avec :
■ Densité spectrale de puissance du signal modulé
Elle a pour expression : k 2 Pm 1
0  --------------------------  -----
1 + k 2 Pm 2
A2
γ e ( ν ) = ---------  γ m ( ν – ν 0 ) + γ m ( ν + ν 0 )  (3)
4 On constate pour cette modulation qu’au plus la moitié de la
puissance émise sert à transmettre le message m (t).
Pour la modulation d’amplitude à porteuse supprimée, si le
message occupe une bande b, le signal modulé occupe une bande
B avec :
B = 2b 2.2.3 Modulation d’amplitude
à bande latérale unique (BLU)
■ Bilan énergétique
La puissance moyenne émise Pe peut s’exprimer en fonction de La densité spectrale de puissance du message m (t ) est constituée
la puissance moyenne P m du message et de la puissance de deux bandes, une bande inférieure correspondant aux fréquences
moyenne Pp de la porteuse : négatives et une bande supérieure correspondant aux fréquences
positives (figure 3). Ces deux bandes contiennent en fait la même
Pe = Pm P p (4)
information (symétrie de la densité spectrale de puissance), il est
donc possible de n’en transmettre qu’une seule : c’est le principe
retenu pour réaliser une modulation à bande latérale unique.
2.2.2 Modulation d’amplitude Pour obtenir l’expression mathématique d’un signal à bande
à porteuse conservée (MAPC ou AM) latérale unique, il faut introduire la transformée de Hilbert du
message m (t ) définie par :
En modulation d’amplitude à porteuse conservée, on vient modi-
1
fier l’expression de a (t ) et le signal modulé s’écrit : m̂ ( t ) = -------- * m ( t ) (5)
πt
e (t ) = A [1 + km (t )] cos (2 π ν 0 t + Φ0 )
où ∗ représente le produit de convolution.
avec k m ( t )  1. Alors on montre que le signal modulé à bande latérale unique a
Pour cette modulation, l’enveloppe a (t ) est toujours positive pour expression :
car km (t) est compris entre – 1 et + 1. Cette propriété permet de
démoduler le signal e (t) de façon très simple. e (t ) = A [m (t ) cos (2 π ν0 t + Φ0 ) ± m̂ ( t ) sin ( 2π ν 0 t + Φ 0 ) ]
■ Densité spectrale de puissance du signal modulé le signe – correspondant à une modulation pour laquelle on a
Elle est représentée sur la figure 3 et a pour expression : gardé la bande latérale supérieure et le signe + la bande latérale
inférieure.
A2
γ e ( ν ) = --------- 1 + 2k E m ( t )  δ ( ν – ν 0 ) + δ ( ν + ν 0 )  ■ Densité spectrale de puissance du signal modulé
4
A 2k 2 Pour la modulation BLU à bande latérale supérieure, elle est
+ -----------------  γ m ( ν – ν 0 ) + γ m ( ν + ν 0 )  égale à :
4
A2
avec δ distribution de Dirac, γ e ( ν ) = ---------  γ m ( ν – ν 0 ) 1 + sgn ( ν – ν 0 ) 
2
E{·} espérance mathématique. + γ m ( ν + ν 0 ) 1 – sgn ( ν + ν 0 ) 
La modulation d’amplitude à porteuse conservée occupe aussi
une bande B qui est le double de la bande occupée par le où sgn est la fonction « signe de » qui est égale à 1 si son argument
message : est positif ou nul et égale à – 1 s’il est négatif.
B = 2b

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 6 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

La bande occupée par une modulation d’amplitude à bande laté- ■ Occupation spectrale d’une modulation de fréquence
rale unique est : Le calcul de la densité spectrale de puissance d’un signal modulé
B=b en fréquence pose quelques difficultés, puisque ce signal n’est pas
■ Bilan énergétique une fonction linéaire du message m (t). En général, on utilise une
relation empirique pour calculer l’occupation spectrale B d’un
La puissance moyenne Pe émise est égale à : signal modulé en fréquence. Cette relation, proposée par Carson,
P e = 2 Pp P m est :
B = 2 (β + 1) Fmax (8)

∆f k f Max m ( t )
avec β = ------------ = --------------------------------------
-
2.3 Modulation angulaire : F max F max
modulation de fréquence où β est l’indice de modulation,
Introduisons tout d’abord quelques définitions. Pour un signal ∆f l’excursion maximale de fréquence,
modulé e (t) ayant pour expression : Fmax la fréquence la plus élevée du spectre du message.
e (t ) = A cos [2 π ν0 t + Φ (t )] (6) On peut aussi montrer que l’indice de modulation est égal à la
valeur maximale de la phase Φ (t ) :
on appelle phase instantanée la quantité :
β = Max |Φ (t)|
ϕ inst (t ) = 2 π ν0 t + Φ (t )
et fréquence instantanée :
2.4 Structure et performances
1 d ϕ inst 1 dΦ (t ) des principaux démodulateurs
F inst ( t ) = --------- ----------------- = ν 0 + --------- ------------------
2π dt 2π dt
En modulation de fréquence, la fréquence instantanée est une Rappelons que l’objectif de tout système de transmission est de
fonction affine du message à transmettre : fournir au destinataire une réplique la plus parfaite possible du mes-
sage émis. Au cours de la transmission, le signal modulé e (t) subit
F inst (t) = ν0 + k f m (t ) une atténuation importante et le signal reçu possède en général un
niveau tel que le bruit B (t ) généré par les circuits du récepteur ne
En intégrant la fréquence instantanée, on obtient la phase instan- peut être négligé. De façon classique, en traitement du signal, toutes
tanée et l’on en déduit l’expression du signal modulé en fréquence : les composantes de bruit sont ramenées à l’entrée du récepteur et


t ainsi on peut modéliser le signal reçu r (t ) à l’entrée du récepteur par :
e ( t ) = Acos 2π ν 0 t + 2πk f m ( u ) du  (7) r (t) = e (t) + B (t)
0
Le bruit B (t ) peut en général être modélisé par une fonction aléa-
On peut aussi définir la modulation de phase pour laquelle la
toire gaussienne, centrée, indépendante du signal modulé e (t ), sta-
phase instantanée est une fonction affine du message à
tionnaire et de densité spectrale de puissance γ B (ν) constante :
transmettre :
ϕ inst (t ) = 2 π ν0 t + kp m (t) N0
γ B ( ν ) = --------
- ν
Modulation de phase et modulation de fréquence sont en réalité 2
très voisines. Avant d’être démodulé, le signal reçu est amplifié sélectivement
En modulation de phase, la fréquence instantanée est égale à : par un filtre de réception pour limiter la puissance du bruit B (t ). Le
filtre de réception, dont la bande passante est égale à la largeur du
1 dm ( t )
F inst ( t ) = ν 0 + --------- k p -------------------- spectre du signal modulé, fournit au démodulateur un signal Xr (t ).
2π dt
■ Mesure de la qualité d’une transmission
Ainsi, à partir des expressions de la fréquence instantanée de Le récepteur va fournir au destinataire une réplique du message
ces deux modulations, on constate qu’en intégrant ou en dérivant émis m (t) sous forme d’un signal bruité Y (t ) :
le message m (t ), on peut réaliser un modulateur de fréquence à
partir d’un modulateur de phase ou inversement. Compte tenu de Y (t) = K m (t ) + b (t ) (9)
cette remarque, la suite de l’exposé sera centrée sur la modulation
où K est une constante.
de fréquence.
Le signal Y (t) est d’autant plus voisin du message m (t) que la
■ Quelques propriétés des modulations angulaires contribution du bruit b (t) est moins importante. Ainsi, de façon
● Ces modulations possèdent une enveloppe constante, ce qui assez naturelle, la qualité de la transmission peut être mesurée à
leur confère une bonne résistance aux non-linéarités. partir du rapport signal à bruit S/B évalué en sortie du récepteur :
● La puissance moyenne d’une modulation angulaire est
S Puissance moyenne de la composante message en sortie du récepteur
constante : ----- = --------------------------------------------------------------------------------------------------------------------------------------------------------------------------
B Puissance moyenne de la composante bruit en sortie du récepteur
A2
P e = ---------
2 Avec les notations précédentes, ce rapport signal à bruit est égal
à:
Cette propriété est très intéressante pour le dimensionnement
des émetteurs de puissance pour lesquels il ne sera pas nécessaire S K 2 E  m2 ( t ) 
----- = ------------------------------------
-
de prévoir des amplificateurs ayant une dynamique importante de B E b 2 (t )
fonctionnement.
● Enfin, comme nous aurons l’occasion de le voir pour la modu-
lation de fréquence (§ 2.4.3), elles présentent une bonne immunité
au bruit.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 7
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

2.4.1 Démodulateur synchrone

Le schéma de principe d’un démodulateur synchrone est repré-


senté sur la figure 4. Le signal issu du filtre de réception Xr (t) est
multiplié par une sinusoïde générée par un oscillateur local ayant
la même fréquence ν0 et la même phase Φ0 que la porteuse. Après
multiplication, le signal est filtré par un filtre passe-bas pour élimi-
ner les termes centrés sur 2 ν0 . Ce démodulateur peut être utilisé
pour les trois modulations d’amplitude étudiées.
■ Cas de la modulation d’amplitude à porteuse supprimée : en
sortie du filtre passe-bas, on obtient :
Y (t ) = A m (t)
Si l’oscillateur local est déphasé d’un angle ϕ 0 par rapport à la Figure 4 – Démodulateur synchrone
porteuse, alors le signal Y (t) subit une atténuation égale à cos ϕ 0 :
Y (t ) = A cos ϕ 0 m (t )
Si la transmission se faisait sans bruit, cette atténuation serait
sans conséquence puisqu’il suffirait d’amplifier le signal Y (t) pour
la compenser. La présence d’un bruit additif dégrade le rapport
signal à bruit car, dans ce cas, l’amplification agit sur le message,
mais aussi sur le bruit. Une dérive de la fréquence de l’oscillateur
local est en général lourde de conséquence, puisque le message
est alors multiplié par une atténuation variable dans le temps. Pour
assurer le synchronisme entre la porteuse et l’oscillateur local, on
utilise en général une boucle de Costas.
Dans une boucle de Costas, l’oscillateur local est réalisé à partir
d’un oscillateur commandé en tension comme indiqué sur la
figure 5. Si les deux sinusoïdes en quadrature issues de cet oscilla-
teur sont déphasées d’un angle ϕ 0 par rapport à la porteuse, le
signal d’erreur ε (t) est de la forme : Figure 5 – Boucle de Costas assurant le synchronisme
entre la porteuse et l’oscillateur local
A2
ε ( t ) = --------- m 2 ( t ) sin 2 ϕ 0
2
Pour réaliser le synchronisme entre l’oscillateur local de réception
m 2 (t) n’étant pas à moyenne nulle, son spectre possède une raie et la porteuse en modulation BLU, on transmet en général une
à la fréquence nulle. Ainsi le filtrage passe-bas du signal fréquence égale ou multiple de la fréquence porteuse, appelée
d’erreur ε (t) donne un terme proportionnel à sin 2ϕ0 qui vient fréquence pilote. Cette fréquence est récupérée en réception par
asservir l’oscillateur commandé en tension. Cette boucle de Costas filtrage puis est utilisée pour réaliser la démodulation synchrone.
possède deux points d’équilibre :
ϕ 0 = 0 et ϕ 0 = π Pour cette modulation, le rapport signal à bruit en sortie du
démodulateur est le même que celui obtenu pour la modulation à
On pourra noter que ces deux solutions permettent de maxi- porteuse supprimée :
miser |cos ϕ0|. S Pe
----- = -------------
-
Le rapport signal à bruit en sortie du filtre passe-bas de bande B N0 b
passante b s’obtient sans difficulté :
■ Bien que la démodulation synchrone permette de démoduler une
S Pe modulation d’amplitude à porteuse conservée, c’est en général la
----- = -------------
- démodulation d’enveloppe qui est utilisée pour cette modulation.
B N0 b
■ Cas de la modulation d’amplitude à bande latérale unique : en
utilisant un démodulateur synchrone, en sortie du filtre passe-bas, 2.4.2 Démodulateur d’enveloppe
on obtient un signal proportionnel au message m (t ) :
Y (t ) = A m (t ) Un démodulateur d’enveloppe est réalisé à partir d’une diode et
d’un filtre passe-bas du type RC (figure 6) dont la sortie Y (t ) est
En présence d’un déphasage ϕ 0 entre l’oscillateur local et la por- une fonction affine du message m (t) :
teuse, en sortie du filtre passe-bas le signal Y (t ) est égal à :
Y (t ) = α A [1 + k m (t )]
Y ( t ) = A m ( t ) cos ϕ 0 ± m̂ ( t ) sin ϕ 0  Pour récupérer le message m (t), il suffit de supprimer la
avec m̂ ( t ) défini par la relation (5). composante continue du signal Y (t ) à la condition que m (t ) soit à
moyenne nulle (cas du signal sonore). Comme on peut le voir, le
Pour cette modulation, l’effet d’un déphasage ϕ 0 est plus catas- démodulateur d’enveloppe est particulièrement simple à mettre en
trophique que pour une modulation à porteuse supprimée, œuvre.
puisque Y (t ) n’est plus fonction du seul message m (t ). Dans le cas
particulier où le message m (t ) est un signal de parole, on montre Pour la modulation d’amplitude à porteuse conservée, le rapport
que ce déphasage a peu de conséquence sur la qualité du signal signal à bruit en sortie du démodulateur d’enveloppe est inférieur
démodulé. à celui obtenu pour une modulation d’amplitude à bande latérale
unique ou à porteuse supprimée :

S k 2 Pm Pe
- ⋅ -------------
----- = -------------------------- -
B 1 + k 2 Pm N0 b

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 8 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

Figure 6 – Démodulateur d’enveloppe

k 2 Pm 1
avec 0  ------------------------
-  ---
1 + k 2 Pm 2

où Pm est la puissance moyenne du message


Figure 7 – Boucle à verrouillage de phase
2.4.3 Démodulateur de fréquence

Pour démoduler un signal modulé en fréquence, deux procédés Pour cette application, la bande passante de la boucle à
sont principalement utilisés : le discriminateur et la boucle à verrouillage de phase doit être égale à la bande b occupée par le
verrouillage de phase. message m (t).
La démodulation par boucle à verrouillage de phase a d’abord été
■ Discriminateur
utilisée pour les applications très bruitées où le discriminateur ne
Rappelons qu’un signal modulé en fréquence a pour
permettait pas d’obtenir des performances suffisantes. Aujourd’hui,
expression (6) :
les boucles à verrouillage de phase sont disponibles sous forme de
e (t) = A cos [2 π ν0 t + Φ (t)]
circuits intégrés et leur emploi est beaucoup plus répandu.
avec Φ (t ) = 2 π kf  0
t
m ( u ) du ■ Rapport signal à bruit
Le rapport signal à bruit en sortie du démodulateur est assez
Si l’on dérive le signal e (t), on obtient un signal dont l’enveloppe délicat à calculer. En faisant l’hypothèse que le rapport signal à
R (t) est une fonction linéaire du message m (t) : bruit en sortie du filtre de réception est grand, on démontre que le
rapport signal à bruit en sortie du démodulateur est égal à :
de ( t )
---------------- = – R ( t ) sin 2π ν 0 t + Φ ( t ) 2
dt 3 k f Pm Pe
S
----- = ---------------------
- --------------
avec R (t ) = 2 π A [ν0 + kf m (t )] B b2 N0 b
Un discriminateur est donc constitué d’un filtre dérivateur, dont Contrairement aux modulations d’amplitude, en modulation de
le gain complexe est une fonction linéaire de la fréquence dans toute fréquence on peut améliorer le rapport signal à bruit en sortie du
la bande occupée par le signal modulé, et d’un démodulateur d’enve- démodulateur sans augmenter la puissance émise Pe ; il suffit d’agir
loppe. Le filtre dérivateur peut être réalisé à partir d’un circuit sur le coefficient k f ou sur la puissance Pm du message. Cette bonne
résonnant utilisé sur les flancs de sa fonction de transfert. propriété a évidemment une contrepartie. En effet, lorsque la
Ce démodulateur donne de bons résultats si l’enveloppe du signal puissance Pm du message augmente, l’indice de modulation β aug-
modulé est constante, ce qui n’est pas toujours le cas sur une liaison mente aussi et la bande B occupée par le signal modulé s’accroît
bruitée. Pour remédier à ce problème, on place, avant le discrimi- [relation (8)]. On échange donc des performances en terme de
nateur, un limiteur qui écrête fortement le signal reçu. Cet écrêteur rapport signal à bruit contre de la bande passante, c’est là une
peut être réalisé à partir de deux diodes montées tête-bêche. Pour particularité des modulations de fréquence.
accroître la plage de linéarité du cricuit résonnant, on utilise parfois Pour terminer, disons que, lorsque le rapport signal à bruit en
deux circuits résonnants décalés en fréquence. sortie du filtre de réception est faible, le signal en sortie du démodula-
teur n’est plus proportionnel au message m (t ). Il existe donc un seuil
■ Boucle à verrouillage de phase (Phase Locked Loop ; PLL) au-delà duquel la démodulation devient très délicate. On peut
Une boucle à verrouillage de phase est constituée d’un oscillateur montrer que ce seuil est plus faible pour une boucle à verrouillage
commandé en tension OCT, d’un multiplieur et d’un filtre passe-bas de phase que pour un discriminateur, l’écart (en terme de rapport
(figure 7). Pour un oscillateur commandé en tension, les variations signal à bruit) est de 3 dB.
de sa fréquence par rapport à sa fréquence de repos (égale dans
ce cas à la fréquence porteuse ν0 ) sont proportionnelles au signal
de commande s (t) :
1 dϕ (t )
--------- ------------------ = K s ( t ) 3. Transmission numérique
2π dt
Pour une boucle à verrouillage de phase, en régime permanent,
du signal
l’oscillateur contrôlé en tension et le signal d’entrée de la boucle
ont même phase, soit :
En transmission numérique, il est nécessaire que les messages

 
t t à transmettre soient sous forme numérique, c’est-à-dire constitués
2 π kf m ( u ) du = 2 πK s ( u ) du par une suite de symboles discrets prenant leur valeur dans un
0 0 « alphabet » fini. Si les messages sont analogiques, il faudra les
kf numériser pour utiliser cette technique de transmission.
d’où s ( t ) = ------ m ( t )
K

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 9
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Les modulations se divisent en deux classes :


Dans ce paragraphe sur les transmissions numériques, nous — les modulations linéaires pour lesquelles les composantes en
allons considérer que la source de messages, après numérisa- phase Xc (t) et en quadrature Xs (t) sont obtenues par codage
tion et codage de source si cela est nécessaire, est une source binaire à signal :
d’information stationnaire, sans mémoire et qu’elle délivre des ∞
symboles binaires qui prennent leur valeur dans l’ensemble {0,1}
de façon équiprobable. On supposera, dans ce paragraphe 3,
Xc ( t ) = ∑ a k h ( t – kT )
k=– ∞
qu’il n’y a pas de codage de canal. ∞
et Xs ( t ) = ∑ b k h ( t – kT )
k=–∞

où ak et bk sont des symboles q-aires (q = 2 n ) associés chacun à un


3.1 Élaboration d’un signal numérique message issu de la source d’information, message constitué
de n symboles binaires ;
— les modulations non linéaires pour lesquelles l’enveloppe
Le principe des transmissions numériques consiste à associer à
complexe du signal modulé est de la forme :
chaque ensemble de n symboles binaires, issu de la source d’infor-
mation et appelé message, un signal d’énergie finie et de durée T. Xe (t ) = A exp j Φ (t )
Ce signal caractéristique du message à transmettre est choisi ∞
d Φ (t )
parmi M signaux possibles [S1 (t)... SM (t)] avec M  2 n . La possi- avec ------------------- = β ∑ a k h ( t – kT ) β = Cte
dt k=–∞
bilité de disposer de plus de signaux qu’il n’y a de configurations
des messages permet d’introduire de la corrélation entre les signaux Ce sont des modulations où la déviation instantanée de fréquence
Si (t ) et ainsi d’agir sur les caractéristiques spectrales du signal émis. est proportionnelle au signal issu d’un codeur binaire à signal. Ces
Le signal ainsi constitué, bien que de nature analogique, est désigné modulations non linéaires correspondent aux modulations de
sous le nom de signal numérique. fréquence mais pas aux modulations de phase qui, comme nous le
Lorsque le signal numérique possède une densité spectrale de verrons (§ 3.3), sont des modulations linéaires.
puissance dont les composantes sont basse fréquence, l’opération
précédemment décrite s’appelle le codage binaire à signal. Si cette
densité spectrale de puissance est centrée autour d’une fréquence ν0 3.1.3 Définitions
appelée fréquence porteuse, alors cette opération s’appelle la modu-
lation. Lorsque l’on utilise le codage binaire à signal, on dit que l’on Pour terminer ce paragraphe, introduisons deux définitions.
fait des transmissions en bande de base, et des transmissions sur
porteuse si l’on utilise la modulation. Le débit binaire Db : il est égal au nombre de symboles binaires
transmis par unité de temps.
Avec un codeur binaire à signal, nous transmettons n symboles
3.1.1 Codage binaire à signal binaires toutes les T secondes, donc :
n
Il se réalise en deux étapes : D b = -----
T
— une étape de codage qui associe à chaque message αk constitué
de n symboles binaires et issu de la source d’information, un L’unité est le symbole binaire par seconde.
symbole ak ; La rapidité de modulation R : elle est égale au nombre de
— une étape de « mise en forme » qui associe à chaque signaux Si (t) émis par unité de temps.
symbole ak un signal analogique de durée T. De nombreux codes Avec un codeur binaire à signal, nous transmettons un signal
sont construits à partir de signaux dont l’amplitude est proportion- toutes les T secondes, donc :
nelle à la valeur des symboles ak . Ainsi, le signal numérique issu
d’un codeur binaire à signal a pour expression : 1
R = -----
T


L’unité est le baud.
e (t ) = a k h ( t – kT ) (10)
k = –∞

où h (t ) est une fonction définie sur l’intervalle [0, T [ et nulle


ailleurs. 3.2 Transmission en bande de base :
le codage binaire à signal
3.1.2 Modulation
Dans ce paragraphe, nous allons présenter quelques codeurs
La densité spectrale de puissance d’un signal modulé e (t ) est binaire à signal et nous évaluerons leur densité spectrale de puis-
centrée autour de la fréquence porteuse ν0 ; le signal e (t ) peut donc sance en tenant compte que la source d’information est stationnaire,
se mettre sous la forme : sans mémoire et qu’elle délivre des symboles binaires qui prennent
leur valeur de façon équiprobable dans l’ensemble {0,1}.
e (t ) = Xc (t) cos (2 π ν0 t + ϕ 0 ) – Xs (t ) sin (2 π ν0 t + ϕ 0 )
où Xc (t) et Xs (t ) sont deux composantes basse fréquence appelées
composantes en phase et en quadrature. En posant :
3.2.1 Code binaire NRZ (Non Retour à Zéro)
Xe (t) = Xc (t) + j Xs (t) Pour ce code, on associe à chaque message binaire αk (on
prend n = 1) issu de la source d’informationn un symbole ak par la
il vient e ( t ) = ReX e ( t ) exp  j ( 2π ν 0 t + ϕ 0 )  
relation :
avec Re { · } la partie réelle de la quantité entre crochets, a k = 2 αk – 1 (donc a k = ± 1)
Xe (t) l’enveloppe complexe du signal modulé.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 10 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

La fonction h (t ) est une fenêtre temporelle de durée T :


h (t ) = A ∀ t ∈ [0, T ]
h (t ) = 0 ailleurs
La densité spectrale de puissance γe (ν ) est égale à :
sin π ν T 2
γ e ( ν ) = A 2 T  ---------------------- 
πνT
Ce code est notamment utilisé pour réaliser des modulations par
déplacement de phase ou par déplacement d’amplitude et de phase
(§ 3.3). Pour ces modulations, les composantes en phase et en qua-
drature sont obtenues par codage NRZ. Figure 8 – Densité spectrale de puissance
du code NRZ et du code bipolaire

3.2.2 Code bipolaire RZ (Retour à Zéro)


■ Modulation par déplacement de phase à quatre états MDP4
(Quadrature Phase Shift Keying ; QPSK)
Pour ce code, on associe à chaque message binaire αk (n = 1)
issu de la source d’information un symbole a k par la relation : C’est la plus utilisée des modulations de phase ; le symbole
complexe dk est égal à :
ak = ± 1 si αk = 1 dk = exp j Φk
ak = 0 si αk = 0 et la phase Φk prend ses valeurs dans l’ensemble :
Le symbole a k prend alternativement les valeurs + 1 et – 1 π 3π 5π 7π
lorsque le message α k est égal à 1. Cette règle de l’alternance vient  ----4- ; --------
4
- ; --------- ; --------- 
4 4
corréler les symboles a k .
1
La fonction h (t ) est égale à : d’où d k = ------------ a k + jb k  avec a k , b k ∈ { – 1, 1 }
2
h (t ) = A si t ∈ [0, T /2[
Le signal modulé peut se mettre sous la forme suivante :
h (t ) = 0 ailleurs
1
La densité spectrale de puissance γe (ν ) du code bipolaire RZ a e ( t ) = ------------ X c ( t ) cos ( 2π ν 0 t + ϕ 0 ) – X s ( t ) sin ( 2π ν 0 t + ϕ 0 )  (12)
2
pour expression :
où les deux composantes en phase et en quadrature Xc (t ) et Xs (t )
πνT 2 sont obtenues par codage binaire à signal de type NRZ :

 
A2 T sin ------------
2
γ e ( ν ) = -------------- ---------------------- ( sin π ν T ) 2 ∞
4 πνT
------------
2
Xc ( t ) = ∑ a k h ( t – kT )
k=–∞

Ce code possède une densité spectrale de puissance voisine de
zéro autour de la fréquence nulle.
et Xs ( t ) = ∑ b k h ( t – kT )
k=–∞
Ce code est souvent utilisé pour les transmissions sur câble, pour
lesquelles on transmet simultanément le signal codé et un courant avec h (t ) = A si t ∈ [0, T [
continu pour téléalimenter des répéteurs (répéteur : organe à base
h (t ) = 0 ailleurs
d’amplificateur réparti le long du câble pour combattre son
atténuation). où les symboles ak et bk sont respectivement associés à un symbole
La figure 8 représente la densité spectrale de puissance de ces binaire issu de la source d’information. Pour chaque valeur de la
deux codes binaire à signal. phase Φk , le signal modulé e (t ) peut être représenté par un point
dans un espace à deux dimensions. L’ensemble de ces points
constitue ce que l’on appelle une constellation.
3.3 Transmission sur porteuse : La modulation par déplacement de phase à deux états MDP2 se
déduit de la modulation MDP4 en annulant le symbole bk dans
les modulations numériques linéaires l’expression du signal modulé e (t). Pour une même rapidité de
modulation, la modulation MDP4 permet de transmettre un débit
Rappelons que, pour ces modulations, les composantes en binaire deux fois supérieur à celui de la modulation MDP2 .
phase et en quadrature sont obtenues par codage binaire à signal : On peut montrer que la densité spectrale de puissance d’une
∞ modulation par déplacement de phase est indépendante du
Xc ( t ) = ∑ a k h ( t – kT ) nombre M d’états de phase, elle est fonction de la rapidité de modu-
lation R = 1/T, mais pas directement du débit binaire Db = log 2 M/T.
k=–∞
Ainsi, pour une rapidité de modulation donnée, on pourra trans-

mettre un débit binaire d’autant plus grand que le nombre M d’états
et Xs ( t ) = ∑ b k h ( t – kT )
de phase sera plus élevé.
k=–∞
La densité spectrale de puissance d’une modulation par déplace-
et que le signal modulé a pour expression : ment de phase a pour expression :
∞ 1 1
e ( t ) = Re
 ∑
k=–∞
d k h ( t – kT ) exp j ( 2 π ν 0 t + ϕ 0 )
 (11) γ e ( ν ) = ----- γ Xe ( ν – ν 0 ) + ----- γ Xe ( – ν – ν 0 )
4 4

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 11
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

où γ Xe (ν ) est la densité spectrale de puissance de l’enveloppe 3.4 Transmission sur canal réel
complexe du signal modulé e (t ) :
sin π ν T Un canal de transmission ayant une bande passante limitée, on

2

γ Xe ( ν ) = A 2 T ----------------------
πνT est donc amené à s’intéresser au comportement des signaux numé-
riques en présence de filtrage et notamment à essayer de définir la
■ Modulation par déplacement d’amplitude bande de fréquence nécessaire à la transmission d’un débit binaire
et de phase à M états MDAPM donné. Dans ce paragraphe, on se limitera au cas des modulations
linéaires, car elles sont les plus utilisées dans les équipements de
Cette modulation est aussi connue sous le nom de modulation
transmission numérique. Le codage binaire à signal sera traité
d’amplitude suivant deux porteuses en quadrature (MAQ M ). Le
comme un cas particulier des modulations linéaires.
symbole complexe dk est de la forme :
dk = ρk exp j Φk = ak + j bk
3.4.1 Influence du filtrage :
et les symboles ak et bk prennent leur valeur dans l’ensemble :
l’interférence entre symboles
{± 1 ; ± 3 ;... ; ± (2 p + 1) ;... ; ± (N – 1)} avec N = 2n
Considérons le filtrage d’un signal modulé e (t ) par un filtre
La fonction h (t ) est une fenêtre temporelle de durée T : passe-bande. On peut montrer que sa sortie Y (t ) est égale à :
h (t ) = A si t ∈ [0, T [ ∞

h (t ) = 0 ailleurs
Y ( t ) = Re  ∑ d k h e ( t – kT ) exp j ( 2π ν 0 t + ϕ 0 ) 
k = –∞
Le signal modulé e (t ) a pour expression : où he (t ) résulte du filtrage de la fonction h (t ) par le filtre
∞ passe-bande.
e (t ) = ∑ a k h ( t – kT ) cos ( 2π ν 0 t + ϕ 0 ) Le démodulateur extrait l’enveloppe complexe du signal reçu,
k = –∞ ∞ puis l’échantillonne aux instants nT. À partir de ces échantillons,
– ∑ b k h ( t – kT ) sin ( 2π ν 0 t + ϕ 0 ) un circuit de décision permet de retrouver la valeur dˆk des
k = –∞ symboles dk .
Examinons l’enveloppe complexe Y e (t ) du signal Y (t ) aux
où chaque symbole ak (respectivement bk ) est associé à un message instants (nT + τ ) où τ tient compte du retard introduit par le filtre
constitué de n symboles binaires issu de la source d’information. passe-bande :
L’ensemble des représentations possibles du signal e (t ) forme, dans ∞
un espace à deux dimensions, une constellation à M = 2 2n points. Y e ( nT + τ ) = d n h e ( τ ) + ∑ d k h e  ( n – k )T + τ 
La fonction h (t ) étant une fenêtre temporelle de durée T, la k = –∞
k≠n
modulation par déplacement d’amplitude et de phase possède une
densité spectrale de puissance proportionnelle à celle de la modu-
La fonction he (t ) qui résulte du filtrage de la fonction h (t ) n’a plus
lation par déplacement de phase.
aucune raison d’être nulle en dehors de l’intervalle [0, T [. Ainsi
■ Pour terminer ce paragraphe, faisons quelques commentaires l’enveloppe complexe du signal modulé, après filtrage et échan-
sur l’utilisation des modulations numériques et du codage tillonnage aux instants (nT + τ ), va dépendre du symbole dn , mais
binaire à signal. aussi des symboles antérieurs et même postérieurs (si τ > T ) à dn .
Lorsque l’on désire faire des transmissions de données Ce phénomène, qui est de nature à dégrader la qualité de la trans-
numériques sur le réseau téléphonique, on doit utiliser un modem mission, s’appelle l’interférence entre symboles.
(modulateur-démodulateur). Ces modems sont de deux types : On appelle diagramme de l’œil la superposition de toutes les
— les modems en bande de base : ils utilisent en fait un codeur configurations de Re {Ye (t )} ou Im {Ye (t )}, il permet d’évaluer
binaire à signal en guise de modulateur. Ces modems sont l’interférence entre symboles sur les voies en phase et en quadra-
réservés aux transmissions à courte distance (quelques kilomètres) ture du signal modulé. Ce diagramme peut être visualisé en
et utilisent principalement les codes bipolaires ; observant Re {Ye (t )} ou Im {Ye (t )} sur un oscilloscope synchronisé
— les modems sur porteuse : ils utilisent effectivement un modu- par un signal dont la fréquence est égale à la rapidité de modula-
lateur. Parmi les modulations les plus employées, on notera la modu- tion de la transmission (figure 9).
lation par déplacement de phase à quatre états (MDP4), qui permet Si ce diagramme de l’œil est ouvert comme c’est le cas sur la
de transmettre un débit binaire de 4 800 symboles binaires par figure 9, il n’y a pas d’interférence entre symboles. Si le diagramme
seconde dans une bande de 3 kHz, et la modulation par déplacement commence à se fermer, il y a apparition d’interférence entre
d’amplitude et de phase MDAP16 ou MAQ16 qui permet de passer symboles. Pour lutter contre ce phénomène de l’interférence entre
9 600 symboles binaires par seconde dans la même bande de symboles, les filtres utilisés dans la chaîne de transmission doivent
fréquence. vérifier certaines propriétés définies par le critère de Nyquist.
En transmission numérique par satellite, on utilise principale-
ment la modulation par déplacement de phase à quatre états.
Enfin, pour les transmissions sur câble coaxial et par faisceau 3.4.2 Critère de Nyquist
hertzien, après avoir utilisé la modulation par déplacement de phase
à quatre états, la tendance actuelle est de s’orienter vers les modu- L’absence d’interférence entre symboles aux instants (nT + τ )
lations par déplacement d’amplitude et de phase à grand nombre implique que la fonction he (t ) vérifie la condition suivante :
d’états : MAQ 64 , MAQ 128 et même MAQ 256 pour lesquelles les he (nT + τ ) = he (τ ) δn, 0 avec h e ( τ ) ∈ 
premiers équipements expérimentaux sont en cours d’essais.
avec δn, 0 symbole de Kronecker,
 ensemble des réels.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 12 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

Figure 9 – Diagramme de l’œil

Figure 10 – Réponse en cosinus surélevé


La résolution de cette équation conduit à choisir la fonction
He (ν ) transformée de Fourier de he (t ) de la forme :
■ Choix des filtres d’émission et de réception
He (ν ) = |He (ν )| exp (– j 2 π ν τ )
À l’entrée du décodeur, le signal a pour expression :
avec :

He ( ν ) = T he ( τ )
1
∀ ν  ---------- ( 1 – α )
2T
X (t ) = ∑ a k h e ( t – kT ) + B ( t )
k = –∞

T
2  πT 1
 
H e ( ν ) = ----- h e ( τ ) 1 + sin --------- ---------- – ν
α 2T   où h e (t) résulte du filtrage de la fonction h (t ) par le filtre
d’émission :
he (t ) = h (t ) ∗ f (t )
1 1
pour ---------- ( 1 – α )  ν  ---------- ( 1 + α ) avec ∗ opération de convolution.
2T 2T
|He (ν )| = 0 ailleurs Le filtre de réception, d’après la théorie de la détection, doit être
adapté au signal he (t ), soit :
α compris entre 0 et 1 appelé facteur d’arrondi (en anglais roll off ).
g (t ) = he (– t )
La fonction |He (ν )|, qui vérifie le critère de Nyquist, est représen-
tée sur la figure 10. Sous cette forme, le filtre de réception n’est pas causal, il est
donc nécessaire d’introduire un retard τ pour assurer sa causalité :
3.5 Structure et performances g (t) = he (τ – t )
des récepteurs optimaux L’utilisation d’un filtre adapté permet de maximiser le rapport
signal à bruit en sortie du décodeur. Pour que la probabilité d’erreur
3.5.1 Critère de qualité soit minimale, il est nécessaire de plus d’annuler l’interférence entre
d’une transmission numérique symboles à la sortie Z (t) du filtre adapté aux instants (nT + τ ) :

Pour déterminer la structure optimale d’un récepteur, il est ∞


nécessaire de se doter d’un critère. En transmission numérique, on Z (t ) = ∑ a k r ( t – kT ) + B ′ ( t )
souhaite que les symboles issus de la source d’information soient k = –∞
transmis au destinataire avec le moins d’erreurs possible. Ainsi, le
avec r (t) = he (t ) ∗ g (t)
critère de qualité généralement utilisé est celui du minimum de la
probabilité d’erreur. ce qui est réalisé si la fonction r (t) satisfait le critère de Nyquist.
On obtient finalement que les filtres d’émission et de réception
doivent vérifier les conditions suivantes :
3.5.2 Transmission en bande de base
G (ν) = R (ν) 
La densité spectrale de puissance d’un code binaire à signal ne 
s’annule que pour une fréquence infiniment élevée, c’est la raison R (ν)  (13)
F ( ν ) = ------------------------ 
pour laquelle on peut envisager de filtrer le signal codé avant de H (ν) 
l’émettre sur la voie de transmission. Le signal reçu à l’extrémité
de cette voie est en général fortement atténué et, comme nous avec G (ν ), R (ν ), F (ν ), H (ν ) transformées de Fourier respectivement
l’avons déjà indiqué (§ 2.4), on doit tenir compte du bruit généré par des fonctions g (t ), r (t ), f (t ), h (t ).
les circuits d’entrée (amplificateur) du décodeur. Ce bruit de type
additif B (t ) peut être modélisé par une fonction aléatoire gaussienne ■ Occupation spectrale d’un signal numérique
centrée, stationnaire et de densité spectrale de puissance constante Considérons par exemple un code binaire à signal de type NRZ ;
notée N0 /2 (bruit blanc). On démontre, à l’aide de la théorie de la sa densité spectrale de puissance est de la forme :
détection, que le décodeur optimal est constitué d’un filtre de
réception de réponse impulsionnelle g (t ) suivi d’un échantillonneur H (ν) 2
γ e ( ν ) = ---------------------
aux instants (nT + τ ) et d’un circuit de décision (figure 11). Dans ce T
paragraphe, nous allons indiquer comment choisir les filtres de cette
chaîne de transmission de façon optimale, puis évaluer les perfor- avec H (ν ) transformée de Fourier de la fonction porte h (t).
mances de ce décodeur.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 13
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Figure 11 – Structure d’une chaîne de transmission en bande de base

En sortie du filtre d’émission, la densité spectrale de puissance


est égale à :
H (ν) 2
γ s ( ν ) = --------------------- F ( ν ) 2
T
où F ( ν ) est la réponse en fréquence du filtre d’émission. En
remplaçant F ( ν ) par la valeur (13) trouvée précédemment, on
obtient :
R (ν)
γ s ( ν ) = ------------------
T
Si l’on choisit un facteur d’arrondi α = 0 pour la fonction R (ν ),
alors la bande de fréquence nécessaire pour transmettre sans
interférence entre symboles, des données à un débit binaire
Db = 1/T est de 1/2 T (en hertz). Cette bande de fréquence est appe-
lée bande de Nyquist. Cette bande est purement théorique car, en
pratique, le facteur d’arrondi α est toujours supérieur à zéro.
■ Performance d’une transmission en bande de base
Nous allons traiter le cas où les symboles ak sont binaires
(ak = ± 1) et indépendants. À la sortie de l’échantillonneur, nous Figure 12 – Probabilité d’erreur Pe , en fonction du rapport Eb / N 0
disposons de la variable Z (nT ) notée Zn avec :
De façon à pouvoir comparer les performances des différents
Zn = an r (τ ) + B n′
codes ou modulations, la probabilité d’erreur est toujours expri-
où B n′ est le bruit en sortie du filtre de réception à l’instant nT + τ . mée en fonction du rapport Eb /N0 où Eb est l’énergie moyenne
Le circuit de décision, d’après la théorie de la détection, doit choisir reçue par symbole binaire d’information émis :
pour le symbole an la valeur (± 1) qui minimise la quantité :


2 2
[Zn – an r (τ )] 2 E b = E a k  h e ( t – kT ) d t = r ( τ )
–∞
En tenant compte que r (τ ) est positif et que an = ± 1, on obtient : Et finalement la probabilité d’erreur est égale à :
ân = 1 si Zn > 0

 
1 Eb
ân = – 1 si Zn < 0 P e = ----- 1 – erf -------
-
2 N0
où ân représente le symbole an après décision. Elle est tracée pour différentes valeurs du rapport Eb /N0 sur la
La probabilité d’erreur Pe , en supposant les deux valeurs de figure 12. La probabilité d’erreur est une fonction décroissante du
an équiprobables, est égale à : rapport Eb /N 0 et elle tend vers 0,5 lorsque ce rapport est égal à
– ∞ dB (soit 0 en valeur linéaire) (incertitude maximale en sortie du
1 1
P e = ----- Pr ( Z n > 0 a n = – 1 ) + ----- Pr ( Z n < 0 a n = 1 ) décodeur).
2 2
où Pr (...|...) désigne la probabilité conditionnelle.
Conditionnellement à une valeur du symbole an , la variable aléa-
3.5.3 Transmission sur porteuse
toire Zn est gaussienne car le bruit B (t ) est modélisé par une fonc-
Dans ce paragraphe, nous allons examiner le cas des modula-
tion aléatoire gaussienne. En introduisant la fonction d’erreur
tions linéaires.
erf (x) définie par :
Supposons que le signal modulé soit filtré avant d’être émis,


x pour limiter son encombrement spectral, par un filtre passe-bande
2
erf ( x ) = ----------- exp ( – u 2 ) du de réponse impulsionnelle f (t ) avec :
π 0
f (t) = Re { fe (t) exp (j 2 π ν0 t ) }
la probabilité d’erreur Pe est égale à :
Sous cette hypothèse, le signal reçu est égal à :
1

P e = ----- 1 – erf
r (τ )
--------------
 ∞

 
2 N0
X ( t ) = Re ∑ d k h e ( t – kT ) exp j ( 2π ν 0 t + ϕ 0 ) + B ( t )
k = –∞

h (t ) = he (t ) ∗ fe (t )

avec B (t ) bruit blanc additif gaussien, centré stationnaire et de


densité spectrale de puissance égale à N 0 /2.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 14 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

■ Choix des filtres d’émission et de réception ■ Performance d’une transmission sur porteuse
Pour terminer, nous allons donner l’expression de la probabilité
d’erreur Pe obtenue avec une modulation par déplacement de
Propriété : un filtre passe-bande dont la réponse en fré-
phase et d’amplitude à M états MDAPM . Cette probabilité d’erreur
quence est symétrique par rapport à sa fréquence centrale pos-
est la même pour les symboles a k et les symboles b k qui prennent
sède une réponse impulsionnelle dont l’enveloppe complexe est
leur valeur dans l’ensemble E défini par :
réelle.
E : {± 1 ; ± 3 ;... ; ± (2 p + 1) ;... ; ± (N – 1)}
En première approximation, le filtre d’émission satisfait en général avec N = 2n
la propriété de symétrie que nous venons d’énoncer et ainsi le


signal he (t ) est réel. La démodulation consiste dans un premier

N–1 3 Eb
temps à extraire du signal reçu les composantes en phase et en qua- P e = --------------- 1 – erf - ( log 2 N ) -------
----------------- -
N N2 – 1 N0
drature. Ceci peut être réalisé par multiplication et filtrage passe-bas
du signal X (t ) par cos (2 π ν0 t + ϕ0 ) et par – sin (2 π ν0 t + ϕ0). Ces On se rappelle que chaque symbole a k (respectivement b k ) est
composantes ont pour expression : associé à un message issu de la source d’information, message
∞ constitué de n symboles binaires d’information. Il est en général
Xc ( t ) = ∑ a k h e ( t – kT ) + B c ( t ) intéressant de connaître la probabilité d’erreur Peb par symbole
binaire d’information.
k = –∞
∞ Si l’association entre les symboles a k (respectivement b k ) et les
Xs ( t ) = ∑ b k h e ( t – kT ) + B s ( t ) messages issus de la source d’information suit un code de Gray
k = –∞ (encadré 1), alors on montre que :
P
où Bc (t ) et Bs (t ) représentent les termes de bruit.
P eb ≈ ------------------
log N
e
2
Ces composantes en phase et en quadrature sont ensuite filtrées
par un filtre adapté, de réponse impulsionnelle g (t ) avec :
Encadré 1 – Code de Gray
g ( t ) = h e (τ – t )
Ce code consiste à associer à deux valeurs consécutives de
où τ est un retard introduit pour assurer la causalité de la
l’ensemble E deux messages qui ne diffèrent que par un seul
fonction g (t ).
symbole binaire. On réalise ce type de codage car les erreurs de
Le démodulateur ainsi obtenu est représenté sur la figure 13 : décision les plus probables ont lieu entre les valeurs les plus
∞ voisines de l’ensemble E : ainsi à une erreur de décision
Zc ( t ) = ∑ a k r ( t – kT ) + Bc′ ( t ) correspondra un seul symbole binaire faux dans un message de
n symboles.
k = –∞


Zs ( t ) = ∑ b k r ( t – kT ) + B s′ ( t ) Exemple : soit un ensemble E à quatre éléments (N = 4 et n = 2) :
k = –∞ E : [– 3, – 1, 1, 3]
Le codage de Gray pourra être le suivant :
avec r (t ) = he (t ) * g (t )
– 3 → 10 – 1 → 11 1 → 01 3 → 00
Pour annuler l’interférence entre symboles à la sortie des filtres
adaptés aux instants (nT + τ ), il faut que le signal r (t ) satisfasse le ● Pour une modulation par déplacement de phase à 4 états MDP 4
critère de Nyquist. Ceci conduit à choisir les filtres d’émission et de (N = 2), la probabilité d’erreur Peb est égale à :
réception de la façon suivante :
 
1 Eb
P eb = ----- 1 – erf --------
G (ν) = R (ν) 2 N0
R (ν)
Fe ( ν ) = ----------------------- ● Pour une modulation par déplacement de phase et d’amplitude
H (ν) à 16 états MDAP 16 (N = 4), la probabilité d’erreur Peb est égale à :

 
■ Occupation spectrale d’un signal modulé 3 2E b
P eb = ----- 1 – erf -------------
Pour une modulation par déplacement d’amplitude et de phase 8 5N 0
à M états et un facteur d’arrondi α = 0, la bande de fréquence
nécessaire pour transmettre, sans interférence entre symboles, des Pour comparer deux procédés de transmission en terme de
données avec un débit binaire Db = log2 M / T est de 1/ T (en hertz). probabilité d’erreur, on évalue en général la quantité dont il faut
accroître le rapport Eb /N0 pour l’un d’entre eux de façon à obtenir
On dit parfois que cette modulation possède une efficacité spec-
la même probabilité d’erreur pour les deux procédés de transmis-
trale η définie comme le nombre de symboles binaires d’informa-
sion.
tion transmis par hertz et par seconde :
Exemple : pour les deux modulations considérées précédemment,
η = log2 M il faut augmenter le rapport Eb /N0 de 4 dB (10 log10 5/2) en modulation
Plus le nombre M d’états de la modulation est grand et plus on MDAP 16 pour obtenir la même probabilité d’erreur qu’en modulation
transmet d’information dans une bande de fréquence donnée. MDP 4 .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 15
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Figure 13 – Structure d’une chaîne de transmission sur porteuse

■ Canal gaussien
4. Codage de canal Lorsque la perturbation prise en compte dans la transmission suit
une loi de Gauss et que le démodulateur est linéaire (démodulateur
Nota : se reporter également à l’article Théorie du codage et protection contre les
erreurs [E 170] dans le traité Électronique.
cohérent), les échantillons à l’entrée du circuit de décision suivent
une loi de Gauss. Dans ce cas, le canal à l’entrée discrète et à sortie
Le codage de canal consiste à ajouter au message à transmettre analogique est appelé canal gaussien. Il est défini par ses densités
des symboles suivant une loi donnée et à venir vérifier au décodage de probabilité :
que cette loi est respectée. Si c’est le cas, on considère qu’il n’y a
p Yk Xk = xi ( y k )
pas eu d’erreurs de transmission. Dans le cas contraire, on détecte
la présence d’erreurs que l’on peut éventuellement corriger. Dans
ce paragraphe, nous nous intéresserons aux codes linéaires en blocs Si le canal est stationnaire et sans mémoire, les densités de
et plus particulièrement aux codes cycliques et aux codes convolutifs probabilité sont indépendantes du temps et la sortie du canal à
(§ 4.5 et 4.6). l’instant k ne dépend que du symbole d’entrée à l’instant k.

4.2 Capacité d’un canal


4.1 Modélisation d’un canal
4.2.1 Canal discret stationnaire et sans mémoire
Dans ce paragraphe sur le codage, nous appellerons canal de
transmission l’ensemble modulateur (ou codeur q-aire à signal), voie Pour définir la capacité d’un canal discret, il faut introduire la
de transmission et démodulateur (ou décodeur q-aire à signal). Deux notion d’information mutuelle entre deux variables aléatoires.
points de vue seront adoptés selon que la sortie du canal sera prise Considérons deux variables aléatoires dépendantes X et Y qui
après ou avant le circuit de décision du démodulateur. Dans le prennent respectivement leur valeur dans les ensembles suivants :
premier cas, le canal sera à entrée et à sortie discrètes et l’on parlera X ∈{x 0 ,..., x i ,..., x n – 1 }
de canal discret. Dans le second cas, l’entrée sera toujours discrète
mais la sortie sera analogique, sous certaines hypothèses que nous et Y ∈{y 0 ,..., y j ,..., ym – 1 }
préciserons ci-après, et l’on parlera de canal gaussien.
La réalisation de l’événement X = x i apporte une information
■ Canal discret quant à la réalisation de l’événement Y = y j que l’on peut mesurer
Un canal discret peut être défini par ses probabilités de transi- par :
k
tion p ij où :
Pr Y = y j X = x i 
k
p ij = Pr Y k = y j | X k = x i  i ( x i , y j ) = log 2 -------------------------------------------------
Pr Y = y j 
m–1

k
avec p ij = 1 ∀i L’information mutuelle moyenne I (X, Y ) est définie comme la
j=0 moyenne de la quantité i (X, Y ) :
où X k et Y k représentent respectivement l’entrée et la sortie du n–1 m–1 Pr Y = y j X = x i 
canal à l’instant k et prennent leur valeur dans les ensembles : I ( X, Y ) = ∑ ∑ Pr X = x i , Y = y j  log 2 --------------------------------------------------
Pr Y = y j 
i=0 j=0
[x0... x i ... x n – 1] et [y0... y j ... y m – 1]
L’information mutuelle moyenne est positive et s’annule lorsque
Lorsque les probabilités de transition sont indépendantes du les variables X et Y sont indépendantes. On peut montrer qu’elle
temps, le canal est stationnaire. Si le symbole à la sortie du canal peut s’exprimer en fonction de H (X ) et de H (X/Y) :
à l’instant k ne dépend que du symbole à l’entrée du canal à
l’instant k, le canal est sans mémoire. I (X, Y) = H (X ) – H (X/Y )
Enfin, lorsque les symboles à l’entrée et à la sortie du canal sont avec H (X ) entropie par symbole à l’entrée du canal.
binaires et que les probabilités de transition sont symétriques : La capacité C d’un canal discret est définie comme la plus
pij = pji ∀ i, j ∈ {0, 1} grande quantité d’information mutuelle moyenne qu’il peut
transmettre :
le canal est appelé canal binaire symétrique et il est entièrement C = max I (X, Y )
défini par sa probabilité d’erreur p : où X et Y représentent respectivement l’entrée Xk et la sortie Yk du
p 01 = p 10 = p canal. La capacité d’un canal s’exprime en bits par symbole.

p 00 = p 11 = 1 – p

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 16 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

Un canal de transmission étant défini par ses probabilités de Lorsque m = 4, la probabilité d’erreur Pe est égale à 1,2 × 10– 8 que
transition, le maximum de l’information mutuelle I (X, Y ) est à l’on peut considérer comme voisine de zéro mais, dans ce cas, l’entro-
prendre par rapport à la distribution de probabilité : pie H (X ) par symbole à l’entrée du canal est égale à :
{ p 0 ... p n – 1 } 1
H ( X ) = ------------------- = 0,11 bit / symbole
2m + 1
où pi = Pr { Xk = xi }
ce qui est très inférieur à la capacité C du canal. Ce code, qui permet
Pour un canal binaire symétrique, le maximum de l’information
de corriger de nombreuses erreurs de transmission, n’est pas perfor-
mutuelle I (X, Y ) est obtenu lorsque les symboles « 0 » et « 1 » à
mant, en ce sens qu’il nécessite d’introduire un grand nombre de sym-
l’entrée du canal sont équiprobables et sa capacité est égale à :
boles de redondance.
C = 1 – (1 – p) log2 (1 – p) – p log2 p (14) Pour le calcul de H (X ), on a supposé que l’entropie par symbole
binaire issu de la source d’information était égale à 1.

4.2.2 Canal stationnaire sans mémoire gaussien 4.4 Codes en blocs linéaires
Pour ce canal, nous nous limiterons à donner l’expression de sa
capacité C : 4.4.1 Principe
S
C = B T log 2 1 + -----
N   Un code linéaire en blocs est une application f entre des blocs
de k symboles issus de la source d’information appelés messages
avec B bande passante du canal, M et des blocs de n symboles (n > k) appelés mots de code C. Le
rapport :
S/N rapport signal à bruit en sortie du canal, R = k /n
1/T nombre de symboles transmis par le canal par unité
de temps. est appelé le rendement du code.
La linéarité des codes en blocs conduit à utiliser des notations
matricielles pour les représenter. On passe du message M au mot
de code C par une matrice génératrice G :
4.3 Théorème fondamental sur le codage
de canal (2e théorème de Shannon) C = MG
où M = [m0 ... mi ... mk – 1]
C = [c 0 ... c j ... cn – 1]
Théorème : il est possible, en utilisant un codage de canal
approprié, de transmettre de l’information sous forme d’une G est donc une matrice rectangulaire à k lignes et n colonnes. On
suite de symboles discrets avec une probabilité d’erreur aussi peut montrer qu’il est toujours possible de trouver une matrice non
aible que l’on veut si l’entropie par symbole H (X ) à l’entrée du nulle H appelée matrice de contrôle qui est orthogonale à la
canal est inférieure à sa capacité C. matrice génératrice G :

GH t = 0
Ce théorème n’indique malheureusement pas comment réaliser l’indice t indiquant la transposition.
le codage. La matrice de contrôle H va permettre comme nous allons le voir
Exemple : soit un codage de canal qui associe à chaque symbole (§ 4.4.2) de détecter les erreurs de transmission.
Nota : nous noterons en gras les matrices et vecteurs.
binaire issu de la source d’information un mot de code constitué de
(2m + 1) symboles binaires de la façon suivante :
« 0 » codé par (0..........0..........0) 4.4.2 Pouvoir de détection et de correction
« 1 » codé par (1..........1..........1)
Nous allons considérer que les symboles issus de la source
Les mots de code sont transmis sur un canal binaire symétrique de d’information sont binaires, qu’ils prennent leur valeur de façon
probabilité d’erreur p = 10 – 2. Ce type de codage est-il performant au équiprobable dans l’ensemble {0, 1} et que la transmission se fait
sens du théorème de Shannon ? sur un canal binaire symétrique stationnaire et sans mémoire.
En utilisant l’expression (14) de la capacité C d’un canal binaire Lorsque le mot de code C est émis, on reçoit en sortie du canal un
symétrique, on obtient : mot R que l’on peut écrire sous la forme suivante :
C = 0,92 bit / symbole R=C+e
Pour que la probabilité d’erreur Pe après décodage (on supposera où e est un vecteur à n composantes binaires qui représente les
que l’on utilise un décodage majoritaire) soit voisine de zéro, il faut que erreurs éventuelles de transmission.
le paramètre m soit suffisamment grand. On peut montrer facilement
que : ■ Détection des erreurs
La détection des erreurs est réalisée en calculant le syndrome S :
m+1
Pe ≈ C 2m + 1 p m + 1 ( 1 – p ) m S =RH t
avec : En tenant compte que la matrice de contrôle H est orthogonale
à la matrice génératrice G, on voit que le syndrome S est égal à :
p n!
C n = -----------------------------
p ! ( n – p )! S = e Ht

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 17
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

● Si le syndrome S est nul, c’est que le vecteur e est nul ou qu’il 4.5 Codes cycliques
a pris la configuration d’un mot de code. Ne pouvant différencier ces
deux cas de figure, on fera l’hypothèse qu’il n’y a pas d’erreurs de
transmission ou du moins d’erreurs détectables. 4.5.1 Principe et représentation polynomiale
● Si le syndrome S est différent de zéro, on peut affirmer sans Les codes cycliques sont des codes linéaires en blocs. Un code
ambiguïté que l’on est en présence d’erreurs de transmission. linéaire en blocs est cyclique si :
Le calcul du syndrome S permet donc de faire de la détection
C : (c 0 ... ci ... cn – 1) ci ∈[0, 1] (15)
d’erreurs.
■ Correction des erreurs étant un mot de code, alors :
On utilise en général la règle de décision du maximum de C1 : (cn – 1 , c 0 ,... c i ... cn – 2)
vraisemblance qui conduit à décider que le mot de code émis
est Cj si : déduit de C par permutation circulaire à droite, est aussi un mot de
d j < di ∀ j ≠ i code.
Cette définition des codes cycliques entraîne que tout mot de code
où d j est la distance de Hamming entre le mot Cj et le mot reçu R. C i déduit de C par i permutations circulaires est aussi un mot de
On rappelle que la distance de Hamming entre deux vecteurs code. Pour les codes cycliques, on préfère en général utiliser une
constitués de symboles binaires est égale au nombre de symboles représentation polynomiale plutôt qu’une représentation matricielle
qui sont différents entre ces deux vecteurs. des messages et des mots de code.
■ Pouvoir de correction d’un code Ainsi, au mot de code C, on associe le polynôme C (x) avec :
On démontre que, si la distance minimale entre les mots de code C (x) = c 0 + c1x + ... + cn – 1 x n – 1
est d min , alors on peut corriger t erreurs et en détecter 2 t dans des
mots constitués de n symboles avec : où x est une indéterminée, dont l’exposant correspond à l’empla-
cement du symbole considéré dans le mot de code.
d min – 1
t =  -----------------------  Avec cette représentation polynomiale des codes cycliques, on
2 passe du message M (x ) constitué de k symboles au mot de
où [ · ] désigne la partie entière. code C (x) par le polynôme générateur g (x) :
Un bon code est donc un code dont le rendement R est grand et g (x) = g 0 + g1x + ... + gn – k x n – k
pour lequel la distance minimale entre les mots de code est la plus
élevée possible. et tout mot de code C (x) peut s’écrire sous la forme :
Pour un code en blocs linéaire, on démontre que la distance mini- C (x) = M (x) g (x)
male entre les mots de code est égale au poids minimal de ses mots
de code non nuls (*). Cette méthode pour déterminer la distance Pour les codes cycliques, on démontre que le polynôme géné-
minimale n’est pas forcément facile à utiliser lorsque le nombre de rateur est un diviseur de x n + 1 :
mots de ce code est élevé.
(*) On rappelle que le poids d’un vecteur constitué de symboles binaires est égal au
x n + 1 = g (x) h (x) (16)
nombre de symboles de ce vecteur égaux à 1.
h (x ) est appelé le polynôme vérificateur de parité, c’est l’équiva-
lent de la matrice de contrôle H.
4.4.3 Performances des codes en blocs linéaires En général, dans un système de codage, on ne mélange pas les
symboles de redondance et les symboles qui proviennent du mes-
Il est possible de trouver une borne supérieure de la probabilité sage dans un mot de code. On dit alors que le code est sous forme
d’erreur Pe . Si le décodage est incorrect, c’est qu’il y a eu plus systématique, c’est-à-dire que :
de t erreurs de transmission dans un ensemble de n symboles
C (x) = V (x) + x n – k M (x) (17)
binaires. Supposons le nombre d’erreurs égal à i ( i  t + 1 ), alors le
décodeur corrige au plus t symboles qui ne sont pas obligatoirement où V (x ) est un polynôme qui représente les symboles de
les symboles erronés. Ainsi, dans le pire des cas, le décodeur intro- redondance.
duit t erreurs supplémentaires, d’où : Les mots de code restent bien entendu un multiple du polynôme
n générateur :
1

i C (x) = g (x) q (x)
P e  ----- ( i + t ) Cn ( 1 – p ) n – i p i
n
i = t+1 En tenant compte que toutes les opérations sont faites modulo 2,
on obtient :
où p est la probabilité d’erreur par symbole sur le canal de
transmission. x n – k M (x) = g (x) q (x) + V (x)
V (x) représente donc le reste de la division (modulo 2) de x n – k M (x)
par g (x).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 18 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

Exemple : soit un code cyclique de paramètres n = 7 et k = 4. Le


polynôme générateur g (x ) de degré n – k = 3 doit être un diviseur
de x 7 + 1 [d’après la relation (16)].
On a :

x 7 + 1 = (x 3 + x + 1) (x 4 + x 2 + x + 1) (modulo 2)
d’où g (x) = x3 +x+1
Considérons le message 1011 de représentation polynomiale M (x) :

M (x) = 1 + x 2 + x 3
Le mot C (x) associé à ce message est de la forme [d’après la
relation (17)] .

C (x) = V (x) + x 3 M (x)


Le reste de la division (modulo 2) de x 3 M (x) par g (x) est égal à 1. Figure 14 – Mise en œuvre d’un codeur cyclique
Ainsi le mot de code C (x) est égal à :

C (x) = 1 + x 3 + x 5 + x 6 Ces codes permettent de corriger au moins t erreurs dans un


mot de n symboles. La définition du polynôme générateur d’un
d’où C = (1001011). code BCH nécessite d’introduire des notions d’algèbre sur les
Nota : toutes les opérations faites sur les codes cycliques sont faites modulo 2. corps de Galois, que nous ne pouvons aborder dans le cadre de cet
exposé.
■ Mise en œuvre du codeur
Le schéma de principe d’un codeur est représenté sur la figure 14. ■ Codes de Reed-Solomon (RS) : les codes de Reed-Solomon sont
Lorsque l’interrupteur I est en position 1, les k symboles du message des codes à symboles q-aires où q est une puissance de 2 (q = 2p ).
rentrent dans le codeur qui effectue la division de x n –k M (x ) par Les paramètres de ces codes sont :
g (x ). Le reste de cette division se trouve dans les registres R 0 à — longueur des mots de code : n = q – 1 ;
R n –k –1 . La division terminée, l’interrupteur I passe en position 2 et le — nombre de symboles de redondance : n – k = 2 t ;
contenu des registres est envoyé vers la sortie du codeur. — distance minimale : dmin = 2t + 1.
Les codes RS permettent de corriger t erreurs dans un mot de
n symboles. En pratique, les symboles q-aires des codes RS sont
4.5.2 Présentation de quelques codes cycliques représentés sous forme d’un ensemble de p symboles binaires.
Lorsque p est égal à huit, les symboles des codes de RS sont des
■ Code de Hamming : on peut définir ce code à partir de sa matrice octets.
de contrôle H ou de son polynôme générateur g (x ). Pour un code
de Hamming, les colonnes de sa matrice de contrôle sont les repré- Exemple : soit un code RS où le paramètre p est égal à huit. La
sentations binaires de tous les nombres de 1 à n. Chaque colonne longueur de ces mots de code est donc de n = 255 octets. Si l’on
étant constituée de (n – k) symboles binaires, les paramètres de ce souhaite pouvoir corriger t = 3 octets dans un ensemble de 255 octets,
code sont : il faudra (n – k ) =6 octets de redondance et les messages seront
— longueur des mots de code : n = 2n – k – 1 ; constitués de k = 249 octets.
— longueur des messages ; k ; Nous n’aborderons pas la définition du polynôme générateur d’un
— distance minimale : d min = 3. code RS, car il nécessite aussi d’introduire des notions d’algèbre sur
Ce code permet de corriger une erreur dans un mot de n symboles. les corps de Galois.
Son polynôme générateur est un polynôme primitif. La définition
de ce polynôme nécessite d’introduire des notions d’algèbre sur
les corps de Galois, nous nous limiterons donc à donner une liste 4.5.3 Mise en œuvre des décodeurs
de polynômes primitifs : (0)
■ Pour les codes cycliques, on utilise en général le polynôme géné-
rateur pour détecter les erreurs de transmission. Lorsque l’on trans-
Degré Polynômes primitifs met le mot de code C (x), on reçoit le mot R (x) avec :
3 1 + x + x3 R (x) = C (x) + e (x)
4 1 + x + x4
où e (x) est le polynôme qui représente les éventuelles erreurs de
5 1 + x 2 + x5
transmission. Les mots de code étant des multiples du polynôme
6 1 + x + x6 générateur g (x), on va diviser le mot reçu R (x) par g (x). Si le
7 1 + x 3 + x7 reste S (x) de cette division, appelé syndrome d’erreur, est nul, c’est
8 1 + x2 + x 3 + x 4 + x 8 qu’il n’y a pas d’erreurs de transmission ou du moins pas d’erreurs
9 1 + x 4 +x 9 détectables. Si le syndrome S (x) est différent de zéro, il y a présence
10 1 + x 3 + x10 d’erreurs de transmission. On suit le même principe que celui utilisé
précédemment avec la matrice de contrôle H. La division du mot
reçu R (x) par g (x) se fait à partir d’un registre à décalage
■ Codes BCH : les codes BCH, du nom de leurs inventeurs Bose, convenablement rebouclé (figure 15). Après n coups d’horloge, le
Chaudhuri et Hocquenghem, ont pour paramètres : reste S (x) se trouve dans les (n – k) mémoires du registre à déca-
— longueur des mots de code : n = 2 m – 1 ; lage.
— nombre de symboles de redondance : n – k  mt ; ■ La correction des erreurs se fait en recherchant le mot de code
— distance minimale : d min  2t + 1. qui est à la distance minimale du mot reçu. En fait, ce procédé de
correction n’est possible que si le nombre de mots de code (2 k ) est
peu élevé.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 19
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Figure 15 – Calcul du syndrome S (x) d’un code cyclique

Il est possible de simplifier l’algorithme de correction des erreurs Exemple : reprenons (exemple du § 4.5.1) le code de Hamming de
de transmission en utilisant le syndrome S (x). Lorsque le nombre paramètres n = 7 et k = 4 et dont le polynôme générateur est :
d’erreurs i à corriger est inférieur ou égal à la capacité de correc-
tion du code (i < t + 1), à chaque valeur du syndrome S (x) corres- g (x) = x 3 + x + 1
pond une expression unique du polynôme d’erreur e (x). La Au message M (x) = x3 + x 2 + 1 est associé le mot de code :
correction se fait alors en retranchant e (x) au mot reçu R (x). Le
syndrome S (x) pouvant prendre 2 n – k valeurs, la recherche du C (x) = x 6 + x 5 + x 3 + 1
polynôme d’erreur e (x) associé à une valeur donnée du
syndrome S (x) nécessite 2 n – k comparaisons au lieu de 2 k pour la Supposons une erreur de transmission en position 4, c’est-à-dire
méthode précédente. e (x ) = x 4.
Pour les codes de Hamming, BCH et RS, des algorithmes spéci- Le mot reçu R (x) est rentré dans un décodeur (figure 15) constitué
fiques de correction des erreurs ont été développés. Pour les codes par (n – k ) = 3 registres à décalage. Après 7 coups d’horloge, le
BCH et RS, ces algorithmes restent assez lourds à mettre en œuvre. syndrome S (x ) = x 2 + x est disponible en R 0 R1 R2 . On effectue
ensuite trois décalages du syndrome et l’on trouve R0 = 1, R1 = R2 =0
■ Décodage des codes de Hamming c’est-à-dire un reste égal à 1. L’erreur de transmission se trouve donc
Cet algorithme de décodage permet de corriger une erreur dans en position 4, et on peut la corriger.
un paquet de n symboles. Supposons que l’erreur se situe en posi-
tion j ; le polynôme d’erreur est alors : 4.6 Codes convolutifs (ou récurrents)
e (x) = xj
4.6.1 Principe et représentation
Le polynôme d’erreur e (x) peut toujours se mettre sous la
forme : Pour un code linéaire en blocs, chaque mot de code dépend d’un
e (x) = g (x) q (x) + S (x) message. Les codes convolutifs sont une extension des codes en
blocs linéaires, en ce sens que chaque mot de code dépend du
soit S (x) = e (x) – g (x) q (x)
message à l’entrée du codeur mais aussi des m derniers messages
En multipliant le syndrome S (x) par x i, on obtient : mémorisés par le codeur. Les codes convolutifs présentent donc
un effet de mémoire.
x i S (x) = x i + j – x i g (x) q (x)
Dans l’exposé qui suit, nous ne considérons que des messages
Lorsque (i + j) = n et en tenant compte que g (x) est un diviseur et des mots de code constitués de symboles binaires. Pour présenter
de x n + 1 : les codes convolutifs, nous utiliserons le codeur de la figure 16 de
x i S (x) = [q’ (x)– x i q (x)] g (x) + 1 rendement R = 1/2 dont la mémoire m est égale à 2. La quantité
(m + 1) est appelée la longueur de contrainte du codeur. Le fonc-
Cette relation peut s’interpréter en disant que le reste de la divi- tionnement d’un codeur convolutif peut être représenté à partir de
sion de x i S (x) par le polynôme g (x) est égal à 1. Le décodeur va son diagramme d’état ou de son diagramme en treillis.
donc effectuer la division de x i S (x) par g (x) et lorsque le reste de
cette division sera égal à 1 c’est que : ■ Diagramme d’état
L’état d’un codeur est défini par le contenu de ses m mémoires.
i+j=n
Dans l’exemple de la figure 17, le codeur possède quatre états que
L’erreur de transmission sera en position j avec : nous appellerons a, b, c, d (a : 00, b : 01, c : 10 et d : 11) ; ces états
sont définis par le couple a k – 1, ak – 2 .
j=n–i
À chaque message constitué d’un symbole binaire a k est associé
Le calcul du reste de la division de x i S (x) par g (x) s’obtient par 1 2
décalage cyclique du syndrome S (x) de i positions. un mot de code formé de deux symboles binaires x k , x k . Le fonc-
tionnement du codeur peut être représenté par le diagramme
d’état de la figure 17. Sur ce diagramme, les états communiquent
par des branches sur lesquelles sont indiqués le mot de code en
sortie du codeur.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 20 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

Pour le décodage des codes convolutifs on utilise une autre repré-


sentation du codeur, appelée diagramme en treillis (figure 18).
■ Diagramme en treillis
Sur ce diagramme (figure 18), les états appelés nœuds du treillis
sont en relation par l’intermédiaire de branches. Dans le cas général
de messages de longueur k (ici k = 1), à partir de l’instant t = m + 1,
il existe 2k branches qui convergent vers chaque nœud. L’ensemble
des branches qui joignent deux nœuds du treillis forme un chemin
auquel est associée une séquence de symboles en sortie du codeur.
■ Distance libre du codeur
Un paramètre important des codes convolutifs est la distance
libre (free distance) d f qui joue un rôle déterminant sur le pouvoir
de correction du code. La distance libre d’un codeur convolutif est
égale à la plus petite distance (distance de Hamming, § 4.4.2) qui
existe entre deux chemins qui divergent puis convergent. Pour cal-
culer cette distance, on peut choisir, pour des raisons de linéarité
du code, un chemin de référence. 1
Figure 16 – Codeur convolutif (rendement R = ----- , mémoire m = 2)
2
Prenons par exemple le chemin qui correspond à une séquence à
l’entrée du codeur constituée par une suite de symboles ak égaux à 0
(chemin qui joint les états a). Sur la figure 18 du diagramme en treillis,
il est facile de voir qu’il existe un chemin à la distance 5 qui diverge du
chemin de référence sur trois branches :
— chemin de référence : 00 00 00 00 ;
— chemin divergeant puis convergeant : 00 11 10 11.
La distance libre de ce codeur est donc df = 5.
Le calcul de la distance libre d’un codeur convolutif peut se faire
systématiquement à partir de sa fonction de transfert (encadré 2).

Encadré 2 – Fonction de transfert d’un codeur

Fonction de transfert d’un codeur : elle s’évalue en scindant


l’état a (00) du diagramme d’état en deux (état ae et état as ) puis
en portant sur chaque branche un couple D jN i où i et j sont, res-
pectivement, le poids (nombre de symboles égaux à 1) du mes-
sage à mettre à l’entrée du codeur pour qu’il passe d’un état
vers un autre et le poids correspondant du mot de code en
sortie du codeur (figure 19). Les variables D et N sont des indé-
terminées. La fonction de transfert T (D, N) du codeur est définie
par :
a
T ( D, N ) = ------s-
ae
Pour notre exemple de la figure 19, nous obtenons : Figure 17 – Diagramme d’état d’un codeur convolutif
1
(rendement R = -----, mémoire m = 2)
c= D2 Nae + N b 2

b=Dc+Dd
d = DN c + DN d 4.6.2 Performances et décodage
des codes convolutifs
as = D2 b
Après résolution de ce système d’équations, la fonction de Il existe plusieurs algorithmes de décodage des codes convolutifs,
transfert T (D, N ) est égale à : mais nous nous limiterons à présenter le plus utilisé : l’algorithme

de Viterbi. Cet algorithme suit la règle de décision du maximum de
D5N
T ( D, N ) = ---------------------- =
1 – 2DN ∑ 2k D 5 + k Nk + 1 vraisemblance et recherche, parmi toutes les séquences possibles
de symboles que le codeur peut émettre, celle qui est à la distance
k=0
minimale de la séquence fournie par le démodulateur.
À partir du développement en série de la fonction de transfert Pour présenter cet algorithme, supposons que le canal de trans-
T (D, N ), on voit qu’il existe 2 k chemins à la distance (5 + k ) du mission soit du type stationnaire binaire symétrique et sans
chemin de référence et qu’ils correspondent à une séquence de mémoire et prenons l’exemple du codeur de la figure 16.
poids (k + 1) à l’entrée du codeur.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 21
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________

Exemple : supposons que la séquence à l’entrée du codeur de la


figure 16 soit 1001. En faisant l’hypothèse que le codeur est dans
l’état a à l’instant initial, la séquence de sortie du codeur est (figure 18)
11 10 11 11. Considérons un canal de transmission qui introduit une
erreur de transmission en position 3 : sous cette hypothèse, la
séquence à l’entrée du décodeur est 11 00 11 11. L’algorithme de
Viterbi se déroule comme suit (figure 20).
Sur le diagramme en treillis de la figure 18, on voit que de l’état a
à t = 0 partent deux branches qui sont respectivement à la
distance 2 et 0 du premier couple reçu (11). Portons ces distances sur
les branches correspondantes de la figure 20.
À l’instant t = 1 calculons de nouveau la distance entre le deuxième
couple reçu (00) et les quatre branches qui partent deux à deux des
états a et c. À l’instant t = 2 il existe quatre chemins possibles qui sont
respectivement à la distance 2, 1, 4 et 1 de la séquence reçue (1100)
et qui permettent d’atteindre les quatre états du codeur.
L’algorithme de Viterbi commence véritablement à l’instant t = 2
puisqu’il existe maintenant deux chemins pour accéder à chaque état.
En calculant les distances cumulées, on remarque que, pour accéder à
l’état a en t = 3, le chemin le plus vraisemblable est celui qui provient
de l’état b en t = 2, l’autre chemin est donc supprimé (sur la figure 20,
le trait est interrompu et ne parvient pas jusqu’au nœud). On voit ainsi
qu’en t = 4 le chemin le plus vraisemblable est celui qui arrive à
l’état c, il est à la distance 1 de la séquence reçue. En remontant le
treillis, on décide donc que la séquence à l’entrée du codeur la plus
vraisemblable est 1001. L’erreur en position 3 est donc corrigée.
Lorsque l’entrée du décodeur est constituée de symboles
binaires, on dit que le décodeur travaille en décisions fermes (hard
decision). On peut aussi fournir au décodeur des échantillons ana-
logiques (cas du canal gaussien) et dans ce cas on dit qu’il travaille
en décisions pondérées (soft decision). En décision pondérée, les
distances de Hamming sont remplacées par des distances
Figure 18 – Diagramme en treillis du codeur convolutif euclidiennes dk :
1 2
(rendement R = ----- , mémoire m = 2)

2 i i 2
2 dk = (Z k – X k)
i=1

1 2
où ( Z k , Z k ) représente le couple d’échantillons analogiques fourni
par le démodulateur,
1 2
( X k , X k ) le couple de symboles associé à une branche donnée
du treillis.
Dans l’algorithme tel que nous venons de le présenter, il faut avoir
reçu l’ensemble des symboles émis par le codeur avant de pouvoir
les décoder. Pour travailler en temps réel, on montre que l’on peut
décoder le message émis par le codeur à l’instant t = n après avoir
parcouru le treillis jusqu’à l’instant t = n + x où x est égal à 4 ou 5
fois la longueur de contrainte pour un codeur de rendement R = 1/2.
Figure 19 – Calcul de la fonction de transfert du code convolutif
1
de rendement R = ----- et de mémoire m = 2 (même symbolisme que
■ Performances des codes convolutifs
2
Pour les codes convolutifs de rendement R = k/n il est possible
figure 17)
de déterminer une borne supérieure de la probabilité d’erreur
Pe après décodage :
■ Algorithme de Viterbi
1 ∂T ( D, N )
En chaque nœud du treillis (figure 18) convergent deux branches P e  ----  --------------------------- 
k ∂N N = 1 , D = D0
qui appartiennent à deux chemins différents. De ces deux chemins
l’un est plus vraisemblable que l’autre, lui seul sera conservé dans où D0 dépend des caractéristiques du canal de transmission :
le déroulement de l’algorithme et portera le nom de survivant. Si, — pour un canal binaire symétrique :
par hasard, les deux chemins étaient aussi vraisemblables, un seul
serait conservé et le choix se ferait de façon arbitraire. D0 = 2 p (1 – p )
où p est la probabilité d’erreur sur le canal de transmission ;

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 22 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX

— pour un canal gaussien :


Eb
D 0 = exp – R --------
N0  
avec R rendement du code,
Eb /N0 rapport entre l’énergie Eb reçue par symbole d’infor-
mation à l’entrée du récepteur et la densité spectrale
de puissance du bruit.
Exemple : considérons une modulation de phase à 2 états et un
rapport Eb /N0 de 7 dB. Sans codage, la probabilité d’erreur p est égale
à:
1 Eb
p = ----- erfc - = 7,7 × 10 – 4
-------
2 N0

avec erfc (x) = 1 – erf (x).


Si l’on utilise maintenant le codeur de la figure 16, le débit
numérique sur le canal de transmission double et l’énergie utilisée pour
transmettre un symbole est divisée par deux (Eb /2). La probabilité
d’erreur à la sortie du canal binaire symétrique est donc de : Figure 20 – Algorithme de Viterbi (cet algorithme est construit à partir du
treillis de la figure 18. Les distances cumulées sont écrites à côté de chaque nœud)
1 Eb
p = ----- erfc ---------- = 1,3 × 10 – 2
2 2N 0
4.6.3 Présentation de quelques codes convolutifs
En tenant compte que :
Dans le tableau 2 nous présentons les meilleurs codes convolutifs
∂T ( D, N ) D5 de rendement R = 1/2 pour différentes valeurs m de la mémoire. On
-------------------------- = ------------------------------2
∂N ( 1 – 2DN ) notera que la distance libre df du codeur augmente en même temps
que la longueur de la mémoire ainsi que la complexité du treillis.
la probabilité d’erreur après décodage pour un canal binaire symétrique Les couples qui apparaissent dans la colonne « générateur » sont
est bornée par : écrits en octal et représentent les connexions entre les mémoires
p ( 1 – p ) 5/2 et les sorties du codeur.
P e  32 --------------------------------------------------
1 – 4 p ( 1 – p ) 2 Exemple : le générateur (7,5) en octal ou (111, 101) en binaire cor-
1 2
Pe  2 × 10 –3 respond à un codeur à 2 mémoires (m = 2) dont les sorties x k , x k
sont égales à :
1
x k = 1ak + 1ak – 1 + 1ak – 2
Le codeur de la figure 16 ne permet pas d’améliorer la qualité de
la transmission. Considérons maintenant un canal gaussien : 2
x k = 1ak + 0ak – 1 + 1ak – 2
Eb

exp – 5R --------
N0  (0)
P e  --------------------------------------------------------2- Tableau 2 – Liste des meilleurs codes convolutifs
Eb

1 – 2 exp – R --------  N0  de rendement R = 1/2
Distance libre
soit P e  5 × 10 – 6 Rendement Mémoire Couple du codeur
R m générateur df
Cette fois le codeur de la figure 16 permet d’améliorer la qualité
de la transmission.
2 7, 5 5
D’une façon générale, un décodeur qui utilise des décisions
pondérées apporte un gain important par rapport à un décodeur qui 3 17, 15 6
utilise des décisions fermes. 4 23, 35 7
1/2 5 75, 53 8
6 133, 171 10
7 371, 247 10
8 753, 561 12

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 23
P
O
U
Codage de l’information R
et modulation des signaux
E
N
par Alain GLAVIEUX
Ingénieur civil des Télécommunications
Professeur à l’École Nationale Supérieure des Télécommunications de Bretagne (ENSTB)
S
A
Bibliographie V
BATTAIL (G.). – Théorie du signal. E 160, traité Élec- ATTAL (G.) et SORBA (A.). – Modulations. Démodula- P ROA KIS (J.G.). – D ig ital co mmu n icatio n s
tronique, Techniques de l’Ingénieur.
CLAVIER (J.). – Théorie de l’information. Formalisa-
tions. E 3 450, traité Électronique, Techniques de
l’Ingénieur.
(Communications numériques). 905 p., Mc
Graw-Hill (1989). O
tion du concept. E 3 080, traité Électronique,
Techniques de l’Ingénieur (1998).
CLAVIER (J.). – Théorie de l’information. Aspects
BIC (J.C.), DUPONTEIL (D.) et IMBEAUX (J.C.). – Élé-
ments de communications numériques. Tome I,
359 p. ; Tome II, 303 p. Collection technique et
LEE (E.A.) et MESSERSCHMITT (D.G.). – Digital
communication (Communications numériques).
713 p., Kluwer Academic Publishers, Boston
I
mathématiques. E 3 082, traité Électronique,
Techniques de l’Ingénieur (1998).
CLAVIER (J.). – Théorie de l’information. Applica-
scientifique des télécommunications, Dunod
(1986).
VITERBI (A.J.) et OMURA (J.K.). – Principes des
(1988).
WOZENCRAFT (J.M.) et JACOBS (I.M.). – Principles
of communication engineering (Principes des
R
tion à la physique. E 3 084, traité Électronique, communications numériques. Traduit de systèmes de communication). Wiley, New York
Techniques de l’Ingénieur (1998). l’américain par Battail (G.), 216 p. Collection (1965).
technique et scientifique des télécommunica-
BATTAIL (G.). – Théorie du codage et protection
contre les erreurs. E 170, traité Électronique,
Techniques de l’Ingénieur.
tion, Dunod (1982).
P
L
U
S
10 - 1991
Doc. R 380

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


est strictement interdite. − © Techniques de l’Ingénieur, traité Mesures et Contrôle Doc. R 380 − 1

Vous aimerez peut-être aussi