Codage de L'information Et Modulation Des Signaux: Alain Glavieux
Codage de L'information Et Modulation Des Signaux: Alain Glavieux
’objet de cet article est de donner un aperçu des principes de base utilisés
L en transmission numérique et en transmission analogique. Comme nous
aurons l’occasion de le préciser, le caractère numérique ou analogique d’une
transmission est surtout lié à la nature des messages à transmettre et non à
la nature des signaux utilisés pour les transmettre. Historiquement, les trans-
missions analogiques furent les premières à être utilisées, mais la tendance
actuelle est de s’orienter vers les transmissions numériques qui offrent de
10-1991
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 1
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 2 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
1. Source d’information
et codage de source
Nous allons tout d’abord introduire la notion de source
d’information en distinguant les sources analogiques, de nature
physique, des sources numériques, de nature abstraite.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 3
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
Exemple : soit une source numérique obtenue en balayant ligne par ■ Théorème fondamental (1er théorème de Shannon) : pour toute
ligne à vitesse constante une feuille dactylographiée puis en échantillon- source stationnaire d’entropie H m par message, il existe un procédé
nant les résultats à fréquence suffisante (fax, télécopie). Cette source
délivre des symboles binaires Xk (blanc ou noir) qui sot manifestement de codage déchiffrable pour lequel la longueur moyenne n des
corrélés. Cette source peut être modélisée par une source de Markov. mots de code constitués de symboles q-aires soit aussi voisine que
Sa matrice de transition est : l’on veut de sa limite inférieure :
Hm
p bb p bn n min = -----------------
-
T = log 2 q
p nb p nn
Pour atteindre cette limite inférieure, il suffit de considérer des
où pbn est la probabilité d’avoir un échantillon blanc suivi d’un échan- messages infiniment longs (k tendant vers l’infini) et de les coder
tillon noir. par un code déchiffrable.
Des mesures statistiques ont montré que : ■ Propriétés de la source codée
Avant de présenter un exemple de codage de source, énonçons
0,93 0,07 quelques propriétés de la source codée :
T =
0,63 0,37 — les symboles issus du codeur constituent une source sans
mémoire dont l’entropie par symbole est maximale. En effet, si
Les probabilités de transition étant non nulles, la source de Markov l’entropie par message est égale à H m , l’entropie par mot de code
est ergodique et la matrice T existe. est aussi égale à H m et ainsi l’entropie H c par symbole en sortie du
On calcule : codeur est :
Hm
0,91 0,09 0,90 0,10 H c = ---------
-
n = log 2 q
T2 = T3 =
0,82 0,18 0,89 0,11 — le débit D c après codage de source est égal à :
Et finalement l’on obtient : H
D c = D -----------------
log 2 q
0,9 0,1
T =
0,9 0,1 où D le débit avant codage,
H l’entropie par symbole en sortie de la source à coder.
Pour une source de Markov stationnaire, on montre que l’entro-
pie par symbole est égale à : ■ Algorithme de Huffman
q q
Pour terminer notre exposé sur le codage de source, nous allons
H ( Xk ) = – ∑ pi ∑ pij log 2 pij présenter l’algorithme de Huffman qui permet de construire un code
déchiffrable. Pour exposer cet algorithme, nous allons reprendre
i=1 j=1
l’exemple du fax que nous modéliserons pour simplifier par une
Pour l’exemple considéré, on obtient : source stationnaire sans mémoire S.
H (X k ) = 0,424 bit Considérons la 3ième extension de la source S et rangeons les mes-
sages constitués de trois symboles dans la première colonne d’un
■ Les deux modèles de source que nous venons de présenter ne tableau (tableau 1) par probabilité décroissante d’apparition. Dans
permettent pas de modéliser toutes les sources que l’on peut la deuxième colonne de ce tableau, portons la valeur de ces
rencontrer. Il existe des modèles de source plus sophistiqués, mais probabilités d’apparition. Remplaçons les deux probabilités de plus
dont l’évaluation des paramètres devient très rapidement délicat. faible valeur de la deuxième colonne par leur somme
(0,009 + 0,001 = 0,01) et plaçons dans une troisième colonne par
ordre décroissant de valeur, les probabilités de la deuxième colonne.
Remplissons de la même façon toutes les colonnes de ce tableau
1.3 Codage de source jusqu’à ce que l’on obtienne une colonne qui ne contienne plus que
deux probabilités (0,729 et 0,271 dans notre cas). (0)
Nota : se reporter aux articles Théorie de l’information. Formalisation du concept
[E 3 080], Théorie de l’information. Aspects mathématiques [E 3 082] et Théorie de
l’information. Application à la physique [R 3 084] du traité Électronique.
Le codage de source consiste à associer un mot de code à chaque Tableau 1 – Algorithme de Huffman
message de k symboles issus de la source numérique S d’informa-
tion. L’objectif est de trouver un codage tel que la longueur moyenne Messages Probabilité des messages
des mots de code soit inférieure à la longueur k des messages.
En raisonnant maintenant sur les messages et non plus sur les
symboles de la source numérique S, on peut considérer que l’on
dispose d’une nouvelle source, appelée k ième extension de la
source S et notée S k.
Soit N le nombre de mots de code utilisé pour coder la
source S et {n 1,..., ni..., nN } leurs longueurs respectives. Ces mots
de code doivent a priori satisfaire aux propriétés suivantes :
— régularité : deux messages différents sont codés par deux
mots de code différents ;
— déchiffrabilité : les mots de code doivent pouvoir être séparés
sans ambiguïté ; cela peut être notamment réalisé en imposant
qu’aucun mot de code ne soit identique au début d’un autre ; on dit
alors que le code est irréductible.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 4 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 5
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 6 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
La bande occupée par une modulation d’amplitude à bande laté- ■ Occupation spectrale d’une modulation de fréquence
rale unique est : Le calcul de la densité spectrale de puissance d’un signal modulé
B=b en fréquence pose quelques difficultés, puisque ce signal n’est pas
■ Bilan énergétique une fonction linéaire du message m (t). En général, on utilise une
relation empirique pour calculer l’occupation spectrale B d’un
La puissance moyenne Pe émise est égale à : signal modulé en fréquence. Cette relation, proposée par Carson,
P e = 2 Pp P m est :
B = 2 (β + 1) Fmax (8)
∆f k f Max m ( t )
avec β = ------------ = --------------------------------------
-
2.3 Modulation angulaire : F max F max
modulation de fréquence où β est l’indice de modulation,
Introduisons tout d’abord quelques définitions. Pour un signal ∆f l’excursion maximale de fréquence,
modulé e (t) ayant pour expression : Fmax la fréquence la plus élevée du spectre du message.
e (t ) = A cos [2 π ν0 t + Φ (t )] (6) On peut aussi montrer que l’indice de modulation est égal à la
valeur maximale de la phase Φ (t ) :
on appelle phase instantanée la quantité :
β = Max |Φ (t)|
ϕ inst (t ) = 2 π ν0 t + Φ (t )
et fréquence instantanée :
2.4 Structure et performances
1 d ϕ inst 1 dΦ (t ) des principaux démodulateurs
F inst ( t ) = --------- ----------------- = ν 0 + --------- ------------------
2π dt 2π dt
En modulation de fréquence, la fréquence instantanée est une Rappelons que l’objectif de tout système de transmission est de
fonction affine du message à transmettre : fournir au destinataire une réplique la plus parfaite possible du mes-
sage émis. Au cours de la transmission, le signal modulé e (t) subit
F inst (t) = ν0 + k f m (t ) une atténuation importante et le signal reçu possède en général un
niveau tel que le bruit B (t ) généré par les circuits du récepteur ne
En intégrant la fréquence instantanée, on obtient la phase instan- peut être négligé. De façon classique, en traitement du signal, toutes
tanée et l’on en déduit l’expression du signal modulé en fréquence : les composantes de bruit sont ramenées à l’entrée du récepteur et
t ainsi on peut modéliser le signal reçu r (t ) à l’entrée du récepteur par :
e ( t ) = Acos 2π ν 0 t + 2πk f m ( u ) du (7) r (t) = e (t) + B (t)
0
Le bruit B (t ) peut en général être modélisé par une fonction aléa-
On peut aussi définir la modulation de phase pour laquelle la
toire gaussienne, centrée, indépendante du signal modulé e (t ), sta-
phase instantanée est une fonction affine du message à
tionnaire et de densité spectrale de puissance γ B (ν) constante :
transmettre :
ϕ inst (t ) = 2 π ν0 t + kp m (t) N0
γ B ( ν ) = --------
- ν
Modulation de phase et modulation de fréquence sont en réalité 2
très voisines. Avant d’être démodulé, le signal reçu est amplifié sélectivement
En modulation de phase, la fréquence instantanée est égale à : par un filtre de réception pour limiter la puissance du bruit B (t ). Le
filtre de réception, dont la bande passante est égale à la largeur du
1 dm ( t )
F inst ( t ) = ν 0 + --------- k p -------------------- spectre du signal modulé, fournit au démodulateur un signal Xr (t ).
2π dt
■ Mesure de la qualité d’une transmission
Ainsi, à partir des expressions de la fréquence instantanée de Le récepteur va fournir au destinataire une réplique du message
ces deux modulations, on constate qu’en intégrant ou en dérivant émis m (t) sous forme d’un signal bruité Y (t ) :
le message m (t ), on peut réaliser un modulateur de fréquence à
partir d’un modulateur de phase ou inversement. Compte tenu de Y (t) = K m (t ) + b (t ) (9)
cette remarque, la suite de l’exposé sera centrée sur la modulation
où K est une constante.
de fréquence.
Le signal Y (t) est d’autant plus voisin du message m (t) que la
■ Quelques propriétés des modulations angulaires contribution du bruit b (t) est moins importante. Ainsi, de façon
● Ces modulations possèdent une enveloppe constante, ce qui assez naturelle, la qualité de la transmission peut être mesurée à
leur confère une bonne résistance aux non-linéarités. partir du rapport signal à bruit S/B évalué en sortie du récepteur :
● La puissance moyenne d’une modulation angulaire est
S Puissance moyenne de la composante message en sortie du récepteur
constante : ----- = --------------------------------------------------------------------------------------------------------------------------------------------------------------------------
B Puissance moyenne de la composante bruit en sortie du récepteur
A2
P e = ---------
2 Avec les notations précédentes, ce rapport signal à bruit est égal
à:
Cette propriété est très intéressante pour le dimensionnement
des émetteurs de puissance pour lesquels il ne sera pas nécessaire S K 2 E m2 ( t )
----- = ------------------------------------
-
de prévoir des amplificateurs ayant une dynamique importante de B E b 2 (t )
fonctionnement.
● Enfin, comme nous aurons l’occasion de le voir pour la modu-
lation de fréquence (§ 2.4.3), elles présentent une bonne immunité
au bruit.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 7
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
S k 2 Pm Pe
- ⋅ -------------
----- = -------------------------- -
B 1 + k 2 Pm N0 b
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 8 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
k 2 Pm 1
avec 0 ------------------------
- ---
1 + k 2 Pm 2
Pour démoduler un signal modulé en fréquence, deux procédés Pour cette application, la bande passante de la boucle à
sont principalement utilisés : le discriminateur et la boucle à verrouillage de phase doit être égale à la bande b occupée par le
verrouillage de phase. message m (t).
La démodulation par boucle à verrouillage de phase a d’abord été
■ Discriminateur
utilisée pour les applications très bruitées où le discriminateur ne
Rappelons qu’un signal modulé en fréquence a pour
permettait pas d’obtenir des performances suffisantes. Aujourd’hui,
expression (6) :
les boucles à verrouillage de phase sont disponibles sous forme de
e (t) = A cos [2 π ν0 t + Φ (t)]
circuits intégrés et leur emploi est beaucoup plus répandu.
avec Φ (t ) = 2 π kf 0
t
m ( u ) du ■ Rapport signal à bruit
Le rapport signal à bruit en sortie du démodulateur est assez
Si l’on dérive le signal e (t), on obtient un signal dont l’enveloppe délicat à calculer. En faisant l’hypothèse que le rapport signal à
R (t) est une fonction linéaire du message m (t) : bruit en sortie du filtre de réception est grand, on démontre que le
rapport signal à bruit en sortie du démodulateur est égal à :
de ( t )
---------------- = – R ( t ) sin 2π ν 0 t + Φ ( t ) 2
dt 3 k f Pm Pe
S
----- = ---------------------
- --------------
avec R (t ) = 2 π A [ν0 + kf m (t )] B b2 N0 b
Un discriminateur est donc constitué d’un filtre dérivateur, dont Contrairement aux modulations d’amplitude, en modulation de
le gain complexe est une fonction linéaire de la fréquence dans toute fréquence on peut améliorer le rapport signal à bruit en sortie du
la bande occupée par le signal modulé, et d’un démodulateur d’enve- démodulateur sans augmenter la puissance émise Pe ; il suffit d’agir
loppe. Le filtre dérivateur peut être réalisé à partir d’un circuit sur le coefficient k f ou sur la puissance Pm du message. Cette bonne
résonnant utilisé sur les flancs de sa fonction de transfert. propriété a évidemment une contrepartie. En effet, lorsque la
Ce démodulateur donne de bons résultats si l’enveloppe du signal puissance Pm du message augmente, l’indice de modulation β aug-
modulé est constante, ce qui n’est pas toujours le cas sur une liaison mente aussi et la bande B occupée par le signal modulé s’accroît
bruitée. Pour remédier à ce problème, on place, avant le discrimi- [relation (8)]. On échange donc des performances en terme de
nateur, un limiteur qui écrête fortement le signal reçu. Cet écrêteur rapport signal à bruit contre de la bande passante, c’est là une
peut être réalisé à partir de deux diodes montées tête-bêche. Pour particularité des modulations de fréquence.
accroître la plage de linéarité du cricuit résonnant, on utilise parfois Pour terminer, disons que, lorsque le rapport signal à bruit en
deux circuits résonnants décalés en fréquence. sortie du filtre de réception est faible, le signal en sortie du démodula-
teur n’est plus proportionnel au message m (t ). Il existe donc un seuil
■ Boucle à verrouillage de phase (Phase Locked Loop ; PLL) au-delà duquel la démodulation devient très délicate. On peut
Une boucle à verrouillage de phase est constituée d’un oscillateur montrer que ce seuil est plus faible pour une boucle à verrouillage
commandé en tension OCT, d’un multiplieur et d’un filtre passe-bas de phase que pour un discriminateur, l’écart (en terme de rapport
(figure 7). Pour un oscillateur commandé en tension, les variations signal à bruit) est de 3 dB.
de sa fréquence par rapport à sa fréquence de repos (égale dans
ce cas à la fréquence porteuse ν0 ) sont proportionnelles au signal
de commande s (t) :
1 dϕ (t )
--------- ------------------ = K s ( t ) 3. Transmission numérique
2π dt
Pour une boucle à verrouillage de phase, en régime permanent,
du signal
l’oscillateur contrôlé en tension et le signal d’entrée de la boucle
ont même phase, soit :
En transmission numérique, il est nécessaire que les messages
t t à transmettre soient sous forme numérique, c’est-à-dire constitués
2 π kf m ( u ) du = 2 πK s ( u ) du par une suite de symboles discrets prenant leur valeur dans un
0 0 « alphabet » fini. Si les messages sont analogiques, il faudra les
kf numériser pour utiliser cette technique de transmission.
d’où s ( t ) = ------ m ( t )
K
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 9
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 10 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
A2 T sin ------------
2
γ e ( ν ) = -------------- ---------------------- ( sin π ν T ) 2 ∞
4 πνT
------------
2
Xc ( t ) = ∑ a k h ( t – kT )
k=–∞
∞
Ce code possède une densité spectrale de puissance voisine de
zéro autour de la fréquence nulle.
et Xs ( t ) = ∑ b k h ( t – kT )
k=–∞
Ce code est souvent utilisé pour les transmissions sur câble, pour
lesquelles on transmet simultanément le signal codé et un courant avec h (t ) = A si t ∈ [0, T [
continu pour téléalimenter des répéteurs (répéteur : organe à base
h (t ) = 0 ailleurs
d’amplificateur réparti le long du câble pour combattre son
atténuation). où les symboles ak et bk sont respectivement associés à un symbole
La figure 8 représente la densité spectrale de puissance de ces binaire issu de la source d’information. Pour chaque valeur de la
deux codes binaire à signal. phase Φk , le signal modulé e (t ) peut être représenté par un point
dans un espace à deux dimensions. L’ensemble de ces points
constitue ce que l’on appelle une constellation.
3.3 Transmission sur porteuse : La modulation par déplacement de phase à deux états MDP2 se
déduit de la modulation MDP4 en annulant le symbole bk dans
les modulations numériques linéaires l’expression du signal modulé e (t). Pour une même rapidité de
modulation, la modulation MDP4 permet de transmettre un débit
Rappelons que, pour ces modulations, les composantes en binaire deux fois supérieur à celui de la modulation MDP2 .
phase et en quadrature sont obtenues par codage binaire à signal : On peut montrer que la densité spectrale de puissance d’une
∞ modulation par déplacement de phase est indépendante du
Xc ( t ) = ∑ a k h ( t – kT ) nombre M d’états de phase, elle est fonction de la rapidité de modu-
lation R = 1/T, mais pas directement du débit binaire Db = log 2 M/T.
k=–∞
Ainsi, pour une rapidité de modulation donnée, on pourra trans-
∞
mettre un débit binaire d’autant plus grand que le nombre M d’états
et Xs ( t ) = ∑ b k h ( t – kT )
de phase sera plus élevé.
k=–∞
La densité spectrale de puissance d’une modulation par déplace-
et que le signal modulé a pour expression : ment de phase a pour expression :
∞ 1 1
e ( t ) = Re
∑
k=–∞
d k h ( t – kT ) exp j ( 2 π ν 0 t + ϕ 0 )
(11) γ e ( ν ) = ----- γ Xe ( ν – ν 0 ) + ----- γ Xe ( – ν – ν 0 )
4 4
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 11
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
où γ Xe (ν ) est la densité spectrale de puissance de l’enveloppe 3.4 Transmission sur canal réel
complexe du signal modulé e (t ) :
sin π ν T Un canal de transmission ayant une bande passante limitée, on
2
γ Xe ( ν ) = A 2 T ----------------------
πνT est donc amené à s’intéresser au comportement des signaux numé-
riques en présence de filtrage et notamment à essayer de définir la
■ Modulation par déplacement d’amplitude bande de fréquence nécessaire à la transmission d’un débit binaire
et de phase à M états MDAPM donné. Dans ce paragraphe, on se limitera au cas des modulations
linéaires, car elles sont les plus utilisées dans les équipements de
Cette modulation est aussi connue sous le nom de modulation
transmission numérique. Le codage binaire à signal sera traité
d’amplitude suivant deux porteuses en quadrature (MAQ M ). Le
comme un cas particulier des modulations linéaires.
symbole complexe dk est de la forme :
dk = ρk exp j Φk = ak + j bk
3.4.1 Influence du filtrage :
et les symboles ak et bk prennent leur valeur dans l’ensemble :
l’interférence entre symboles
{± 1 ; ± 3 ;... ; ± (2 p + 1) ;... ; ± (N – 1)} avec N = 2n
Considérons le filtrage d’un signal modulé e (t ) par un filtre
La fonction h (t ) est une fenêtre temporelle de durée T : passe-bande. On peut montrer que sa sortie Y (t ) est égale à :
h (t ) = A si t ∈ [0, T [ ∞
h (t ) = 0 ailleurs
Y ( t ) = Re ∑ d k h e ( t – kT ) exp j ( 2π ν 0 t + ϕ 0 )
k = –∞
Le signal modulé e (t ) a pour expression : où he (t ) résulte du filtrage de la fonction h (t ) par le filtre
∞ passe-bande.
e (t ) = ∑ a k h ( t – kT ) cos ( 2π ν 0 t + ϕ 0 ) Le démodulateur extrait l’enveloppe complexe du signal reçu,
k = –∞ ∞ puis l’échantillonne aux instants nT. À partir de ces échantillons,
– ∑ b k h ( t – kT ) sin ( 2π ν 0 t + ϕ 0 ) un circuit de décision permet de retrouver la valeur dˆk des
k = –∞ symboles dk .
Examinons l’enveloppe complexe Y e (t ) du signal Y (t ) aux
où chaque symbole ak (respectivement bk ) est associé à un message instants (nT + τ ) où τ tient compte du retard introduit par le filtre
constitué de n symboles binaires issu de la source d’information. passe-bande :
L’ensemble des représentations possibles du signal e (t ) forme, dans ∞
un espace à deux dimensions, une constellation à M = 2 2n points. Y e ( nT + τ ) = d n h e ( τ ) + ∑ d k h e ( n – k )T + τ
La fonction h (t ) étant une fenêtre temporelle de durée T, la k = –∞
k≠n
modulation par déplacement d’amplitude et de phase possède une
densité spectrale de puissance proportionnelle à celle de la modu-
La fonction he (t ) qui résulte du filtrage de la fonction h (t ) n’a plus
lation par déplacement de phase.
aucune raison d’être nulle en dehors de l’intervalle [0, T [. Ainsi
■ Pour terminer ce paragraphe, faisons quelques commentaires l’enveloppe complexe du signal modulé, après filtrage et échan-
sur l’utilisation des modulations numériques et du codage tillonnage aux instants (nT + τ ), va dépendre du symbole dn , mais
binaire à signal. aussi des symboles antérieurs et même postérieurs (si τ > T ) à dn .
Lorsque l’on désire faire des transmissions de données Ce phénomène, qui est de nature à dégrader la qualité de la trans-
numériques sur le réseau téléphonique, on doit utiliser un modem mission, s’appelle l’interférence entre symboles.
(modulateur-démodulateur). Ces modems sont de deux types : On appelle diagramme de l’œil la superposition de toutes les
— les modems en bande de base : ils utilisent en fait un codeur configurations de Re {Ye (t )} ou Im {Ye (t )}, il permet d’évaluer
binaire à signal en guise de modulateur. Ces modems sont l’interférence entre symboles sur les voies en phase et en quadra-
réservés aux transmissions à courte distance (quelques kilomètres) ture du signal modulé. Ce diagramme peut être visualisé en
et utilisent principalement les codes bipolaires ; observant Re {Ye (t )} ou Im {Ye (t )} sur un oscilloscope synchronisé
— les modems sur porteuse : ils utilisent effectivement un modu- par un signal dont la fréquence est égale à la rapidité de modula-
lateur. Parmi les modulations les plus employées, on notera la modu- tion de la transmission (figure 9).
lation par déplacement de phase à quatre états (MDP4), qui permet Si ce diagramme de l’œil est ouvert comme c’est le cas sur la
de transmettre un débit binaire de 4 800 symboles binaires par figure 9, il n’y a pas d’interférence entre symboles. Si le diagramme
seconde dans une bande de 3 kHz, et la modulation par déplacement commence à se fermer, il y a apparition d’interférence entre
d’amplitude et de phase MDAP16 ou MAQ16 qui permet de passer symboles. Pour lutter contre ce phénomène de l’interférence entre
9 600 symboles binaires par seconde dans la même bande de symboles, les filtres utilisés dans la chaîne de transmission doivent
fréquence. vérifier certaines propriétés définies par le critère de Nyquist.
En transmission numérique par satellite, on utilise principale-
ment la modulation par déplacement de phase à quatre états.
Enfin, pour les transmissions sur câble coaxial et par faisceau 3.4.2 Critère de Nyquist
hertzien, après avoir utilisé la modulation par déplacement de phase
à quatre états, la tendance actuelle est de s’orienter vers les modu- L’absence d’interférence entre symboles aux instants (nT + τ )
lations par déplacement d’amplitude et de phase à grand nombre implique que la fonction he (t ) vérifie la condition suivante :
d’états : MAQ 64 , MAQ 128 et même MAQ 256 pour lesquelles les he (nT + τ ) = he (τ ) δn, 0 avec h e ( τ ) ∈
premiers équipements expérimentaux sont en cours d’essais.
avec δn, 0 symbole de Kronecker,
ensemble des réels.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 12 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
T
2 πT 1
H e ( ν ) = ----- h e ( τ ) 1 + sin --------- ---------- – ν
α 2T où h e (t) résulte du filtrage de la fonction h (t ) par le filtre
d’émission :
he (t ) = h (t ) ∗ f (t )
1 1
pour ---------- ( 1 – α ) ν ---------- ( 1 + α ) avec ∗ opération de convolution.
2T 2T
|He (ν )| = 0 ailleurs Le filtre de réception, d’après la théorie de la détection, doit être
adapté au signal he (t ), soit :
α compris entre 0 et 1 appelé facteur d’arrondi (en anglais roll off ).
g (t ) = he (– t )
La fonction |He (ν )|, qui vérifie le critère de Nyquist, est représen-
tée sur la figure 10. Sous cette forme, le filtre de réception n’est pas causal, il est
donc nécessaire d’introduire un retard τ pour assurer sa causalité :
3.5 Structure et performances g (t) = he (τ – t )
des récepteurs optimaux L’utilisation d’un filtre adapté permet de maximiser le rapport
signal à bruit en sortie du décodeur. Pour que la probabilité d’erreur
3.5.1 Critère de qualité soit minimale, il est nécessaire de plus d’annuler l’interférence entre
d’une transmission numérique symboles à la sortie Z (t) du filtre adapté aux instants (nT + τ ) :
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 13
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
1 Eb
ân = – 1 si Zn < 0 P e = ----- 1 – erf -------
-
2 N0
où ân représente le symbole an après décision. Elle est tracée pour différentes valeurs du rapport Eb /N0 sur la
La probabilité d’erreur Pe , en supposant les deux valeurs de figure 12. La probabilité d’erreur est une fonction décroissante du
an équiprobables, est égale à : rapport Eb /N 0 et elle tend vers 0,5 lorsque ce rapport est égal à
– ∞ dB (soit 0 en valeur linéaire) (incertitude maximale en sortie du
1 1
P e = ----- Pr ( Z n > 0 a n = – 1 ) + ----- Pr ( Z n < 0 a n = 1 ) décodeur).
2 2
où Pr (...|...) désigne la probabilité conditionnelle.
Conditionnellement à une valeur du symbole an , la variable aléa-
3.5.3 Transmission sur porteuse
toire Zn est gaussienne car le bruit B (t ) est modélisé par une fonc-
Dans ce paragraphe, nous allons examiner le cas des modula-
tion aléatoire gaussienne. En introduisant la fonction d’erreur
tions linéaires.
erf (x) définie par :
Supposons que le signal modulé soit filtré avant d’être émis,
x pour limiter son encombrement spectral, par un filtre passe-bande
2
erf ( x ) = ----------- exp ( – u 2 ) du de réponse impulsionnelle f (t ) avec :
π 0
f (t) = Re { fe (t) exp (j 2 π ν0 t ) }
la probabilité d’erreur Pe est égale à :
Sous cette hypothèse, le signal reçu est égal à :
1
P e = ----- 1 – erf
r (τ )
--------------
∞
2 N0
X ( t ) = Re ∑ d k h e ( t – kT ) exp j ( 2π ν 0 t + ϕ 0 ) + B ( t )
k = –∞
h (t ) = he (t ) ∗ fe (t )
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 14 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
■ Choix des filtres d’émission et de réception ■ Performance d’une transmission sur porteuse
Pour terminer, nous allons donner l’expression de la probabilité
d’erreur Pe obtenue avec une modulation par déplacement de
Propriété : un filtre passe-bande dont la réponse en fré-
phase et d’amplitude à M états MDAPM . Cette probabilité d’erreur
quence est symétrique par rapport à sa fréquence centrale pos-
est la même pour les symboles a k et les symboles b k qui prennent
sède une réponse impulsionnelle dont l’enveloppe complexe est
leur valeur dans l’ensemble E défini par :
réelle.
E : {± 1 ; ± 3 ;... ; ± (2 p + 1) ;... ; ± (N – 1)}
En première approximation, le filtre d’émission satisfait en général avec N = 2n
la propriété de symétrie que nous venons d’énoncer et ainsi le
signal he (t ) est réel. La démodulation consiste dans un premier
N–1 3 Eb
temps à extraire du signal reçu les composantes en phase et en qua- P e = --------------- 1 – erf - ( log 2 N ) -------
----------------- -
N N2 – 1 N0
drature. Ceci peut être réalisé par multiplication et filtrage passe-bas
du signal X (t ) par cos (2 π ν0 t + ϕ0 ) et par – sin (2 π ν0 t + ϕ0). Ces On se rappelle que chaque symbole a k (respectivement b k ) est
composantes ont pour expression : associé à un message issu de la source d’information, message
∞ constitué de n symboles binaires d’information. Il est en général
Xc ( t ) = ∑ a k h e ( t – kT ) + B c ( t ) intéressant de connaître la probabilité d’erreur Peb par symbole
binaire d’information.
k = –∞
∞ Si l’association entre les symboles a k (respectivement b k ) et les
Xs ( t ) = ∑ b k h e ( t – kT ) + B s ( t ) messages issus de la source d’information suit un code de Gray
k = –∞ (encadré 1), alors on montre que :
P
où Bc (t ) et Bs (t ) représentent les termes de bruit.
P eb ≈ ------------------
log N
e
2
Ces composantes en phase et en quadrature sont ensuite filtrées
par un filtre adapté, de réponse impulsionnelle g (t ) avec :
Encadré 1 – Code de Gray
g ( t ) = h e (τ – t )
Ce code consiste à associer à deux valeurs consécutives de
où τ est un retard introduit pour assurer la causalité de la
l’ensemble E deux messages qui ne diffèrent que par un seul
fonction g (t ).
symbole binaire. On réalise ce type de codage car les erreurs de
Le démodulateur ainsi obtenu est représenté sur la figure 13 : décision les plus probables ont lieu entre les valeurs les plus
∞ voisines de l’ensemble E : ainsi à une erreur de décision
Zc ( t ) = ∑ a k r ( t – kT ) + Bc′ ( t ) correspondra un seul symbole binaire faux dans un message de
n symboles.
k = –∞
∞
Zs ( t ) = ∑ b k r ( t – kT ) + B s′ ( t ) Exemple : soit un ensemble E à quatre éléments (N = 4 et n = 2) :
k = –∞ E : [– 3, – 1, 1, 3]
Le codage de Gray pourra être le suivant :
avec r (t ) = he (t ) * g (t )
– 3 → 10 – 1 → 11 1 → 01 3 → 00
Pour annuler l’interférence entre symboles à la sortie des filtres
adaptés aux instants (nT + τ ), il faut que le signal r (t ) satisfasse le ● Pour une modulation par déplacement de phase à 4 états MDP 4
critère de Nyquist. Ceci conduit à choisir les filtres d’émission et de (N = 2), la probabilité d’erreur Peb est égale à :
réception de la façon suivante :
1 Eb
P eb = ----- 1 – erf --------
G (ν) = R (ν) 2 N0
R (ν)
Fe ( ν ) = ----------------------- ● Pour une modulation par déplacement de phase et d’amplitude
H (ν) à 16 états MDAP 16 (N = 4), la probabilité d’erreur Peb est égale à :
■ Occupation spectrale d’un signal modulé 3 2E b
P eb = ----- 1 – erf -------------
Pour une modulation par déplacement d’amplitude et de phase 8 5N 0
à M états et un facteur d’arrondi α = 0, la bande de fréquence
nécessaire pour transmettre, sans interférence entre symboles, des Pour comparer deux procédés de transmission en terme de
données avec un débit binaire Db = log2 M / T est de 1/ T (en hertz). probabilité d’erreur, on évalue en général la quantité dont il faut
accroître le rapport Eb /N0 pour l’un d’entre eux de façon à obtenir
On dit parfois que cette modulation possède une efficacité spec-
la même probabilité d’erreur pour les deux procédés de transmis-
trale η définie comme le nombre de symboles binaires d’informa-
sion.
tion transmis par hertz et par seconde :
Exemple : pour les deux modulations considérées précédemment,
η = log2 M il faut augmenter le rapport Eb /N0 de 4 dB (10 log10 5/2) en modulation
Plus le nombre M d’états de la modulation est grand et plus on MDAP 16 pour obtenir la même probabilité d’erreur qu’en modulation
transmet d’information dans une bande de fréquence donnée. MDP 4 .
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 15
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
■ Canal gaussien
4. Codage de canal Lorsque la perturbation prise en compte dans la transmission suit
une loi de Gauss et que le démodulateur est linéaire (démodulateur
Nota : se reporter également à l’article Théorie du codage et protection contre les
erreurs [E 170] dans le traité Électronique.
cohérent), les échantillons à l’entrée du circuit de décision suivent
une loi de Gauss. Dans ce cas, le canal à l’entrée discrète et à sortie
Le codage de canal consiste à ajouter au message à transmettre analogique est appelé canal gaussien. Il est défini par ses densités
des symboles suivant une loi donnée et à venir vérifier au décodage de probabilité :
que cette loi est respectée. Si c’est le cas, on considère qu’il n’y a
p Yk Xk = xi ( y k )
pas eu d’erreurs de transmission. Dans le cas contraire, on détecte
la présence d’erreurs que l’on peut éventuellement corriger. Dans
ce paragraphe, nous nous intéresserons aux codes linéaires en blocs Si le canal est stationnaire et sans mémoire, les densités de
et plus particulièrement aux codes cycliques et aux codes convolutifs probabilité sont indépendantes du temps et la sortie du canal à
(§ 4.5 et 4.6). l’instant k ne dépend que du symbole d’entrée à l’instant k.
p 00 = p 11 = 1 – p
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 16 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
Un canal de transmission étant défini par ses probabilités de Lorsque m = 4, la probabilité d’erreur Pe est égale à 1,2 × 10– 8 que
transition, le maximum de l’information mutuelle I (X, Y ) est à l’on peut considérer comme voisine de zéro mais, dans ce cas, l’entro-
prendre par rapport à la distribution de probabilité : pie H (X ) par symbole à l’entrée du canal est égale à :
{ p 0 ... p n – 1 } 1
H ( X ) = ------------------- = 0,11 bit / symbole
2m + 1
où pi = Pr { Xk = xi }
ce qui est très inférieur à la capacité C du canal. Ce code, qui permet
Pour un canal binaire symétrique, le maximum de l’information
de corriger de nombreuses erreurs de transmission, n’est pas perfor-
mutuelle I (X, Y ) est obtenu lorsque les symboles « 0 » et « 1 » à
mant, en ce sens qu’il nécessite d’introduire un grand nombre de sym-
l’entrée du canal sont équiprobables et sa capacité est égale à :
boles de redondance.
C = 1 – (1 – p) log2 (1 – p) – p log2 p (14) Pour le calcul de H (X ), on a supposé que l’entropie par symbole
binaire issu de la source d’information était égale à 1.
4.2.2 Canal stationnaire sans mémoire gaussien 4.4 Codes en blocs linéaires
Pour ce canal, nous nous limiterons à donner l’expression de sa
capacité C : 4.4.1 Principe
S
C = B T log 2 1 + -----
N Un code linéaire en blocs est une application f entre des blocs
de k symboles issus de la source d’information appelés messages
avec B bande passante du canal, M et des blocs de n symboles (n > k) appelés mots de code C. Le
rapport :
S/N rapport signal à bruit en sortie du canal, R = k /n
1/T nombre de symboles transmis par le canal par unité
de temps. est appelé le rendement du code.
La linéarité des codes en blocs conduit à utiliser des notations
matricielles pour les représenter. On passe du message M au mot
de code C par une matrice génératrice G :
4.3 Théorème fondamental sur le codage
de canal (2e théorème de Shannon) C = MG
où M = [m0 ... mi ... mk – 1]
C = [c 0 ... c j ... cn – 1]
Théorème : il est possible, en utilisant un codage de canal
approprié, de transmettre de l’information sous forme d’une G est donc une matrice rectangulaire à k lignes et n colonnes. On
suite de symboles discrets avec une probabilité d’erreur aussi peut montrer qu’il est toujours possible de trouver une matrice non
aible que l’on veut si l’entropie par symbole H (X ) à l’entrée du nulle H appelée matrice de contrôle qui est orthogonale à la
canal est inférieure à sa capacité C. matrice génératrice G :
GH t = 0
Ce théorème n’indique malheureusement pas comment réaliser l’indice t indiquant la transposition.
le codage. La matrice de contrôle H va permettre comme nous allons le voir
Exemple : soit un codage de canal qui associe à chaque symbole (§ 4.4.2) de détecter les erreurs de transmission.
Nota : nous noterons en gras les matrices et vecteurs.
binaire issu de la source d’information un mot de code constitué de
(2m + 1) symboles binaires de la façon suivante :
« 0 » codé par (0..........0..........0) 4.4.2 Pouvoir de détection et de correction
« 1 » codé par (1..........1..........1)
Nous allons considérer que les symboles issus de la source
Les mots de code sont transmis sur un canal binaire symétrique de d’information sont binaires, qu’ils prennent leur valeur de façon
probabilité d’erreur p = 10 – 2. Ce type de codage est-il performant au équiprobable dans l’ensemble {0, 1} et que la transmission se fait
sens du théorème de Shannon ? sur un canal binaire symétrique stationnaire et sans mémoire.
En utilisant l’expression (14) de la capacité C d’un canal binaire Lorsque le mot de code C est émis, on reçoit en sortie du canal un
symétrique, on obtient : mot R que l’on peut écrire sous la forme suivante :
C = 0,92 bit / symbole R=C+e
Pour que la probabilité d’erreur Pe après décodage (on supposera où e est un vecteur à n composantes binaires qui représente les
que l’on utilise un décodage majoritaire) soit voisine de zéro, il faut que erreurs éventuelles de transmission.
le paramètre m soit suffisamment grand. On peut montrer facilement
que : ■ Détection des erreurs
La détection des erreurs est réalisée en calculant le syndrome S :
m+1
Pe ≈ C 2m + 1 p m + 1 ( 1 – p ) m S =RH t
avec : En tenant compte que la matrice de contrôle H est orthogonale
à la matrice génératrice G, on voit que le syndrome S est égal à :
p n!
C n = -----------------------------
p ! ( n – p )! S = e Ht
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 17
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
● Si le syndrome S est nul, c’est que le vecteur e est nul ou qu’il 4.5 Codes cycliques
a pris la configuration d’un mot de code. Ne pouvant différencier ces
deux cas de figure, on fera l’hypothèse qu’il n’y a pas d’erreurs de
transmission ou du moins d’erreurs détectables. 4.5.1 Principe et représentation polynomiale
● Si le syndrome S est différent de zéro, on peut affirmer sans Les codes cycliques sont des codes linéaires en blocs. Un code
ambiguïté que l’on est en présence d’erreurs de transmission. linéaire en blocs est cyclique si :
Le calcul du syndrome S permet donc de faire de la détection
C : (c 0 ... ci ... cn – 1) ci ∈[0, 1] (15)
d’erreurs.
■ Correction des erreurs étant un mot de code, alors :
On utilise en général la règle de décision du maximum de C1 : (cn – 1 , c 0 ,... c i ... cn – 2)
vraisemblance qui conduit à décider que le mot de code émis
est Cj si : déduit de C par permutation circulaire à droite, est aussi un mot de
d j < di ∀ j ≠ i code.
Cette définition des codes cycliques entraîne que tout mot de code
où d j est la distance de Hamming entre le mot Cj et le mot reçu R. C i déduit de C par i permutations circulaires est aussi un mot de
On rappelle que la distance de Hamming entre deux vecteurs code. Pour les codes cycliques, on préfère en général utiliser une
constitués de symboles binaires est égale au nombre de symboles représentation polynomiale plutôt qu’une représentation matricielle
qui sont différents entre ces deux vecteurs. des messages et des mots de code.
■ Pouvoir de correction d’un code Ainsi, au mot de code C, on associe le polynôme C (x) avec :
On démontre que, si la distance minimale entre les mots de code C (x) = c 0 + c1x + ... + cn – 1 x n – 1
est d min , alors on peut corriger t erreurs et en détecter 2 t dans des
mots constitués de n symboles avec : où x est une indéterminée, dont l’exposant correspond à l’empla-
cement du symbole considéré dans le mot de code.
d min – 1
t = ----------------------- Avec cette représentation polynomiale des codes cycliques, on
2 passe du message M (x ) constitué de k symboles au mot de
où [ · ] désigne la partie entière. code C (x) par le polynôme générateur g (x) :
Un bon code est donc un code dont le rendement R est grand et g (x) = g 0 + g1x + ... + gn – k x n – k
pour lequel la distance minimale entre les mots de code est la plus
élevée possible. et tout mot de code C (x) peut s’écrire sous la forme :
Pour un code en blocs linéaire, on démontre que la distance mini- C (x) = M (x) g (x)
male entre les mots de code est égale au poids minimal de ses mots
de code non nuls (*). Cette méthode pour déterminer la distance Pour les codes cycliques, on démontre que le polynôme géné-
minimale n’est pas forcément facile à utiliser lorsque le nombre de rateur est un diviseur de x n + 1 :
mots de ce code est élevé.
(*) On rappelle que le poids d’un vecteur constitué de symboles binaires est égal au
x n + 1 = g (x) h (x) (16)
nombre de symboles de ce vecteur égaux à 1.
h (x ) est appelé le polynôme vérificateur de parité, c’est l’équiva-
lent de la matrice de contrôle H.
4.4.3 Performances des codes en blocs linéaires En général, dans un système de codage, on ne mélange pas les
symboles de redondance et les symboles qui proviennent du mes-
Il est possible de trouver une borne supérieure de la probabilité sage dans un mot de code. On dit alors que le code est sous forme
d’erreur Pe . Si le décodage est incorrect, c’est qu’il y a eu plus systématique, c’est-à-dire que :
de t erreurs de transmission dans un ensemble de n symboles
C (x) = V (x) + x n – k M (x) (17)
binaires. Supposons le nombre d’erreurs égal à i ( i t + 1 ), alors le
décodeur corrige au plus t symboles qui ne sont pas obligatoirement où V (x ) est un polynôme qui représente les symboles de
les symboles erronés. Ainsi, dans le pire des cas, le décodeur intro- redondance.
duit t erreurs supplémentaires, d’où : Les mots de code restent bien entendu un multiple du polynôme
n générateur :
1
∑
i C (x) = g (x) q (x)
P e ----- ( i + t ) Cn ( 1 – p ) n – i p i
n
i = t+1 En tenant compte que toutes les opérations sont faites modulo 2,
on obtient :
où p est la probabilité d’erreur par symbole sur le canal de
transmission. x n – k M (x) = g (x) q (x) + V (x)
V (x) représente donc le reste de la division (modulo 2) de x n – k M (x)
par g (x).
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 18 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
x 7 + 1 = (x 3 + x + 1) (x 4 + x 2 + x + 1) (modulo 2)
d’où g (x) = x3 +x+1
Considérons le message 1011 de représentation polynomiale M (x) :
M (x) = 1 + x 2 + x 3
Le mot C (x) associé à ce message est de la forme [d’après la
relation (17)] .
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 19
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
Il est possible de simplifier l’algorithme de correction des erreurs Exemple : reprenons (exemple du § 4.5.1) le code de Hamming de
de transmission en utilisant le syndrome S (x). Lorsque le nombre paramètres n = 7 et k = 4 et dont le polynôme générateur est :
d’erreurs i à corriger est inférieur ou égal à la capacité de correc-
tion du code (i < t + 1), à chaque valeur du syndrome S (x) corres- g (x) = x 3 + x + 1
pond une expression unique du polynôme d’erreur e (x). La Au message M (x) = x3 + x 2 + 1 est associé le mot de code :
correction se fait alors en retranchant e (x) au mot reçu R (x). Le
syndrome S (x) pouvant prendre 2 n – k valeurs, la recherche du C (x) = x 6 + x 5 + x 3 + 1
polynôme d’erreur e (x) associé à une valeur donnée du
syndrome S (x) nécessite 2 n – k comparaisons au lieu de 2 k pour la Supposons une erreur de transmission en position 4, c’est-à-dire
méthode précédente. e (x ) = x 4.
Pour les codes de Hamming, BCH et RS, des algorithmes spéci- Le mot reçu R (x) est rentré dans un décodeur (figure 15) constitué
fiques de correction des erreurs ont été développés. Pour les codes par (n – k ) = 3 registres à décalage. Après 7 coups d’horloge, le
BCH et RS, ces algorithmes restent assez lourds à mettre en œuvre. syndrome S (x ) = x 2 + x est disponible en R 0 R1 R2 . On effectue
ensuite trois décalages du syndrome et l’on trouve R0 = 1, R1 = R2 =0
■ Décodage des codes de Hamming c’est-à-dire un reste égal à 1. L’erreur de transmission se trouve donc
Cet algorithme de décodage permet de corriger une erreur dans en position 4, et on peut la corriger.
un paquet de n symboles. Supposons que l’erreur se situe en posi-
tion j ; le polynôme d’erreur est alors : 4.6 Codes convolutifs (ou récurrents)
e (x) = xj
4.6.1 Principe et représentation
Le polynôme d’erreur e (x) peut toujours se mettre sous la
forme : Pour un code linéaire en blocs, chaque mot de code dépend d’un
e (x) = g (x) q (x) + S (x) message. Les codes convolutifs sont une extension des codes en
blocs linéaires, en ce sens que chaque mot de code dépend du
soit S (x) = e (x) – g (x) q (x)
message à l’entrée du codeur mais aussi des m derniers messages
En multipliant le syndrome S (x) par x i, on obtient : mémorisés par le codeur. Les codes convolutifs présentent donc
un effet de mémoire.
x i S (x) = x i + j – x i g (x) q (x)
Dans l’exposé qui suit, nous ne considérons que des messages
Lorsque (i + j) = n et en tenant compte que g (x) est un diviseur et des mots de code constitués de symboles binaires. Pour présenter
de x n + 1 : les codes convolutifs, nous utiliserons le codeur de la figure 16 de
x i S (x) = [q’ (x)– x i q (x)] g (x) + 1 rendement R = 1/2 dont la mémoire m est égale à 2. La quantité
(m + 1) est appelée la longueur de contrainte du codeur. Le fonc-
Cette relation peut s’interpréter en disant que le reste de la divi- tionnement d’un codeur convolutif peut être représenté à partir de
sion de x i S (x) par le polynôme g (x) est égal à 1. Le décodeur va son diagramme d’état ou de son diagramme en treillis.
donc effectuer la division de x i S (x) par g (x) et lorsque le reste de
cette division sera égal à 1 c’est que : ■ Diagramme d’état
L’état d’un codeur est défini par le contenu de ses m mémoires.
i+j=n
Dans l’exemple de la figure 17, le codeur possède quatre états que
L’erreur de transmission sera en position j avec : nous appellerons a, b, c, d (a : 00, b : 01, c : 10 et d : 11) ; ces états
sont définis par le couple a k – 1, ak – 2 .
j=n–i
À chaque message constitué d’un symbole binaire a k est associé
Le calcul du reste de la division de x i S (x) par g (x) s’obtient par 1 2
décalage cyclique du syndrome S (x) de i positions. un mot de code formé de deux symboles binaires x k , x k . Le fonc-
tionnement du codeur peut être représenté par le diagramme
d’état de la figure 17. Sur ce diagramme, les états communiquent
par des branches sur lesquelles sont indiqués le mot de code en
sortie du codeur.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 20 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
b=Dc+Dd
d = DN c + DN d 4.6.2 Performances et décodage
des codes convolutifs
as = D2 b
Après résolution de ce système d’équations, la fonction de Il existe plusieurs algorithmes de décodage des codes convolutifs,
transfert T (D, N ) est égale à : mais nous nous limiterons à présenter le plus utilisé : l’algorithme
∞
de Viterbi. Cet algorithme suit la règle de décision du maximum de
D5N
T ( D, N ) = ---------------------- =
1 – 2DN ∑ 2k D 5 + k Nk + 1 vraisemblance et recherche, parmi toutes les séquences possibles
de symboles que le codeur peut émettre, celle qui est à la distance
k=0
minimale de la séquence fournie par le démodulateur.
À partir du développement en série de la fonction de transfert Pour présenter cet algorithme, supposons que le canal de trans-
T (D, N ), on voit qu’il existe 2 k chemins à la distance (5 + k ) du mission soit du type stationnaire binaire symétrique et sans
chemin de référence et qu’ils correspondent à une séquence de mémoire et prenons l’exemple du codeur de la figure 16.
poids (k + 1) à l’entrée du codeur.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 21
CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX ___________________________________________________________________________________
1 2
où ( Z k , Z k ) représente le couple d’échantillons analogiques fourni
par le démodulateur,
1 2
( X k , X k ) le couple de symboles associé à une branche donnée
du treillis.
Dans l’algorithme tel que nous venons de le présenter, il faut avoir
reçu l’ensemble des symboles émis par le codeur avant de pouvoir
les décoder. Pour travailler en temps réel, on montre que l’on peut
décoder le message émis par le codeur à l’instant t = n après avoir
parcouru le treillis jusqu’à l’instant t = n + x où x est égal à 4 ou 5
fois la longueur de contrainte pour un codeur de rendement R = 1/2.
Figure 19 – Calcul de la fonction de transfert du code convolutif
1
de rendement R = ----- et de mémoire m = 2 (même symbolisme que
■ Performances des codes convolutifs
2
Pour les codes convolutifs de rendement R = k/n il est possible
figure 17)
de déterminer une borne supérieure de la probabilité d’erreur
Pe après décodage :
■ Algorithme de Viterbi
1 ∂T ( D, N )
En chaque nœud du treillis (figure 18) convergent deux branches P e ---- ---------------------------
k ∂N N = 1 , D = D0
qui appartiennent à deux chemins différents. De ces deux chemins
l’un est plus vraisemblable que l’autre, lui seul sera conservé dans où D0 dépend des caractéristiques du canal de transmission :
le déroulement de l’algorithme et portera le nom de survivant. Si, — pour un canal binaire symétrique :
par hasard, les deux chemins étaient aussi vraisemblables, un seul
serait conservé et le choix se ferait de façon arbitraire. D0 = 2 p (1 – p )
où p est la probabilité d’erreur sur le canal de transmission ;
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 380 − 22 © Techniques de l’Ingénieur, traité Mesures et Contrôle
__________________________________________________________________________________ CODAGE DE L’INFORMATION ET MODULATION DES SIGNAUX
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 380 − 23
P
O
U
Codage de l’information R
et modulation des signaux
E
N
par Alain GLAVIEUX
Ingénieur civil des Télécommunications
Professeur à l’École Nationale Supérieure des Télécommunications de Bretagne (ENSTB)
S
A
Bibliographie V
BATTAIL (G.). – Théorie du signal. E 160, traité Élec- ATTAL (G.) et SORBA (A.). – Modulations. Démodula- P ROA KIS (J.G.). – D ig ital co mmu n icatio n s
tronique, Techniques de l’Ingénieur.
CLAVIER (J.). – Théorie de l’information. Formalisa-
tions. E 3 450, traité Électronique, Techniques de
l’Ingénieur.
(Communications numériques). 905 p., Mc
Graw-Hill (1989). O
tion du concept. E 3 080, traité Électronique,
Techniques de l’Ingénieur (1998).
CLAVIER (J.). – Théorie de l’information. Aspects
BIC (J.C.), DUPONTEIL (D.) et IMBEAUX (J.C.). – Élé-
ments de communications numériques. Tome I,
359 p. ; Tome II, 303 p. Collection technique et
LEE (E.A.) et MESSERSCHMITT (D.G.). – Digital
communication (Communications numériques).
713 p., Kluwer Academic Publishers, Boston
I
mathématiques. E 3 082, traité Électronique,
Techniques de l’Ingénieur (1998).
CLAVIER (J.). – Théorie de l’information. Applica-
scientifique des télécommunications, Dunod
(1986).
VITERBI (A.J.) et OMURA (J.K.). – Principes des
(1988).
WOZENCRAFT (J.M.) et JACOBS (I.M.). – Principles
of communication engineering (Principes des
R
tion à la physique. E 3 084, traité Électronique, communications numériques. Traduit de systèmes de communication). Wiley, New York
Techniques de l’Ingénieur (1998). l’américain par Battail (G.), 216 p. Collection (1965).
technique et scientifique des télécommunica-
BATTAIL (G.). – Théorie du codage et protection
contre les erreurs. E 170, traité Électronique,
Techniques de l’Ingénieur.
tion, Dunod (1982).
P
L
U
S
10 - 1991
Doc. R 380