Thèse de Doctorat
Thèse de Doctorat
THÈSE
EN VUE DE L’OBTENTION DU DIPLOME DE
DOCTORAT EN SCIENCE
Présentée par
SAIDANI Samir
Intitulée
Remerciement
Avant tout, Merci à Dieu le tout puissant qui m’a donné le courage et la force pour
réaliser ce modeste travail, et à qui j'adresse mes remerciements par sa grâce infinie pour
moi.
Je remercie aussi, mes amis et ma famille qui m’ont apporté à un moment ou à un autre
leur aide pendant cette thèse. Je remercie tous ceux que j’ai oublies, et qui de près ou de
loin, ont contribué à cette thèse.
I
Avant-propos
Avant-propos
Publication Internationales
Communications Internationales
II
Résumé
L’égalisation des canaux de transmission est une fonction principale dans les systèmes de
communications numériques, elle consiste à la restitution du signal transmis, après être
distordu, par l’effet du canal et du bruit.
Les égaliseurs classiques sont basés simplement sur des filtres numériques (Filtre à réponse
impulsionnelle finie et Filtre à réponse impulsionnelle infinie) ce qui limite leurs
performances dans le cas des canaux de transmission non linéaires. Afin d'améliorer les
performances de l'égaliseur, les réseaux de neurones artificiels ont été largement utilisés,
en particulier dans certains cas de canaux non linéaires. Plusieurs algorithmes sont utilisés
pour optimiser les poids des réseaux de neurones. Certains utilisent les techniques basées
sur le gradient. Bien que ces algorithmes soient très utiles pour l’optimisation des poids des
réseaux de neurones, ils souffrent du problème de minimum local. Afin de résoudre ce
problème, de nombreux algorithmes de recherche stochastiques connus sous le nom
d'algorithmes méta-heuristiques ont été proposés.
Dans le présent travail, on se propose l’étude des égaliseurs adaptatifs tout en testant leurs
performances. Dans ce contexte, nous avons focalisé nos recherches sur les algorithmes
d’apprentissage pour améliorer la fonction d’égalisation.
III
Abstract
Adaptive channel equalizers play an important role in digital communication systems, its
main function is returning the transmitted signal after being distorted by the channel effect
and noise.
Classic Equalizers are based simply on digital filters (Finite impulse response filter and
Infinite impulse response filter), which limits their performance in the case of non-linear
channels. In order to enhance the performance of the equalizer, artificial neural network
were broadly used especially in some cases of nonlinear channels. Several algorithms are
used to optimize the weight of the neural networks. Some of them use the gradient-based
techniques. Although these algorithms are very helpful for training the neural networks,
they suffer from the local minimum problem. In order to solve this problem, many
stochastic search algorithms which are known as meta-heuristic algorithms have been
proposed.
In the present work, we propose a study of adaptive equalizers and testing their
performances. In this context, we focused our research on learning algorithms to improve
the equalization function.
IV
ﻣــﻠﺨـــﺺ
ﺗﻌــــﺪ ﻣﺴﻮﻳـــﺎﺕ ﻗﻨـــﻮﺍﺕ ﺍﻹﺗﺼــﺎﻝ ﻣــﻦ ﺍﻟﻮﻅــﺎﺋــﻒ ﺍﻟﺮﺋــﻴﺴﻴــﺔ ﻓــﻲ ﺃﻧﻈﻤـــﺔ ﺍﻻﺗﺼــﺎﻻﺕ ﺍﻟﺮﻗﻤﻴــﺔ ،ﻓﻬـــﻲ
ﺗﻌﻤــــﻞ ﻋﻠـــﻰ ﺇﺳﺘﺮﺟـــﺎﻉ ﺍﻹﺷـــﺎﺭﺓ ﺍﻟﻤﺮﺳﻠـــــﺔ ﺑﻌـــﺪ ﺗﺸــﻮﻳﻬﻬـــﺎ ﺑﺴـﺒﺐ ﺗــﺄﺛﻴـــﺮ ﺍﻟﻘﻨــــﺎﺓ ﻭﺍﻟﻀﺠﻴـــــﺞ.
ﺗﻌﺘﻤـــﺪ ﺍﻟﻤﺴﻮﻳــــﺎﺕ ﺍﻟﺘﻘﻠﻴﺪﻳــــﺔ ﺑﺒﺴﺎﻁـــــﺔ ﻋﻠـــﻰ ﺍﻟﻤﺮﺷﺤــــﺎﺕ ﺍﻟﺮﻗﻤﻴـــﺔ )ﻣﺮﺷـــﺢ ﺫﻭ ﺍﺳﺘﺠﺎﺑـــﺔ ﻧﺒﻀﻴــــﺔ
ﻣﺤــﺪﺩﺓ ﻭ ﻣﺮﺷــﺢ ﺫﻭ ﺍﺳﺘﺠﺎﺑـــﺔ ﻧﺒﻀﻴــﺔ ﻏﻴــــﺮ ﻣﺤــﺪﺩﺓ( ﻭﺍﻟﺘـــﻲ ﺗﺤـــﺪ ﻣــﻦ ﺃﺩﺍﺋــــﻬﺎ ﻓــــﻲ ﺣﺎﻟـــﺔ ﻗﻨــــﻮﺍﺕ
ﺍﻹﺗﺼــــﺎﻝ ﺍﻟﻼﺧﻄﻴــــﺔ.
ﻣــﻦ ﺃﺟـــﻞ ﺗﺤﺴﻴـــــﻦ ﺃﺩﺍء ﺍﻟﻤﺴﻮﻳــــﺎﺕ ،ﺗـــﻢ ﺍﺳﺘﺨــﺪﺍﻡ ﺍﻟﺸﺒﻜــﺎﺕ ﺍﻟﻌﺼﺒﻴــﺔ ﺍﻹﺻﻄﻨـــﺎﻋﻴـــﺔ ﻋﻠﻰ ﻧﻄـــــﺎﻕ
ﻭﺍﺳـــﻊ ﻭﺧﺎﺻـــﺔ ﻓـــﻲ ﺑـــﻌﺾ ﺍﻟﻘﻨــــﻮﺍﺕ ﺍﻟﻼﺧﻄﻴـــــﺔ.
ﻟﺘﺤﺴﻴــــﻦ ﺃﻭﺯﺍﻥ ﺍﻟﺸﺒﻜــــﺎﺕ ﺍﻟﻌﺼﺒﻴـــﺔ ،ﺗــﻢ ﺍﺳﺘﺨــــﺪﺍﻡ ﺍﻟﻌﺪﻳــــﺪ ﻣـــﻦ ﺍﻟﺨﻮﺍﺭﺯﻣﻴــــﺎﺕ ،ﺑﻌﻀﻬــــﻢ ﻳﺴﺘﺨـــﺪﻡ
ﺍﻟﺘﻘﻨﻴـــــﺎﺕ ﺍﻟﻘﺎﺋﻤــﺔ ﻋﻠـــﻰ ﺍﻟﺘــﺪﺭﺝ .ﻋﻠـــﻰ ﺍﻟﺮﻏـــﻢ ﻣــﻦ ﺃﻥ ﻫــﺬﻩ ﺍﻟﺨﻮﺍﺭﺯﻣﻴــﺎﺕ ﻣﻔﻴــﺪﺓ ﺟـــﺪًﺍ ﻓــﻲ ﺗﺪﺭﻳـــﺐ
ﺍﻟﺸﺒﻜـــﺎﺕ ﺍﻟﻌﺼﺒﻴـﺔ ،ﺇﻻ ﺃﻧـــﻬﺎ ﺗﻌﺎﻧـــﻲ ﻣــﻦ ﻣﺸﻜﻠـــﺔ ﺍﻟﺤــﺪ ﺍﻷﺩﻧـــﻰ ﺍﻟﻤﺤﻠﻴــــﺔ ،ﻟﺤـــﻞ ﻫـــﺬﻩ ﺍﻟﻤﺸﻜﻠـــﺔ ،ﺗـــﻢ
ﺇﻗﺘــﺮﺍﺡ ﺍﻟﻌﺪﻳــﺪ ﻣـﻦ ﺧﻮﺍﺭﺯﻣﻴــﺎﺕ ﺍﻟﺒﺤــﺚ ﺍﻟﻌﺸﻮﺍﺋــﻲ ﺍﻟﻤﻌﺮﻭﻓــﺔ ﺑﺎﺳـــﻢ ﺧﻮﺍﺭﺯﻣﻴــــﺎﺕ ﺍﻻﺳﺘـــﺪﻻﻝ ﺍﻟﻔﻮﻗﻴــﺔ.
ﻓـــﻲ ﺍﻟﻌﻤـــﻞ ﺍﻟﺤﺎﻟــــﻲ ،ﻧﻘﺘـــﺮﺡ ﺩﺭﺍﺳـــﺔ ﺍﻟﻤﻌـــﺎﺩﻻﺕ ﺃﻭ ﺍﻟﻤﺴﻮﻳــــﺎﺕ ﺍﻟﺘﻜﻴﻔﻴــــﺔ ﻭ ﺇﺧﺘﺒـــﺎﺭ ﺃﺩﺍﺋــــﻬﺎ .ﻓــﻲ
ﻫــﺬﺍ ﺍﻟﺴﻴــﺎﻕ ﺭﻛﺰﻧــﺎ ﺑﺤﺜﻨـــﺎ ﻋﻠـــﻰ ﺧﻮﺍﺭﺯﻣﻴـــﺎﺕ ﺍﻟﺘﻌﻠــــﻢ ﻟﺘﺤﺴﻴـــﻦ ﻭﻅﻴﻔـــﺔ ﺍﻟﻤﻌﺎﺩﻟـــــﺔ.
ﺍﻟﻛﻠﻣـــﺎﺕ ﺍﻟﻣﻔﺗﺎﺣﻳـــﺔ :ﺍﻟﺘﺴﻮﻳــــﺔ ،ﺍﻟﺘﺮﺷﻴـــﺢ ﺍﻟﺘﻜﻴﻔـــﻲ ،ﻗﻨـــﺎﺓ ﺍﻹﺭﺳـــﺎﻝ ،ﺍﻻﺗﺼـــﺎﻻﺕ ﺍﻟﺮﻗﻤﻴــــﺔ ،ﺧﻮﺍﺭﺯﻣﻴــــﺎﺕ
ﺍﻟﺘﻌﻠــــﻢ.
V
Table des matières
Chapitre 1
INTRODUCTION AUX COMMUNICATIONS NUMERIQUE
VI
Table des matières
Chapitre 2
ALGORITHMES D’OPTIMISATIONS : ÉTAT DE L’ART
Chapitre 3
TECHNIQUES D’EGALISATION
VII
Table des matières
Chapitre 4
ÉGALISATION Á BASE DES RÉSEAUX DE NEURONES ARTIFICIELS
Chapitre 5
ALGORITHMES MÉTA-HEURISTIQUE POUR L’ÉGALISATION : HYBRIDATION
ET MÉTHODE PROPOSÉE
VIII
Table des matières
IX
Liste des figures
Chapitre 1
Fig.1.1 Schéma d’un système de transmission numérique ------------------------------------------ 4
Fig.1.2 Modèle d’un canal à bruit additif -------------------------------------------------------------- 10
Fig.1.3 Représentation temporelle d’un bruit gaussien ---------------------------------------------- 11
Fig.1.4 Modèle d’un canal à filtre linéaire avec bruit additif --------------------------------------- 12
Fig.1.5 Modèle d’un canal discret linéaire ------------------------------------------------------------ 12
Fig.1.6 Modèle d’un canal de filtrage linéaire variant dans le temps ------------------------------ 13
Fig.1.7 Représentation d’un système non linéaire par série de Volterra -------------------------- 14
Fig.1.8 Modèle simplifié du canal non linéaire ------------------------------------------------------- 15
Fig.1.9 Capacité en fonction du SNR ------------------------------------------------------------------ 16
Fig.1.10 Comparaison de l’atténuation du signal pour différents supports de communication - 18
Fig.1.11 La réponse impulsionnelle temporelle du canal --------------------------------------------- 21
Fig.1.12 Etalement d’un signal numérique après transmission -------------------------------------- 22
Fig.1.13 Classification des canaux de communication ------------------------------------------------ 23
Fig.1.14 Diagramme de l’œil ----------------------------------------------------------------------------- 24
Fig.1.15 Diagramme de l’œil pour une transmission binaire ----------------------------------------- 24
Fig.1.16 Caractéristique du diagramme de l’œil ------------------------------------------------------ 24
Fig.1.17 Modèle d’un système de transmission -------------------------------------------------------- 25
Fig.1.18 Démonstration du critère spectral de Nyquist ----------------------------------------------- 27
Fig.1.19 Bande passante inférieur à 1/2Ts--------------------------------------------------------------- 28
Fig.1.20 Structure d’un filtre à réponse impulsionnelle finie (RIF) --------------------------------- 29
Fig.1.21 Structure d’un filtre à réponse impulsionnelle infinie (RII) ------------------------------- 30
Fig.1.22 Schéma d’un système de filtrage adaptatif --------------------------------------------------- 31
Chapitre 2
X
Liste des figures
Chapitre 3
Chapitre 4
XI
Liste des figures
Fig.4.16 Courbe de l’EQM et BER de l’égaliseur RBF et DFE-RBF (canal H2(z)) -------------- 86
Fig.4.17 Structure de l’égaliseur MLP avec deux types d’apprentissage --------------------------- 87
Fig.4.18 Apprentissage de trois couches DFE-MLP par la stratégie conventionnelle (BP) ----- 88
Fig.4.19 Apprentissage de trois couches DFE-MLP par la nouvelle stratégie (NHBP) ---------- 89
Fig.4.20 Courbes de l’erreur quadratique moyenne et BER du canal H1(z)------------------------ 91
Fig.4.21 Courbes de l’erreur quadratique moyenne et BER du canal H2(z)------------------------ 92
Chapitre 5
XII
Liste des tableaux
XIII
Liste des abréviations
XIV
Liste des abréviations
XV
Introduction générale
INTRODUCTION GÉNÉRALE
De nos jours, les systèmes de télécommunications font partie des technologies qui ont
révolutionné notre mode de vie. Du télégraphe à l’Internet, de la transmission sans fil au
téléphone cellulaire, les progrès établis sont spectaculaires. Afin de développer de tels
systèmes, une parfaite connaissance des propriétés du canal de communication est nécessaire.
Les performances d’un système de transmission sont en effet directement liées aux conditions
de propagation entre l’émetteur et le récepteur. Ceux-ci doivent donc être dimensionnés pour
tirer le meilleur parti des caractéristiques du canal et atténuer ses effets négatifs. Les systèmes
de communications numériques nécessitent généralement la transmission de quantités
importantes d’information dans des bandes de fréquence les plus étroites possible [1].
Cependant l'augmentation des besoins en débit se heurte à la nature des canaux eux-mêmes.
En effet, dans des applications telles que la télédiffusion à grande échelle ou un réseau
informatique radio à l'intérieur d'un bâtiment, le canal est de type multi-trajet. Le signal est
réfléchi en plusieurs endroits, et des échos apparaissent et créent des perturbations telles que
l’interférence entre symboles créée par la sélectivité en fréquence dont l'influence augmente
avec le débit de transmission [2]. Pour lutter contre la sélectivité en fréquence des canaux de
transmission plusieurs techniques sont possibles parmi lesquelles on peut citer : les
transmissions multi-porteuses, les techniques d'étalement de spectre et l'égalisation [1]. Cette
thèse est consacrée à l'égalisation.
La technique d’égalisation apparait comme une technique de traitement de l’interférence entre
symboles efficace lorsque les canaux de transmission sont sélectifs en fréquence et invariants
ou variants dans le temps. Les égaliseurs les plus utilisés en pratique sont les égaliseurs
adaptatifs. Les égaliseurs adaptatifs jouent un rôle important dans les systèmes de
communication numériques, sa fonction principale est de restituer le signal transmis après
avoir été déformé par l'effet du canal et le bruit. Les égaliseurs adaptatifs les plus simples sont
construits à partir de filtres linéaires transverses dont les coefficients sont généralement
optimisés à partir d'un algorithme des moindres carrés moyens (LMS: Least Mean Square) ou
des moindres carrés récursifs (RLS: Recursive Least Square). L’égalisation linéaire à
coefficients fixes remonte aux travaux pionniers de Nyquist [3], pendant les années 1928.
Cependant, le concept d’égalisation automatique n’a été formalisé qu’en 1965, par Lucky [4],
tandis que les analyses de performance et convergence des égaliseurs adaptatifs basés sur la
minimisation de l’erreur quadratique ont été faites entre 1969 et 1984, par des chercheurs
renommés du domaine comme Proakis [5] et Macchi [6]. Pendant cette période, plusieurs
types de structure linéaires d’égalisation adaptative ont été développés, notamment les
égaliseurs par filtrage de Kalman, par filtrage en treillis (latice filters) et les égaliseurs
fractionnés. D’autre part, dans une voie parallèle de recherche, des structures d’égalisation
1
Introduction générale
adaptatives non linéaire ont été aussi développées, comme l’égaliseur à retour de décision
(DFE: Decision-Feedback Equalizers) [7], en 1967.
Dans les années 1970, grâce à l’apparition d’une grande modalité de système de
communication numérique, y compris certains qui ne transmettaient pas des séquences
d’apprentissage (une séquence préliminaire de données, connue du récepteur), une nouvelle
branche de l’égalisation à été créée, à savoir, l’égalisation aveugle (ou autodidacte).
Aujourd’hui, l’égalisation non supervisée comme l’égalisation aveugle ou supervisée ont des
rôles centraux dans les systèmes de communication numériques.
Pour améliorer les performances de l'égaliseur dans certains canaux non linéaires, les réseaux
de neurones artificiels (ANN : Artificial Neural Network) [8] ont été largement utilisés dans
le domaine de l'égalisation des canaux [9-14]. Les réseaux de neurones constituent un
ensemble des techniques de traitement du signal qui s’inspirent du système nerveux humain.
Ces techniques trouvent une place dans le domaine des télécommunications, en particulier
dans les systèmes comportant des non-linéarités. Deux architectures d’égaliseurs à base des
réseaux de neurones sont mises en œuvre pour l’égalisation du canal de communication,
l’égaliseur direct, qui est la version neuronale de l’égaliseur linéaire et l’égaliseur à retour de
décision (DFE : Decision-Feedback Equalizers).
L’optimisation d'un réseau de neurone implique l’utilisation d’un algorithme adaptatif pour
optimiser les poids des réseaux neuronaux. Bien que plusieurs algorithmes se trouvent dans la
littérature pour optimiser les poids des réseaux de neurones. Certains utilisent les techniques
basées sur le gradient comme l'algorithme de rétro-propagation du gradient (BP : pour Back
Propagation) [15]. Cependant, ces algorithmes, sont sensibles au problème de minimum local.
Afin de résoudre ce problème, de nombreux algorithmes de recherche stochastiques connus
sous le nom d'algorithmes méta-heuristiques ont été proposés. Par conséquent, un algorithme
d'apprentissage est souvent modifié, voire hybridé avec un autre afin d’améliorer leurs
performances. Actuellement, les méta-heuristiques hybrides sont devenues plus populaires car
les meilleurs résultats trouvés pour plusieurs problèmes d’optimisation ont étés obtenus avec
des algorithmes hybrides. Dans ce contexte, Nous allons focaliser nos recherches sur les
algorithmes d’apprentissage destinés à résoudre des problèmes d’égalisation des canaux.
Cette thèse est organisée en 5 chapitres (figure 1), suivis d’une conclusion générale et des
perspectives. Elle est présentée comme suit :
- Le premier chapitre représente un récapitulatif des outils des communications numériques,
les nécessaires, pour avancer dans cette thèse, parmi lesquels on cite quelques modèles des
canaux de transmission et les perturbations qui les accompagnent, telles que le bruit et
l’interférence entre symboles, et les outils de mesure de la qualité de transmission. A la fin de
ce chapitre, on donne un aperçu sur les filtres numériques.
- Le deuxième chapitre dresse un état de l’art sur les algorithmes d’optimisation utilisés dans
le filtrage adaptatif en accordant une importance particulière aux algorithmes utilisés dans nos
travaux de recherche. Il aborde aussi les définitions générales des méthodes d’optimisation
qui se divisent en deux volets déterministes et non déterministes.
- Le troisième chapitre explique la notion d’égalisation, et présente une étude des égaliseurs
conventionnels, l’égaliseur linéaire LE (Linear Equalizer) et l’égaliseur à retour de décision
2
Introduction générale
Chapitre 5
ALGORITHMES MÉTA-HEURISTIQUE POUR L’É GALISATION :
HYBRIDATION ET MÉTHODE PROPSÉE
Chapitre 3
TÉCHNIQUE D’ÉGALISATION Chapitre 4
ÉGALISATION Á BASE DES RÉSEAUX
DE NEURONES ARTIFICIEL
Chapitre 2
ALGORITHMES D’OPTIMISATIONS :
ÉTAT DE L’ART
Chapitre 1
INTRODUCTION AUX COMMUNICATION NUMÉRIQUE
3
CHAPITRE 1
INTRODUCTION AUX COMMUNICATIONS NUMERIQUES
1.1 INTRODUCTION
EMETTEUR
CANAL
RECEPTEUR
• La source peut être soit de forme analogique ou numérique. Pour réaliser une
transmission numérique, le message à transmettre doit être sous forme
numérique. Si le message produit par la source est de type analogique tel que le
signal de parole (sortie d’un microphone) ou le signal d’image (sortie d’une
caméra), il faut converti en une séquence d’élément binaire (numériser), à
travers un étage de conversion analogique numérique (Echantillonnage et
Quantification). Chaque échantillon quantifié est ensuite codé sur m élément
binaire (appelés traditionnellement, mais improprement, bits) [20].
La taille du message binaire original ainsi produit est en général très importante
et contient de la redondance. Dans le cas idéal, et pour augmenter l’efficacité de
la transmission et optimiser l’utilisation des ressources du système, cette
séquence doit être la plus courte possible, ce qui constitue la tâche du codeur
source.
5
Chapitre1 Introduction aux communications numérique
6
Chapitre1 Introduction aux communications numérique
L’efficacité spectrale d’une modulation QPSK est donc égale le double de celle
d’une modulation BPSK. Ce qui se comprend intuitivement puisqu’on fait passer
N bits par symbole. Plus on augmente le nombre de symbole M, meilleure est
l’efficacité spectrale. Pour un canal à bande passante donnée, le débit binaire
augmentera avec M.
7
Chapitre1 Introduction aux communications numérique
8
Chapitre1 Introduction aux communications numérique
9
Chapitre1 Introduction aux communications numérique
Le bruit est une perturbation aléatoire dont les origines sont le milieu de transmission
(bruit externe), ou les dispositifs électroniques utilisés dans le récepteur (bruit interne).
Parmi les sources de bruit externes, on peut citer les rayonnements divers captés par
l’antenne (cas des transmissions en espace libre), les interférences éventuelles entre les
différents utilisateurs du milieu de transmission ou encore les bruits d’origine
industrielle (moteurs, lignes à haute tension, etc.). Le bruit interne a pour origine le
mouvement brownien des électrons dans les composants passifs (résistances) et les
composants actifs (semi-conducteur) qui constituent les dispositifs du récepteur
(amplificateurs, filtres, mélangeurs, etc…). Le bruit engendré par les composants passifs
est un bruit blanc (densité spectrale de puissance uniforme), au moins dans le domaine
de fréquence utilisé en radiocommunication, qui dépend de la température, d’où son
nom de bruit thermique. Les composants actif (semi-conducteurs) sont aussi générateurs
de bruit divers, dont le bruit dit de grenaille est sans doute le plus important. Le bruit de
grenaille est aussi blanc mais indépendant de la température, c’est donc un bruit non
thermique, fonction du courant qui traverse les composants. Compte tenu du fait qu’il
existe un grand nombre d’électrons dans la matière, évoluant indépendamment les uns
des autres et suivant une même loi, le bruit interne peut être modélisé par un processus
gaussien d’après le théorème de la limite centrale. Par conséquent, le modèle
mathématique résultant pour le canal est généralement appelé canal a bruit gaussien
additif. Parce que ce modèle de canal s’applique à une large classe de canaux de
communication physiques et en raison de sa facilité de traitement mathématique, il
s’agit du modèle de canal prédominant utilisé dans notre analyse et notre conception de
système de communication. L'atténuation du canal est facilement intégrée au modèle.
Lorsque le signal subit une atténuation lors de la transmission par le canal, le signal reçu
est donnée par la formule suivante [24] :
r (t ) = α s (t ) + v(t ) (1.5)
Un bruit gaussien suit une distribution gaussienne, caractérisée par une moyenne μ et
une variance σ². La densité de probabilité est donnée par l’équation (1.6). La figure (1.3)
illustre la représentation temporelle d’un bruit gaussien et la distribution statistique qui
peut en être extrait, dont la densité de probabilité suit une distribution gaussienne. La
représentation temporelle ne permet pas d’extraire d’informations sur le signal en raison
de sa nature aléatoire (pas de période par exemple), mais la distribution permet
d’extraire des éléments statistiques sur la nature du bruit. [22]
10
Chapitre1 Introduction aux communications numérique
1 ( x − µ )2
p ( x) = exp − (1.6)
σ 2π 2σ 2
Amplitude du Amplitude du
bruit (x) bruit (x)
Temps Densité de
probabilité p(x)
Figure 1.3 : Représentation temporelle d’un bruit gaussien et distribution statistique de son amplitude.
P
SNR ( dB ) = 10 × log s (1.7)
Pb
Celui-ci va donc permettre d’apprécier la qualité d’un signal et déterminer la sensibilité
d’un dispositif pour une densité spectrale du bruit donnée. En effet, plus le rapport
signal à bruit est faible, plus le signal est dégradé par le bruit et plus il sera difficile de
supprimer l’influence du bruit sur le signal.
1.3.2 Canal à filtre linéaire (modélisé par un filtre linéaire)
Le bruit n’est pas la seule source de perturbations, la fonction de transfert du canal
introduit une distorsion au signal lors de sa propagation. Les caractéristiques
temporelles du canal tendent à étaler le temps de transmission d’un symbole,
augmentant le risque de chevauchement de plusieurs symboles adjacents et limitant le
débit de transmission admissible sur ce canal.
Dans certains canaux physiques, tels que les canaux téléphoniques filaires, des filtres
sont utilisés pour garantir que les signaux transmis ne dépassent pas les limites de bande
passante spécifiées et n'interfèrent donc pas les uns avec les autres. Ces canaux sont
généralement caractérisés mathématiquement en tant que canaux de filtrage linéaires
avec bruit additif, comme illustré à la figure 1.4. Par conséquent, si l’entrée du canal est
le signal s(t), la sortie du canal est donnée par la formule suivante [24] :
r (t ) = s (t ) * h (t ) + v (t )
+∞
= h (τ )s ( t − τ ) dτ + v ( t )
−∞
(1.8)
11
Chapitre1 Introduction aux communications numérique
Canal
v(t)
+
s(t) Filtre linéaire + r(t)
h(t)
Figure 1.4 : Modèle d’un canal à filtre linéaire avec bruit additif
Le modèle discret utilisé pour décrire les effets de distorsion du canal est représenté par
la fonction de transfert dans le domaine Z [24], définie par l’équation suivante :
N −1
H ( z ) = hi z − i = h0 + h1 z −1 + h2 z −2 + ..... + hN −1 z N −1 (1.9)
i=0
h0 h1 hN-2 hN-1
rk
∑
vk
Un bon modèle pour la propagation de signaux par trajets multiples via des canaux
physiques, tels que les canaux radio mobile cellulaire, est un cas particulier de
l’équation (1.10) dans lequel la réponse impulsionnelle variante dans le temps a la
forme suivante:
L
r ( t ) = ak ( t )s ( t − τ k ) + v ( t ) (1.11)
k =1
12
Chapitre1 Introduction aux communications numérique
Par conséquent, le signal reçu est constitué de L trajets multiples, chaque trajet est
atténuée par {ak ( t )} et retardée de {τ k } . L’amplitude et la phase du signal reçu
apparaissent comme des variables aléatoires qui suivent une loi de Rayleigh. Un canal
de Rayleigh permet de prendre en compte ces effets : réflexions multiples,
évanouissements, fluctuations à grande et petite échelle et effet Doppler.
Canal
v(t)
+
s(t) Filtre linéaire + r(t)
variant dans le
temps h(τ;t)
Figure 1.6 : Modèle d’un canal de filtrage linéaire variant dans le temps avec bruit additif
+∞ +∞ +∞
z (t ) = h (τ ) x ( t − τ ) dτ + h (τ ,τ ) x ( t − τ ) x ( t − τ ) dτ dτ
−∞
1 1 1 1
−∞ −∞
2 1 2 1 2 1 2 +
−∞ +∞
(1.12)
.... + ... h (τ ,...,τ ) x ( t − τ ) x ( t − τ ) ....x ( t − τ ) dτ ...dτ
−∞ −∞
n 1 n 1 2 n 1 n
∞ ∞ ∞
z ( n ) = h0 + h1 ( m1 ) x ( n − m1 ) + h (m , m ) x (n − m ) x (n − m ) +
2 1 2 1 2
m1 = 0 m2 = 0 m1 = 0
∞ ∞ ∞
(1.13)
.... + ... h ( m ,..., m ) x ( n − m ) x ( n − m ) ....x ( n − m )
p 1 p 1 2 p
m1 = 0 m2 = 0 m p =0
Où x(n) est le signal d’entée, z(n) est le signal de sortie, n la variable indépendante.
hp(m1,….mp) est le noyau de Volterra d’ordre p.
13
Chapitre1 Introduction aux communications numérique
Une autre forme d’exprimer l’expression (1.12) est la suivante [31, 32] :
z ( t ) = H1 x ( t ) + H 2 x ( t ) + ... + H n x ( t ) (1.14)
+∞ +∞
Où H n x ( t ) = ...... hn (τ1 ,....,τ n )x ( t − τ1 ) ....x ( t − τ n ) dτ1....dτ n est appelé opérateur
−∞ −∞
H1 Linéaire
Quadratique
H2
x(t) z(t)
∑
Cubique
H3
Ordre n
Hn
Figure 1.7 : Représentation d’un système non linéaire par la série de Volterra
L’intérêt d’un tel formalisme réside dans la possibilité de l’appliquer à tout système non
linéaire. Cependant pour un système fortement non linéaire, le nombre de termes à
mettre en jeu est important, et la représentation mathématique, trop lourde (intégrales
multiples), font que ce formalisme devient impraticable pour des raisons de coût de
calcul et de complexité d’extraction des noyaux. Ces difficultés ont limité l’application
de la série de Volterra aux systèmes faiblement non linéaires de deux à trois noyaux.
Le développement en série tronqué de Volterra d’ordre trois de l’équation (1.14), pour
h0=0 est donné par :
N N N
z (n) = h (m ) x (n − m ) + h (m , m ) x (n − m ) x (n − m ) +
m1 = 0
1 1 1
m2 = 0 m1 = 0
2 1 2 1 2
N N N
(1.15)
h (m , m , m ) x (n − m ) x (n − m ) x (n − m )
m1 = 0 m2 = 0 m3 = 0
3 1 2 3 1 2 3
Le premier modèle de Voltera simplifié d’ordre trois, pour les systèmes non linéaire
sans mémoire était proposé par Falconer [33] et une version plus simplifiée de ce
modèle est utilisée par Biglieri [34], comme c’est représenté à la figure 1.8. Où une
réduction significative dans le nombre de paramètre du modèle est obtenue. La sortie z
est reliée à l’entrée x à travers la relation suivante :
z ( n ) = D1 x ( n ) + D2 x 2 ( n ) + D3 x 3 ( n ) (1.16)
Les coefficients D1, D2, et D3 sont des scalaires qui contrôlent le degré de non linéarité.
Ce modèle et sa version d’ordre deux sont largement exploités dans la littérature pour
exprimer la distorsion non-linéaire introduite par les canaux de transmission.
14
Chapitre1 Introduction aux communications numérique
Le signal de sortie du canal à filtre non linéaire est donné par la formule suivante :
r ( k ) = zˆ ( k ) + v ( k ) (1.17)
D1
z (k )
Linéaire
v (k )
D2
x (k z 2 (k ) ẑ ( k ) +
) z (k ) r (k )
Canal linéaire Quadratique ∑
+
D3
z 3 (k )
Cubique
P
C = Bs log 2 1 + s (1.18)
Pb
Où Ps : La puissance du signal reçu,
Pb : La puissance du bruit dans la bande,
C : Capacité (en bits par secondes),
Bs : Largeur de bande (en Hertz).
15
Chapitre1 Introduction aux communications numérique
Le rapport signal sur bruit Ps /Pb permet de quantifier le niveau de bruit par rapport au
signal. Ce rapport est mesurable et il permet d’évaluer les performances d’un système
dans un milieu bruité (AWGN). Toutefois, on préfère exprimer les performances d’un
système en termes d’énergie du bit transmis (Eb) par rapport au bruit (No). Ce rapport est
appelé rapport signal à bruit par bit noté Eb/No. Il s’agit du rapport entre l’énergie
véhiculée par un bit Eb et la densité spectrale en puissance du bruit No. Cette grandeur
est directement reliée au taux d’erreur binaire, et fixer une contrainte en termes de taux
d’erreur binaire revient à fixer une contrainte sur le rapport Eb/No.
Décortiquons maintenant les deux termes de ce rapport. Eb représente l’énergie
transportée par un bit. L’énergie par unité de temps s’appelle la puissance. Dans le cas
d’un signal binaire, l’énergie par bit (en J/bit) est donc reliée à la puissance moyenne du
signal Ps (en W) par le débit binaire Db (en bit/s) comme le montre l’équation (1.19). On
remarque que l’énergie par bit est inversement proportionnelle du débit binaire.
Ps
Eb (1.19)
Db
N0 représente la densité spectrale de bruit, c'est-à-dire la puissance Pb transportée par le
bruit sur une bande de fréquence de largeur Bs. Son unité est W/Hz, ce qui est
équivalent à une énergie.
Pb
N0 (1.20)
Bs
16
Chapitre1 Introduction aux communications numérique
En combinant les 2 équations précédentes, on peut relier le rapport signal à bruit Ps /Pb
et le rapport Eb/No par l’équation suivante :
Ps Eb Db E P B
= . ⇔ b = s. s (1.21)
Pb N 0 Bs N 0 Pb Db
Le rapport Eb/No dépend non seulement des puissances du signal et du bruit, mais aussi
des propriétés du signal telles que le débit binaire, la modulation (la bande passante
nécessaire pour transporter un signal dépend du type de modulation employée). Le
rapport Eb/No prend donc en compte l’effet des autres paramètres influents sur la
robustesse d’une communication numérique. Ce rapport est donc un paramètre plus
intéressant pour comparer des systèmes de communication différents.
Afin de quantifier la dégradation subie par un signal numérique ou de spécifier la
qualité que doit atteindre une transmission numérique, on utilise la notion de taux
d’erreur binaire (TEB ou BER : Bit Error Rate). Il s’agit du taux d’erreur mesuré à la
réception d’une transmission numérique, et se calcule à l’aide de cette équation [22] :
nombre de bits erronés
TEB = (1.22)
nombre total de bits recus
Le taux d’erreur binaire (TEB) est similaire à la probabilité d’apparition d’erreur
binaire, donc le TEB est relié au rapport signal à bruit par bit par l’équation (1.23) pour
une modulation BPSK (Binary Phase Shift Key). Cette relation est particulièrement
importante pour le dimensionnement d’un canal de transmission car il permet de définir
une limite en termes de rapport signal à bruit à partir d’une contrainte donnée sur le taux
d’erreur binaire maximale. Cette formule reste cependant théorique mais donne une
bonne estimation du taux d’erreur binaire pour un rapport signal à bruit donné.
1 Eb
TEB = erfc (1.23)
2 N0
17
Chapitre1 Introduction aux communications numérique
100
Liaison radio
Atténuation (dB)
Câble coaxial
10
Fibre optique
1
20 40 60 80 100
Distance (km)
18
Chapitre1 Introduction aux communications numérique
Les liaisons filaires, optiques et radio subissent des atténuations très différentes. La
figure 1.10 présente une comparaison des atténuations en fonction de la distance
séparant l’émetteur du récepteur pour ces 3 types de canaux de transmission. Le canal
radio est celui qui présente l’atténuation la plus importante (Atténuation pour une
fréquence égale à 900 MHz), alors que les fibres optiques constituent le support qui
introduit le moins d’atténuation (0.2 dB/km à 1550 nm) [22]. Le câble coaxial introduit
une atténuation égale à 1 dB/km à 900 MHz).
Considérons une propagation en espace libre. Lorsqu’une onde électromagnétique se
propage et s’éloigne de la source, la puissance qu’elle transporte par unité de surface
décroît avec la distance [22].
L’atténuation en fonction de la distance d et de la fréquence f est donnée par :
2 2
d f ×d
Atténuation = 4π = 4π (1.26)
λ c
Supposons qu’on est une liaison radiofréquence entre un émetteur E et un récepteur R.
La puissance rayonnée par l’antenne de l’émetteur dépend de la puissance électrique Pe
et du gain de l’antenne Ge. La puissance électrique reçue Pr dépend de la puissance
transportée par l’onde électromagnétique et le gain de l’antenne réceptrice Gr. Le
rapport entre la puissance électrique reçue et la puissance électrique émise est donnée
par la formule de Friis [22] :
Pr GeGr GeGr
= 2
= 2
(1.27)
Pe d f ×d
4π 4π
λ λ
1.5.2 Trajets multiples et interférences entre symboles (IES)
[Link] Trajets multiples
Le canal de propagation radioélectrique est un des moyens de communication les plus
variables et les plus incontrôlables. Il est caractérisé par l’existence de trajets multiples.
Les trajets multiples sont également à l’origine de plusieurs problèmes dont les
principaux sont :
L’obstruction : apparaît quand un trajet radio est obstrué par un ou plusieurs
objets (obstacles naturels ou construits par l’homme). L’onde résultante subit
une perte de puissance correspondante au mécanisme de propagation impliqué
(qui peut être la réflexion, la diffraction ou la diffusion). La réflexion, elle se
produit lorsqu’une onde électromagnétique rencontre des surfaces lisses de très
grandes dimensions par rapport à sa longueur d’onde, comme par exemple la
surface de la terre, les bâtiments et les murs. La diffraction, elle se produit
lorsqu’un obstacle épais et de grande dimension par rapport à sa longueur
d’onde obstrue l’onde électromagnétique entre l’émetteur et le récepteur. Dans
ce cas, des ondes secondaires sont générées et se propagent derrière l’obstacle.
La diffusion, elle se produit lorsque l’onde rencontre un obstacle dont
l’épaisseur est de l’ordre de sa longueur d’onde, comme par exemple les
lampadaires et les feux de circulation. Dans ce cas, l’énergie est dispersée dans
toutes les directions.
19
Chapitre1 Introduction aux communications numérique
f d = f m cos θ (1.28)
v
Avec : f m = (1.29)
λ
20
Chapitre1 Introduction aux communications numérique
− j 2π f 0τ l ( t )
Avec: α l ( t ) = ρl e , f 0 : la fréquence porteuse, ρl : amplitude associée au trajet l.
vm vm
τ l (t ) = t , avec f 0 . = f d : la fréquence Doppler.
c c
Retard, t
ou
Espace, x
Retard, τ
p (α l ) = 2l exp α , α ≥ 0 l
(1.33)
σα l
21
Chapitre1 Introduction aux communications numérique
1
( )
p θαl =
2π
, −π ≤ θ ≤ π (1.34)
Avec A: est la puissance du signal reçu ou du trajet direct, J 0 (.) est la fonction
de Bessel modifiée d’ordre 0. Nous constatons que si A=0 nous aurons un canal
de Rayleigh.
[Link] Interférences entre symboles (IES)
Dans un système numérique, particulièrement s’il fonctionne à un débit binaire élevé, la
dispersion des retards (delay spread) fait que chaque symbole (ou unité d’information)
chevauche le précédent et les subséquents, d’où le phénomène d’interférence entre
symboles (IES ou ISI : Inter-Symbol Interference). Contrairement au bruit,
l'’interférence entre symboles possède une structure particulière qui permet de la
combattre, c'est le rôle de l'égalisation. Comme le montre la figure (1.12). Lorsque le
temps symbole est inférieur à l'étalement temporel du canal, la valeur du symbole reçu à
l’instant t est perturbée par les symboles reçus précédemment. Ce phénomène se produit
si l'amplitude de l'impulsion soumise à échantillonnage en réception dépend, a l'instant
de décision, de symboles voisins. Le symbole reçu peut alors être confondu avec un
autre et introduire des erreurs d’interprétation par le récepteur. L’interférence entre
symbole est la principale source d’erreur binaire dans les communications numériques.
TS
1 symbole
t t
Réponse impulsionnelle
du canal
22
Chapitre1 Introduction aux communications numérique
BCOH
Canal de communication Canal de communication
lent, sélectif en fréquence rapide, sélectif en fréquence
Bande du signal B
Le contrôle au niveau temporel du degré d’IES s’effectue de façon très simple sur un
oscilloscope par le diagramme de l’œil (figure 1.14). Le diagramme de l’œil est un outil
graphique permettant de visualiser la présence d’IES affectant une communication et de
qualifier la qualité du signal numérique reçu. En l’absence d’IES, l’œil est
complètement ouvert à l’ instant de décision : tous les trajets passent par deux points
seulement en binaire (par M points en M-air).
23
Chapitre1 Introduction aux communications numérique
(a) (b)
Figure 1.15: Diagramme de l’œil pour une transmission binaire
(a) sans IES, (b) avec IES
24
Chapitre1 Introduction aux communications numérique
Echantillonnage à y (t ) Filtre de
t = iTs réception r(t)
25
Chapitre1 Introduction aux communications numérique
Le signal est ensuite transmis à travers le canal de transmission, caractérisé par une
réponse impulsionnelle c(t). De plus, le canal introduit un bruit additif au signal à
l’entrée du récepteur. Le signal en entrée du récepteur z ( t ) peut s’écrire sous la forme :
z (t ) = x (t ) * c (t ) + v (t ) (1.39)
Finalement, la sortie y(t) est échantillonnée de façon synchrone avec l’émetteur tous les
ti=[Link], ce qui donne [23]:
∞
y ( ti ) = p ( 0 ) di + d k p ( ( i − k ) Ts ) + w ( ti ) (1.41)
k ≠i
Où w(t) représente le bruit produit à la sortie du filtre de réception par le bruit additif
d’entrée du récepteur v(t), et p(t) la réponse impulsionnelle du système composé du
canal et des filtres d’émission et de réception.
Finalement, un dispositif de décision reconstruit les données symboles de l’entrée à
partir de cette sortie échantillonnée. En particulier il doit décider du symbole émis à
l’instant ti, c’est-à-dire fournir dˆi .
Dans l’expression (1.41) :
• Le premier terme p(0)di représente la contribution du ième symbole transmis,
c'est-à-dire celui qu’on cherche à recevoir sans erreurs.
• Le second terme représente l’effet résiduel de tous les autres symboles
transmis sur le décodage du ième symbole. Cet effet résiduel dû aux
impulsions arrivant avant et après l’instant ti est appelé interférence entre
symboles.
• Le dernier terme w(ti) représente le bruit à l’instant ti.
En l’absence de bruit et d’interférence entre symboles, on ne récupèrerait que le premier
terme et aucune erreur d’interprétation ne serait possible.
A partir de l’équation (1.41), l’interférence entre symboles est nulle si l’on vérifie :
∞
d p ( ( i − k ) T ) = 0,
k ≠i
k s ∀d k (1.42)
L’équation (1.42) indique que tous les symboles doivent s’annuler aux instants
d’échantillonnage des autres symboles. Une condition nécessaire pour ne pas avoir
d’IES est que l’impulsion de base p ( t ) = e ( t ) * c ( t ) * r ( t ) possède la propriété :
p ( iTs ) = p ( 0 ) δ [i ] (1.43)
Le filtre p(t), qui représente le canal en entier (filtre d’émission, de canal, de réception)
est dit canal de Nyquist s’il vérifie cette condition.
26
Chapitre1 Introduction aux communications numérique
p ( t ) δ ( t − iT ) = p ( 0 ) δ ( t )
i
s (1.44)
i
P f − T = Ts p ( 0 ) (1.45)
i s
Compte-tenu des propriétés de la TF, il est impossible d’avoir un support borné à la fois
dans les domaines temporel et fréquentiel. En pratique, le choix est imposé : la
transmission doit s’effectuer dans un canal à bande passante limitée [-B, B]. On suppose
la TF de l’impulsion de base a un support fréquentiel borné, avec :
1
P ( f ) = 0 pour f ≥ (1.46)
Ts
On vérifie alors facilement que la condition dans le domaine spectral conduit à la
condition ci- dessous, de laquelle découle le critère spectral de Nyquist :
1 1
P + ∆f + P − ∆f = P ( 0) (1.47)
2
sT 2
sT
1 P ( 0)
L’IES est nulle si le point , de la réponse en fréquence globale P ( f ) est un
2
sT 2
centre de symétrie (voir figure 1.18)
1 D
B< = s (1.48)
2Ts 2
27
Chapitre1 Introduction aux communications numérique
28
Chapitre1 Introduction aux communications numérique
x(k) x(k-1)
Z-1 Z-1 Z-1
h0 h1 hN-2 hN-1
y(k)
∑
a ( n) z
n =0
−n
H ( z) = M
(1.52)
1 + b( m ) z −m
m =1
29
Chapitre1 Introduction aux communications numérique
a(0)
x(k) y(k)
∑
Z-1 Z-1
a(1) b(1)
x(k-1) y(k-1)
Z-1 Z-1
a(N-1) b(M-1)
x(k-N+1) y(k-M+1)
Un filtre RIF peut atteindre une phase linéaire exacte, il n’introduit pas des
distorsions sur la phase du signal. La réponse à phase linéaire est importante
dans les applications telles que la transmission des données, et le traitement
d’image. Par contre un filtre RII possède généralement une réponse à phase non
linéaire en particulier sur les limites de bande.
La stabilité des filtres RIF est garantie alors qu’un tel garant n’est pas disponible
pour les filtres RII.
Les filtres RII sont plus souhaités lorsqu’un seuil de coupure est exigé. Un tel
cas nécessite un filtre RIF d’ordre très élevé, se qui implique un grand retard.
Or, un filtre d’ordre supérieur possède plus de coefficients et par conséquent
plus de mémoire et plus de coût en termes de calcul.
Les filtres RII sont plus sensibles aux erreurs d'arrondi et des erreurs de
quantification que les filtres RIF.
En conclusion, si un seuil de coupure avec un haut débit (retard faible) sont demandés,
les filtres RII sont les plus souhaitables. D’autre part, si la phase linéaire exacte est
importante, les filtres RIF sont les plus conseillés. Par conséquent les filtres RIF sont le
choix le plus couramment utilisé si le nombre de coefficients n'est pas trop grand en
raison de leurs propriétés de calcul supérieures.
30
Chapitre1 Introduction aux communications numérique
x ( k ) Séquence
d’information
Signal Signal
observé Filtre estimé
∑
r (k ) FIR/IIR y (k )
e ( k ) Signal
Réponse d’erreur
impulsionnelle
Algorithme
adaptatif
Les filtres adaptatifs, par leur nature même, sont des systèmes auto-concepteurs qui
peuvent s'adapter à différents environnements. Par conséquent, ils trouvent des
applications dans des domaines aussi divers que le contrôle, les communications, le
traitement du signal radar et sonar, l'annulation des interférences, le contrôle actif du
bruit, le génie biomédical, etc. La caractéristique commune de ces applications qui les
regroupent sous la même formule de base de filtrage adaptatif est qu'elles impliquent
toutes un processus de filtrage d’un signal d'entrée pour atteindre une réponse souhaitée.
les paramètres du filtre sont mis à jour en faisant un ensemble de mesures des signaux
sous-jacents et l'application de cet ensemble à l'algorithme de filtrage adaptatif de telle
sorte que l’écart entre la sortie du filtre et la réponse désirée est réduit au minimum soit
dans les algorithmes statistiques ou déterministes.
31
Chapitre1 Introduction aux communications numérique
1.7 CONCLUSION
Dans ce chapitre, nous avons présenté les principales notions relatives aux systèmes de
communication numérique. Nous avons présenté quelques généralités sur la chaîne de
communication numérique. Les différents modèles mathématiques des canaux de
transmission les plus rencontrés en pratique, sont également évoqués, avec les
distorsions introduites par ces canaux, notamment l’interférence entre symboles qui a
été bien détaillé en considérant qu’il constitue un problème dont son élimination fait
l’objectif principal de l’égalisation. On a présenté aussi un aperçu sur les filtres
numériques, leur structures et leur équation, le filtrage adaptatif est une notion très
importante qu’on a évoqué aussi, tous les éléments cités précédemment, constitue les
éléments de base qui vont nous aider à avoir une idée précise des égaliseurs adaptatifs,
l’objet des chapitres suivants.
32
CHAPITRE 2
ALGORITHMES D’OPTIMISATION : ETAT DE L’ART
2.1 INTRODUCTION
2.2 CARACTÉRISTIQUES
fl
fg
xl xg
34
Chapitre 2 Algorithmes d’optimisation : État de l’art
Les méthodes de résolution peuvent être classées à partir de leur ordre selon qu’elles
nécessitent ou non le calcul des dérivées de la fonction objectif et des fonctions
contraintes par rapport aux paramètres. Une méthode est dite d’ordre zéro si elle utilise
uniquement la connaissance de la fonction elle-même. Elle est d’ordre un si elle requiert
le calcul des dérivées première et d’ordre deux s’il lui faut aussi accéder aux dérivées
secondes.
Les méthodes d’ordre zéro sont en général peu précises et convergent plus lentement
vers l’optimum. En revanche, elles offrent l’avantage d’éviter le calcul du gradient, ce
qui est intéressant lorsque la fonction n’est pas différentiable ou que le calcul de son
gradient représente un cout important.
Les méthodes d’ordre un permettent d’accélérer la localisation de l’optimum, puisque le
gradient donne l’information sur la direction de l’amélioration. Par contre elles sont
applicables seulement aux problèmes où les fonctions objectif sont continument
différentiables.
35
Chapitre 2 Algorithmes d’optimisation : État de l’art
Trouver ( xl , fl ) ∈ C , ou f l =f ( xl )
telque :
(2.1)
∀x ∈ V , f ( xl ) ≤ f ( x )
ou V est un voisinage de xl
En principe la mise à jour se fait selon une direction de recherche dk par le processus
itératif suivant :
xk +1 = xk + µk d k (2.2)
Les méthodes de types gradient utilisent les gradients et/ou les Hessiens de f (ou leurs
approximation) pour choisir des d k et µk appropriés, de façon que la direction choisie
soit une direction de descente.
Le principe général est le suivant : x1 donné, nous construisons un processus xk
satisfaisant :
Pour calculer d k et µk , l’algorithme peut utiliser des informations sur les valeurs du
gradient de f au point xk courant.
Finalement l’algorithme général qui sert à résoudre le problème peut s’écrire comme
suit :
36
Chapitre 2 Algorithmes d’optimisation : État de l’art
Initialisation
x0 , µ0 , d 0
Itération
Si le test d’arrêt n’est pas vérifié faire
xk +1 = xk + µk d k
Fin Si
37
Chapitre 2 Algorithmes d’optimisation : État de l’art
Le processus de Kiefer-Wolfowitz
Soit {e1 ,...., ed } une base orthonormée de ℝ d , et soit y ( x ) , x ∈ ℝ d une famille de
variables aléatoires. Soit µk et ck deux suites de réels positifs. Le processus
aléatoire multidimensionnel construit X k ( X k est un vecteur aléatoire de ℝ d ). Le
processus de Kiefer-Wolfowitz s’écrit comme suit :
y ( xk + ck e j ) − y ( xk − ck e j )
Wk j = , k ≥ 1, j = 1,...., d (2.8)
2ck
38
Chapitre 2 Algorithmes d’optimisation : État de l’art
Où Wk est un vecteur aléatoire, qui peut être approché par l’estimateur suivant :
y ( xk + ck ∆ k ) − y ( xk − ck ∆ k )
Wk j = , k ≥ 1, j = 1,...., d (2.10)
2ck ∆ kj
39
Chapitre 2 Algorithmes d’optimisation : État de l’art
absolue, en utilisant l’arithmétique d’intervalles arrondie telle qu’elle a été définie par
R. Moore [48]. Aucune erreur numérique insidieuse ne peut écarter de tels algorithmes
de la solution optimale, il sera dans le pire des cas seulement ralenti. Ces algorithmes
sont appelés : algorithmes de Branch-and-Bound par intervalles. Les plus intéressantes
d’entre elles sont :
Méthodes à Recherche par Quadrillage (Grid Search Methods) ;
Méthodes des Trajectoires (Trajectory Methods) ;
Méthodes de séparation-évaluation (Branch-and-Bound).
Cependant, il faut savoir que les méthodes déterministes globales restent utilisables tant
que le nombre de variables ne devient pas trop important. Ces méthodes sont connues
par le fait qu’elles garantissent l’optimalité de la solution mais elles sont très
gourmandes en termes de temps de calcul et de l’espace mémoire nécessaire. C’est la
raison pour laquelle, elles sont beaucoup plus utilisées pour la résolution de problèmes
faciles. La nécessité de disposer d’une solution de bonne qualité (semi optimale) avec
un coût de recherche (temps de calcul et espace mémoire) raisonnable a conduit les
chercheurs à proposer un autre type de méthodes de résolution de problèmes,
communément connues par les méthodes approchées. Ces dernières constituent une
alternative aux méthodes exactes.
2.4.2 Méthodes non-déterministes
Ces méthodes non-déterministes font appel à des tirages de nombres aléatoires. Elles
permettent d’explorer l’espace de recherche plus efficacement. Dans la suite on
s’intéressera plus particulièrement aux méta-heuristiques.
Le mot méta-heuristique est dérivé de la composition de deux mots grecs : heuristique
qui vient du verbe heuriskein (euriskein) et qui signifie trouver et méta qui est un
suffixe signifiant au-delà, dans un niveau supérieur. La particularité qui différencie les
méthodes méta-heuristiques des méthodes heuristiques c’est que les méta-heuristiques
sont des méthodes générales de recherche applicables sur de nombreux problèmes.
Tandis que, les heuristiques sont spécifiques à un problème donné. Elles nécessitent des
connaissances du domaine du problème traité [49].
Dans la vie pratique, on se retrouve souvent confronté à des problèmes de différentes
complexités, pour lesquelles on cherche des solutions qui satisfont deux notions
antagonistes: la rapidité et la qualité. Les "méta-heuristiques" d’optimisation sont des
algorithmes généraux d’optimisation applicables à une grande variété de problèmes.
Elles sont apparues à partir des années 80, dans le but de résoudre au mieux des
problèmes d’optimisation [50]. Les méthodes méta-heuristiques, contrairement à la
plupart des méthodes déterministes, ne nécessitent ni point de départ, ni à la
connaissance du gradient de la fonction objectif pour atteindre la solution optimale.
Elles s’appuient sur des mécanismes de transition probabilistes et aléatoire qui explorent
efficacement l’espace de recherche et convergent vers l’optimum global. Leur nature
aléatoire implique que plusieurs exécutions successives de ces méthodes conduisent à
des résultats différents pour une même initialisation du problème d’optimisation.
Cependant elles demandent un nombre important d’évaluations de la fonction objectif
40
Chapitre 2 Algorithmes d’optimisation : État de l’art
Diversification
Apprentissage Intensification
La majorité des algorithmes méta-heuristiques sont inspirées des systèmes naturels, ils
peuvent être regroupés en quatre catégories principales [53] (voir figure 2.3) : les
algorithmes évolutionnaires, les algorithmes basés sur la physique, les algorithmes basés
sur les essaims, les algorithmes basés sur les comportements humains. Les algorithmes
évolutionnaires sont inspirés des lois de l'évolution naturelle. Le processus de recherche
commence par une population générée de manière aléatoire. Le point fort de ces
algorithmes est que les meilleurs individus sont toujours combinés pour former la
prochaine génération d’individus, cela permet d'optimiser la population. Les
algorithmes évolutionnaires les plus populaires sont : les algorithmes génétiques (GA :
Genetic Algorithms) [54], qui simule l'évolution darwinienne. La stratégie d'évolution
(ES, pour Evolution Strategy) [55], l'apprentissage incrémental basé sur les probabilités
(PBIL : Probability-Based Incremental Learning) [56], la programmation génétique
(GP : Genetic Programming) [57] et l'optimiseur basé sur la biogéographie (BBO :
Biogeography-Based Optimizer) [58].
41
Chapitre 2 Algorithmes d’optimisation : État de l’art
Les algorithmes basés sur la physique imitent les règles physiques de l'univers. Les
algorithmes les plus populaires sont le recuit simulé (SA : Simulated Annealing) [59], la
recherche gravitationnelle locale (GLSA : Gravitational Local Search Agorithm) [60],
l'algorithme de recherche gravitationnelle (GSA : Gravitational Search Algorithm) [61],
la recherche de système chargé (CSS : Charged System Search) [62], l'optimisation de
la force centrale (CFO : Central Force Optimization) [63]. Algorithme d’optimisation de
la réaction chimique artificiel (ACROA : Artificial Chemical Reaction Optimization
Algorithm) [64], Algorithme de recherche basé sur la galaxie (GbSA : Galaxy-based
Search Algorithm) [65].
Le troisième groupe comprend les algorithmes basés sur l’intelligence d’essaim qui
imitent le comportement social de groupes d'animaux. L'algorithme le plus populaire est
l’algorithme d’optimisation par essaim de particules (PSO : Particle Swarm
Optimization), développée à l'origine par Kennedy et Eberhart [66]. Autres algorithmes
populaires basés sur les essaims sont : Écholocalisation des dauphins (DE : Dolphin
Echolocation) [67], L'algorithme de colonie d'abeille artificielle (ABC : Artificial bee
colony) [68], Optimisation par colonie de fourmis (ACO : Ant Colony Optimization)
[69], La recherche Coucou (CS : Cuckoo Search) [70].
Méta-heuristiques
ES CSS ABC HS
GP CFO ACO TS
⋮ ⋮ ⋮ ⋮
Figure 2.3 Classification des algorithmes méta-heuristiques.
Le quatrième groupe comprend les algorithmes basés sur les comportements humains.
Les algorithmes les plus populaires sont : l'optimisation basée sur l'enseignement et
l'apprentissage (TLBO : Teaching Learning Based Optimization) [71], recherche
d'harmonie (HS: Harmony Search) [72], Recherche Tabou (TS: Taboo Search) [73, 74],
Optimiseur de recherche de groupe (GSO : Group Search Optimizer) [75, 76].
L’ensemble des méta-heuristiques proposées dans la littérature sont partagées en deux
classes: des méta-heuristiques à base de solution unique et des méta-heuristiques à base
de solution multiple [49].
42
Chapitre 2 Algorithmes d’optimisation : État de l’art
43
Chapitre 2 Algorithmes d’optimisation : État de l’art
coucou…) qui ont connus une investigation remarquable ces deux dernières
décennies.
44
Chapitre 2 Algorithmes d’optimisation : État de l’art
Etape 1 : Initialisation
Taille de la population (P)
Positions, vitesses et paramètres nécessaires
Etape 2 :
Evaluer les positions des particules Pour N itération
Etape 3 : Mise à jour de vid et xid
Enregistrer la meilleure position Appliquer l’équation (2.11) et (2.12)
Etape 4 : Si f ( xid ) < f ( pbestid )
Calculer la nouvelle vitesse de chaque particule pbestid = vid
Calculer la nouvelle position de chaque particule
Si f ( pbestid ) < f ( gbestd )
Etape 5 :
Evaluer les positions des particules gbestd = pbestid
Etape 6 : Fin Si
Trouver la meilleure position de chaque particule Fin Si
Trouver la meilleure position par l’essaim
Fin Pour
Etape 7 :
Aller à l’étape 4 si le critère d’arrêt n’est pas
atteint.
Chaque particule i de l’essaim est définie par sa position xid = ( xi1 , xi 2 ,....., xiD ) , et sa
vitesse de déplacement vid = ( vi1 , vi 2 ,....., viD ) dans un espace de recherche de dimension
D. Cette particule garde en mémoire la meilleure position par laquelle elle est déjà
passée et la meilleure position atteinte par toutes les particules de l'essaim, notées
respectivement: pbestid = ( pbesti1 , pbesti 2 ,....., pbestiD ) et gbestd = ( gbest1 , g best 2 ,....., gbestD ) .
La particule i va se déplacer entre les itérations t et t+1, en fonction de sa vitesse et des
deux meilleures positions qu’elle connaît (la sienne et celle de l’essaim) suivant les
deux équations suivantes :
Avec :
45
Chapitre 2 Algorithmes d’optimisation : État de l’art
46
Chapitre 2 Algorithmes d’optimisation : État de l’art
Où S représente la valeur du saut, Smax est le saut maximal autorisé et rand(.) est un
nombre aléatoire compris entre 0 et 1.
Xw
Xb
O
Xw (nouveau)
47
Chapitre 2 Algorithmes d’optimisation : État de l’art
Si le saut produit une meilleure solution, alors cette solution Xw (nouveau) remplace la
plus mauvaise Xw. Sinon, on applique la même règle en remplaçant cette fois Xb par la
solution globale Xg :
Si la nouvelle solution reste moins bonne que Xw, on génère aléatoirement une autre
solution qui remplace Xw :
X w ( nouveau ) = X min + rand (.) . ( X max − X min ) (2.17)
48
Chapitre 2 Algorithmes d’optimisation : État de l’art
La position est mise à jour comme indiqué sur la figure 2.7. La région avant est
sélectionnée comme principale région de recherche qui est en fait une région proche
j j
du xi g ( k ) . Dans cette région xij ( k ) est située à P, xi g ( k ) est située à Q et xv est située
à V, qui est sur la ligne d'extension avant du segment PQ. La mise à jour de la position
xij ( k ) est déterminée par le paramètre ( pα ) : s’il est satisfait, la région avant sera le
choix approprié, sinon la région arrière est considérée.
Dans la région arrière, xs est située à S, qui est sur la ligne d'extension arrière du
segment PQ. La région arrière est une région supplémentaire, et elle permet de ralentir
la vitesse de convergence de l'algorithme DSO, ce qui est bénéfique pour éviter la
convergence prématurée du DSO. L'étape d'adaptation donnée dans l'équation 2.19
ajusté dynamiquement pour maintenir un équilibre entre la recherche globale et la
recherche locale de l'algorithme DSO.
jg
stepij ( k ) = xi ( k ) − xij ( k ) (2.19)
49
Chapitre 2 Algorithmes d’optimisation : État de l’art
2.5 CONCLUSION
Nous avons présenté dans ce chapitre les définitions générales des méthodes
d’optimisation qui se divisent en deux grandes classes : les méthodes déterministes et
les méthodes non déterministes. Lorsque l’évolution de la méthode de résolution est
prévisible et ne laisse aucune place au hasard, celle-ci est qualifiée de déterministe. Les
méthodes déterministes s’appuient sur une direction de recherche qui peut être fournie
par les dérivées de la fonction objectif. Ces méthodes ont la réputation d’être efficaces
lorsque la solution initiale est proche de l’optimum recherché. Les méthodes non-
déterministes ont comme caractéristiques communes leurs caractères stochastiques,
c.à.d. qu’une partie de la recherche est conduit de façon aléatoire. Une famille de ces
méthodes d’optimisation a été présentée : les méta-heuristiques. Les méta-heuristiques
sont des méthodes stochastiques qui visent à résoudre un large panel de problèmes, sans
pour autant que l’utilisateur ait à modifier leur structure. Ces méthodes sont inspirées
d’analogies avec des domaines aussi variés que la physique, la génétique ou encore
l’éthologie.
50
CHAPITRE 3
TECHNIQUES D’EGALISATION
3.1 INTRODUCTION
L’égalisation est une procédure qui est utilisée par les récepteurs des systèmes de
communications numériques afin de réduire l’effet d’interférence entre symboles (IES)
due à la propagation du signal modulé à travers le canal. Pour empêcher une
dégradation sévère des performances, il est nécessaire de compenser la distorsion du
canal. Cette compensation est effectuée par un filtre adaptatif (figure 3.1).
x (k ) r (k ) y (k )
Canal inconnu Filtre adaptatif
−
e(k )
∑
+
d (k )
Retard
Le canal est perturbé par un bruit blanc additif, dont échantillons v[k] sont centrés,
gaussiens et de variance σ w2 .
{
σ w2 = E v [ k ]
2
} (3.2)
On supposera de plus qu’il est alimenté par des symboles x[k] centrés, mutuellement
indépendants et de variance σ d2 normalisée.
{
σ x2 = E x [ k ]
2
} =1 (3.3)
Ainsi, la sortie bruitée r[k] du canal discret équivalent peut s’écrire sous la forme :
L
r [ k ] = h [i ]x [ k − i ] + v [ k ] (3.4)
i =0
L 2
E h [i ]x [ k − i ]
SNR = i = 0 (3.5)
{
E v [k ]
2
}
52
Chapitre 3 Techniques d’égalisation
53
Chapitre 3 Techniques d’égalisation
Les égaliseurs de type LE, DFE possèdent l'avantage d'être assez simples à mettre en
œuvre car ils sont composés de filtres numériques à coefficients complexes.
Pour l’optimisation des coefficients d’égaliseur, il existe essentiellement deux critères :
Le premier critère consiste à forcer la réponse impulsionnelle du couple canal /
égaliseur à zéro, cette approche d’égalisation est appelée forçage à zéro (ZF : Zero
Forcing). Cette approche tente d’inverser exactement la fonction de transfert du
canal, ce qui est a priori précisément le but recherché. On a ainsi E(z) = 1/H(z),
on peut s’apercevoir que cette approche souffre de deux défauts[23] : d’abord,
H(z) peut posséder des zéros de module supérieur à 1, ce qui induit des pôles
instable pour E(z), si celui-ci doit être causal, d’autre part, si h(n) est une réponse
impulsionnelle finie, alors e(n) est à réponse impulsionnelle infinie.
Considérons un seul bloc équivalent au canal discret et à l’égaliseur. Il est
représenté par sa réponse impulsionnelle q(n) telle que :
q ( n ) = e ( i ) h( n − i ) (3.7)
i
y ( k ) = q0 d k + d n q ( n − k ) + en .wɶ ( k − n ) (3.8)
n≠ k n
54
Chapitre 3 Techniques d’égalisation
L’égaliseur linéaire est le plus simple à mettre en œuvre. Il s’agit de simple filtre
numérique linéaire à réponse impulsionnelle finie (FIR) (figure 3.4). Ce filtre non
récursif présent l’avantage de ne pas présenter de boucles de contre réaction et donc
d’être toujours stable. La figure 3.3, illustre le principe de l’égaliseur linéaire dans un
système de réception en communication numérique.
x(k) r(k) y(k) ŷ ( k )
H(z) ∑ C(z)
Canal Egaliseur
v(k)
55
Chapitre 3 Techniques d’égalisation
r (k ) r ( k − 1)
Z −1 Z −1 Z −1
c0 c1 cN − 2 c N −1
y(k )
∑
L’équation (3.11) peut être représentée sous forme matricielle comme suite :
rk h0 h1 h2 ⋯ hM 0 ⋯ 0 xk vk
r 0 h0 h1 ⋯ hM -1 hM ⋯ 0 xk -1 vk -1
k -1 = . + (3.12)
⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮
rk -N 0 0 0 ⋯ h0 h1 ⋯ hM xk -M -N vk -N
Le rôle de l’égaliseur est d’utiliser le vecteur d’observations bruitées r[k] qui se
présente à son entrée, pour estimer la séquence de symboles émise x[k] .
L’égaliseur est décrit par ses N coefficients représentés par le vecteur:
T
C = [ c0 c1 … cN -1 ]
La sortie de l’égaliseur au temps k peut être exprimée en fonction de ces coefficients et
du signal reçu comme suit :
N −1
y (k ) = ci r ( k − i ) (3.13)
i =0
56
Chapitre 3 Techniques d’égalisation
e( k ) = y ( k ) − x ( k ) (3.14)
J MSE = E e ( k )
2
(3.15)
L’égaliseur transverse reste souvent de qualité médiocre, en particulier en présence
d’évanouissements sélectifs (non stationnarités). Ceci est également lié à la structure
transverse (pas de pôles) qui limite la capacité de représentation d’une réponse
quelconque.
Filtre de retour
Le filtre direct est tout simplement un filtre linéaire tel que mentionné précédemment et
le filtre de retour est utilisé pour éliminer l’interférence entre symboles de l’estimation
courante causée par l’estimation précédente [1]. Le DFE repose sur l’idée que si la
valeur du symbole déjà détecté est considérée comme correcte, alors l’interférence entre
symboles due à la contribution de ce symbole peut être éliminée. La valeur de ce
symbole est soustraite avec une pondération appropriée de la sortie de l’égaliseur.
Lorsqu’une décision est incorrecte, une erreur est produite, celle-ci se propage aux
autres symboles jusqu’à ce que le futur échantillon compense cette erreur. Ce
phénomène de propagation de l’erreur n’est pas catastrophique pour le DFE [2].
A partir de la définition de l’égaliseur DFE, sa sortie est la somme des sorties de la
partie directe et de celle de retour (figure 3.6). La sortie de l’égaliseur DFE est donnée
par :
N −1 M
z ( k ) = ci r ( k − i ) + b j xˆ ( k − j ) (3.16)
i=0 j =1
57
Chapitre 3 Techniques d’égalisation
r (k ) r ( k − 1)
Z −1 Z −1 Z −1
c0 c1 cN − 2 c N −1
y(k ) z (k ) x̂ ( k )
∑
bM bM −1 b2 b1
Z −1 Z −1 Z −1
Les coefficients du filtre direct et ceux du filtre de retour peuvent être ajustés
simultanément pour minimiser le critère de l’erreur quadratique moyenne (EQM).
3.4 ESTIMATION DU CANAL
En pratique, les caractéristiques du canal ne sont jamais parfaitement connues, ce qui
peut limiter l’efficacité de certaines méthodes d’égalisation, qui supposent un canal
stationnaire et requièrent une estimation de la fonction de transfert ou la réponse
impulsionnelle du canal. La fonction de transfert de l’égaliseur est créée à partir d’une
estimation des paramètres du canal. Dans ce cas, il est possible d’avoir des paramètres
d’égalisation variables dans le temps. Il est alors nécessaire de réactualiser
régulièrement l’estimation de la fonction de transfert du canal et remettre à jour les
paramètres de l’égaliseur. Le récepteur est donc doté d’un algorithme qui adapte les
coefficients de l’égaliseur. Ces paramètres peuvent être calculés à partir d’une séquence
de données connues du transmetteur et du récepteur appelée séquence d’apprentissage
(figure 3.7) ou de façon autodidacte par un retour statistique sur la sortie de l’égaliseur.
De ce fait, il est nécessaire de définir des algorithmes adaptatifs qui peuvent suivre
l'évolution du canal et qui convergent vers la solution optimale recherchée, dans notre
cas celle de la minimisation de l'EQM, il existe deux grandes familles d’algorithmes
d’adaptation : l’algorithme des moindres carrés moyens (LMS: Least Mean Square) et
l’algorithme des moindres carrés récursifs (RLS: Recursive Least Square).
58
Chapitre 3 Techniques d’égalisation
Source
2
y (k )
Modulation Canal Démodulation Egaliseur
1
1
Apprentissage
Apprentissage
L’algorithme LMS est largement utilisé pour sa simplicité de mise en œuvre et pour sa
stabilité numérique, et l’algorithme RLS est connu par sa bonne rapidité de convergence
initiale. Ces deux algorithmes d’adaptation sont commandés par une prédiction d’erreur.
Cette erreur est déterminée par la comparaison de la sortie de l’égaliseur avec la valeur
désirée à chaque itération de l’algorithme. Pour la mise en œuvre pratique, il est
nécessaire de connaitre le symbole désiré [23]. Pour cette raison, ces algorithmes
d’adaptation utilisent une séquence d’apprentissage (séquence de données de durée
limitée connue au récepteur) pour favoriser la convergence.
La mise en œuvre de l’algorithme se fait suivant deux modes opératoires (figure 3.8) :
r (k ) y (k ) Circuit de ŷ ( k ) x (k )
Egaliseur Séquence
décision d’apprentissage
+ -
e(k )
59
Chapitre 3 Techniques d’égalisation
J MSE = E e ( k ) = E y ( k ) − x ( k − d )
2 2
(3.18)
N −1
Avec : y (k ) = ci r ( k − i ) = cT r ( k ) (3.19)
i =0
J MSE = E cT r ( k ) − x ( k − d )
2
(3.20)
Le gradient de JMSE par rapport aux coefficients de l’égaliseur est donné par :
∂J MSE
= 2 E r ( k ) ( cT r ( k ) − x ( k − d ) ) = 0 (3.21)
∂c
E r ( k ) r ( k ) c = E r ( k ) x ( k − d )
T
Soit : (3.22)
60
Chapitre 3 Techniques d’égalisation
c ( k ) = c ( k − 1) − µ r ( k ) y ( k ) − x ( k − d ) (3.26)
c ( k ) = c ( k − 1) + µ r ( k ) ε ( k )
T
(3.27)
ε ( k ) = x ( k − d ) − c ( k − 1) r ( k )
T
On notera que c ( k − 1) r ( k ) est simplement la sortie du filtre adaptatif à l’instant k.
Cet algorithme permet donc, à chaque instant, de remettre à jour les coefficients du
filtre, proportionnellement à l’erreur d’estimation ɛ(k). En cas de variations des
caractéristiques du canal, l’égaliseur sera donc capable de s’adapter à celles-ci, et ce
d’autant plus rapidement que µ est grand. En contrepartie, plus µ est grand, plus les
variations liées au bruit d’observation induiront une variabilité sur les estimées c(k)[23].
En contre partie, le choix d’un pas d’adaptation µ petit a pour effet de ralentir la vitesse
de convergence, et de ce fait le choix de la valeur du pas doit être un compromis entre la
vitesse de convergence et la performance de l’égaliseur.
Quand l’égaliseur est en mode opérationnel, le symbole décidé xˆ ( k − 1) = dec y ( k )
est utilisé à la place de x(k-d).
61
Chapitre 3 Techniques d’égalisation
a k = c k c k ....c
T
c ( k )T b ( k )T
T
( ) 0 ( ) 1 ( ) N −1 ( k ) b1 ( k ) b2 ( k ) ....bM ( k ) =
T
(3.28)
s ( k ) = r ( k ) r ( k − 1) ....r ( k − N + 1) xˆ ( k − 1) ....xˆ ( k − M ) = r ( k )T xˆ ( k )T
Où : a(k) est le vecteur de la combinaison des coefficients de la partie directe et celle de retour.
s(k) est le vecteur de la combinaison des échantillons à l’entrée des deux filtres.
A l’aide de ces notations, l’erreur ε ( k ) s’écrit ε ( k ) = x ( k − d ) − z ( k ) , en mode
apprentissage, et ε ( k ) = xˆ ( k ) − z ( k ) , en mode opérationnel (voir figure 3.5).
T T
Avec z ( k ) = c ( k ) r ( k ) + b ( k ) xˆ ( k ) (3.30)
Ou plus explicitement, les coefficients des filtres direct et de retour sont donnés par :
c ( k ) = c ( k − 1) + µ r ( k ) ε ( k )
(3.31)
b ( k ) = b ( k − 1) + µ xˆ ( k ) ε ( k )
T
Où : e ( i, k ) = x ( i ) − r ( i ) c ( k ) (3.33)
e(i,k) est l’erreur a posteriori qui consiste en la différence entre le signal désiré et la
sortie de l’égaliseur, en utilisant les coefficients les plus récents. Le paramètre λ est un
facteur de pondération qui prend toujours une valeur positive (0 < λ <1). Ce facteur est
aussi appelé facteur d’oubli car il sert à oublier les données qui correspondent à un
passé distant. Le paramètre λk-i met en évidence les échantillons d’erreurs les plus
62
Chapitre 3 Techniques d’égalisation
récents (où i ≈ k). Lorsque λ = 1, la fonction de coût donnée par l’équation (3.32) est
simplement la somme des erreurs quadratiques. Si λ < 1, les erreurs passées sont
pondérées avec un poids (facteur d’oubli) qui décroît exponentiellement.
Le gradient de J(k) par rapport aux coefficients de l’égaliseur est donné par :
∂J ( k ) k
= −2 λ k −i r ( i ) x ( i ) − r ( i ) c ( k )
T
(3.34)
∂c ( k ) i =0
L’algorithme RLS changent les coefficients du filtre pour que l’erreur soit minimisée,
par les relations suivantes :
k k −i T
k
i=0
λ r ( i ) r ( i )
c ( k ) =
i =0
λ k −i r ( i ) x ( i ) (3.35)
On tire de cela :
RD ( k ) c ( k ) = PD ( k ) (2.36)
et :
c ( k ) = RD−1 ( k ) PD ( k ) (3.37)
k
k
Où RD ( k ) = λ k −i r ( i ) r ( i ) et PD ( k ) = λ k −i r ( i ) x ( i ) Sont respectivement, la matrice
T
i =0 i =0
k k −i T k −1 k −i −1
λ r ( i ) r ( i ) c ( k ) = λ λ r ( i ) x ( i ) + r ( k ) x ( k ) (3.38)
i=0 i=0
k k −i T
λ r ( i ) r ( i ) c ( k ) = λ PD ( k − 1) + r ( k ) x ( k )
i=0
= λ RD ( k − 1) c ( k − 1) + r ( k ) x ( k )
k T
= λ k −i r ( i ) r ( i ) − r ( i ) r ( i ) c ( k − 1) + r ( k ) x ( k )
T
(3.39)
i=0
Soit : RD ( k ) c ( k ) = RD ( k ) c ( k − 1) + x ( k ) − r ( k ) c ( k − 1) r ( k )
T
(3.40)
e(k ) = x ( k ) − r ( k ) c ( k − 1)
T
(3.41)
63
Chapitre 3 Techniques d’égalisation
En remplaçant l’erreur dans l’équation (3.40), on obtient l’équation de mise à jour des
coefficients de l’égaliseur :
c ( k ) = c ( k − 1) + e ( k ) RD−1 ( k ) r ( k ) (3.42)
Si : A = B −1 + C −1 DC T , (3.43)
−1
(
Alors : A−1 = B − BC D + C T BC ) C T B, (3.44)
A = RD ( k ) ,
B −1 = λ RD ( k − 1) ,
(3.45)
C = r (k ),
D = 1.
1
T
R −1 ( k − 1) r ( k ) r ( k ) RD−1 ( k − 1)
R ( k ) = RD−1 ( k − 1) − D
−1
D T (3.46)
λ λ + r ( k ) RD−1 ( k − 1) r ( k )
1 −1 Φ (k )Φ (k )
T
R ( k ) = RD ( k − 1) −
−1
D T (3.47)
λ λ + Φ ( k ) r ( k )
64
Chapitre 3 Techniques d’égalisation
Les coefficients du canal sont réels au nombre de trois. C’est un canal représentatif de la
majorité des canaux rencontrés en pratique, il est très utilisé pour la simulation des
égaliseurs [9, 21, 88-90, 92-94]. Les caractéristiques de ce canal sont représentées à la
figure 3.9. La partie (a) représente la réponse en amplitude du canal qui comporte des
zones où le signal sera amplifié (amplitude > 0) et des zones où le signal sera affaibli
(amplitude < 0). Cette réponse présente un évanouissement de profondeur moyenne. La
partie (b) représente la réponse en phase qui est quasi-linéaire. La partie (c) donne la
représentation dans le plan Z et montre que le canal possède deux zéros, dont l’un est à
l’intérieur au cercle unité et l’autre est à l’extérieur.
Figure 3.9 : Caractéristiques du canal H(z). (a) Réponse en amplitude, (b) Réponse en phase, (c) Les
zéros de canal.
65
Chapitre 3 Techniques d’égalisation
Canal non-linéaire
Canal linéaire Non-linéarité
D1
Canal z k + ẑ k
(.)1
H(z)
+
D2
Carrée (.)2
D3
Cube (.)3
ẑ k D1 z k D2 z 2 k D3 z 3 k (3.50)
(a) (b)
Figure 3.11 Courbes de convergence de l’EQM des égaliseurs LE-LMS et DFE-LMS
(a) : Canal linéaire, (b) : Canal non-linéaire
66
Chapitre 3 Techniques d’égalisation
(a) (b)
Figure 3.12 Courbes BER des égaliseurs LE-LMS et DFE-LMS
(a) : Canal linéaire, (b) : Canal non-linéaire
La figure 3.11 (a), représente les courbes de convergences des deux égaliseurs pour
un canal linéaire. L’égaliseur LE converge vers un état stable de -10 dB après 500
itérations, alors que l’égaliseur DFE atteint le niveau de -10 dB après environ 100
itérations seulement et passe à son état stable de -14 dB. L’égaliseur DFE apporte un
gain en temps de convergence par rapport à l’égaliseur LE. La figure 3.11(b) montre les
performances des égaliseurs à travers le canal non linéaire avec : D1 = 1, D2=0.1,
D3=0.1 [30]. Les performances des deux égaliseurs se dégradent sous l’effet de la non-
linéarité du canal. La figure 3.12 illustre les courbes du BER (Bit Error Rate) des deux
types d’égaliseurs. Ces courbes sont obtenues en prenant en moyenne 100 simulations
indépendantes de longueur 2000 symboles. Les 1000 premiers symboles sont utilisés
pour l’apprentissage et les autres sont utilisées pour le test. Ces courbes montrent que
l’égaliseur DFE opère encore mieux et présente un BER plus faible que l’égaliseur LE.
(a) (b)
Figure 2.13 Diagramme de l’œil du signal BPSK
(a) : Signal transmis, (b) : Signal reçu (canal linéaire)
67
Chapitre 3 Techniques d’égalisation
(a) (b)
Figure 3.14 Diagramme de l’œil du signal en sortie de l’égaliseur
(a) : avec l’égaliseur LE-LMS, (b) : avec l’égaliseur DFE-LMS
La figure 3.13 représente le diagramme de l’œil du signal BPSK à l’entrée et à la sortie
du canal, la figure 3.13(b) montre que l’œil est fermé et les erreurs de décisions sont
fortement probables.
La figure 3.14 représente le diagramme de l’œil du signal à la sortie des égaliseurs LE et
DFE. Le signal à la sortie de l’égaliseur DFE montre une amélioration du diagramme de
l’œil par rapport à celui de l’égaliseur LE, et l’œil devient plus ouvert.
3.5.4 Comparaisons des égaliseurs LE-LMS et LE-RLS
La figure 3.15 présente une comparaison des courbes de convergence de l’égaliseur
linéaire (LT) pour l’algorithme LMS (Least Mean Square) avec un pas d’adaptation μ =
0.035, et l’algorithme RLS (Recursive Least Square) avec un facteur d’oubli λ = 1.
L’égaliseur linéaire (LE) est de l’ordre de six coefficients. L’EQM atteint sa valeur
optimale après environ 500 itérations pour l’égaliseur LE-LMS, et 100 itérations pour
l’égaliseur LE-RLS. La valeur optimale de l’égaliseur LE pour les deux canaux :
linéaire et non-linéaire est de -10 et -7dB respectivement avec l’algorithme LMS, est de
-11 et -8dB respectivement avec l’algorithme RLS. L’égaliseur LE-RLS converge plus
rapidement que l’égaliseur LE-LMS.
(a) (b)
Figure 3.15 Courbes de convergence de l’EQM des égaliseurs LE-LMS et LE-RLS
(a) : Canal linéaire, (b) : Canal non-linéaire
68
Chapitre 3 Techniques d’égalisation
La figure 3.16 illustre les courbes du BER (Bit Error Rate) des deux types d’égaliseurs,
ces courbes montrent que l’égaliseur LE avec l’algorithme RLS donne un BER plus
faible que l’égaliseur LE avec l’algorithme LMS. Ces courbes montrent aussi que
l’égaliseur LE-RLS donne un BER plus faible que l’égaliseur DFE-LMS (figure 3.12).
(a) (b)
Figure 3.16 Courbes BER des égaliseurs LE-LMS et LE-RLS
(a) : Canal linéaire, (b) : Canal non-linéaire
(a) (b)
Figure 3.17 Diagramme de l’œil du signal en sortie de l’égaliseur
(a) : avec l’égaliseur LE-LMS, (b) : avec l’égaliseur LE-RLS
La figure 3.17 montre le diagramme de l’œil du signal à la sortie des égaliseurs LE-
LMS et LE-RLS, ces diagrammes indique que des erreurs de décision peuvent survenir,
et que ces deux égaliseurs sont sous optimales et donnent des résultats qui ne sont
satisfaisants.
3.6 CONCLUSION
Dans ce chapitre nous avons discuté le contexte d’égalisation des canaux de
communication numériques et nous avons également mis en évidence certaines
structures d’égaliseurs les plus communes : l’égaliseur LE et l’égaliseur DFE adaptés à
l’aide des algorithmes LMS et RLS. Les méthodes classiques ont été présentées dans le
but de mettre en évidence leurs performances médiocres pour un canal à phase non
minimale, les niveaux MSE atteints sont sous optimales. Les égaliseurs conventionnels
présentent une incapacité à égaliser les canaux non linéaires à faible SNR, d’où la
nécessité des architectures présentant un traitement non linéaire pour améliorer les
performances. Ces architectures feront l’objet du chapitre suivant.
69
CHAPITRE 4
EGALISATION A BASE DES RESEAUX DE NEURONES ARTIFICIELS
4.1 INTRODUCTION
L’essor des réseaux de neurones dans divers domaines actuels est certainement dû à
leurs grandes capacités de calcul et à leurs hautes habilités d’apprentissage. De plus,
l’estimation de leurs paramètres est indépendante de la complexité du problème traité ce
qui leur permet d’être bien adaptés aux problèmes actuels qui ne cessent d’être de plus
en plus complexes [95]. L'égalisation non linéaire à base des réseaux de neurones offre
une solution plus avancée au problème d'égalisation avec des améliorations dans les
performances et dans les types des canaux qui peuvent être égalisés par rapport aux
techniques conventionnelles qui aboutissent à des performances sous optimales. Les
architectures des égaliseurs LE et DFE peuvent profiter de la mise en œuvre de ces
structures en montrant une amélioration des performances [30, 39]. Trois types
particuliers des réseaux de neurones sont investis dans l’égalisation des canaux de
communication : le perceptron multicouches (MLP: Multi Layer Perceptron), la
fonction à base radiale (RBF: Radial Basis Fonction) et le réseau récurent (RNN :
Recurrent Neural Network). Nous focaliserons notre étude principalement sur le
perceptron multicouches MLP et la fonction à base radiale. Nous commençons d’abord
par donner un aperçu général sur les réseaux de neurones.
4.1.1 Le neurone biologique
Les neurones biologiques sont des cellules vivantes constituant le système nerveux. Ce
sont des cellules spécialisées dans le traitement des signaux électriques et la
transmission du message nerveux. Les neurones sont reliés entre eux par des liaisons
appelées axones. Un neurone est doté de ramifications que l’on nomme les dendrites par
lesquelles transite l’information (sous la forme de courants électriques) venue de
l’extérieur vers le corps cellulaire. Le neurone traite cette information et renvoie le
résultat au travers de son axone. Ce signal émis par le neurone peut ensuite être
transmis, au travers d’une synapse, à un autre neurone (figure 4.1) [96].
• L’axone est une fibre nerveuse qui transporte les signaux émis par le neurone, il
se ramifie à son extrémité ou il communique avec les autres neurones à travers
des synapses. Sa taille peut varier de quelques millimètres à plusieurs mètres.
• Les synapses, ce sont des jonctions entre deux neurones et qui sont essentielles
dans le fonctionnement du système nerveux.
71
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
problèmes non linéaires. Cette conclusion pessimiste a étendu tous les modèles des
réseaux de neurones et a abaissé leurs intérêts pendant deux décennies. Il a fallu
attendre l’apparition du perceptron multicouche, introduit par Rumelhart et al [101] en
1986, pour donner renaissance aux réseaux de neurones. Cette découverte a été une
vraie révolution qui a permis aux réseaux de neurones de connaitre un essor
considérable [95].
La figure 4.2 montre le modèle du neurone formel.
x1
w1 b
x2
w2 y
s
∑ f
⋮
xN
wN
La valeur de la sortie (y) résulte de la somme pondérée des entrées (xi) pondérées par
des coefficients (wi), plus un biais (b) et du calcul d’une fonction d’activation (f) de
cette somme. La formalisation mathématique de son comportement est donnée par :
N
y = f (s) = f b +
w x
i =1
i i (4.1)
Il est à noter que cette modélisation simplifiée est loin de fournir une explication exacte
concernant la complexité de fonctionnement des neurones biologique. Malgré cela, cette
formalisation permet d'étudier les connexions entre ces neurones dans d’autres
processus plus complexes comportant plusieurs neurones interconnectés [95].
72
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
v(k )
x(k ) z (k ) ẑ ( k )
Canal linéaire Non linéarité z-1 z-1 z-1
r (k )
Délai
Réseaux de neurones
e(k ) -
Algorithme
d’apprentissage y(k )
+
x(k − d ) Décision
x̂ ( k )
L’égaliseur à base des réseaux de neurones est réalisé en reliant les échantillons du
signal reçu à la couche d’entrée du réseau. Le signal d’erreur calculé entre la sortie de
l’égaliseur et la sortie désirée est utilisé pour ajuster les poids du réseau vers leurs
valeurs optimales en utilisant un algorithme d’apprentissage.
73
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
v (k )
x(k ) z (k ) ẑ ( k )
Canal linéaire Non linéarité z-1 z-1 z-1 z-1 z-1 z-1
r (k )
Délai
Réseaux de neurones
e(k ) -
Algorithme
d’apprentissage y(k )
+
x(k − d ) Décision
x̂ ( k )
74
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
L’apprentissage est une propriété fondamentale pour les réseaux de neurones, c’est le
processus permettant au réseau de se spécialiser sur un problème spécifique à partir de
son expérience. Il consiste généralement à modifier les poids, jusqu'à ce que le réseau
puisse effectuer la tâche désirée. Donc l’apprentissage se traduit par une modification
dans la valeur des poids reliant les neurones du réseau. Chaque poids wi , j reliant un
neurone i au un neurone j à l’itération n est modifié selon l’équation suivante :
wi , j ( n ) = wi , j ( n − 1) + ∆wi , j ( n − 1) (4.2)
• Dans l’apprentissage supervisé, le réseau est forcé à converger vers un état final
précis, ce qui nécessite la connaissance à priori de la réponse désirée. chaque
exemple de la base d’apprentissage est associé à une solution désirée. Cette
dernière permet au réseau de connaître ces erreurs et de s’adapter à la présentation
de chaque exemple d’apprentissage afin de se rapprocher du résultat souhaité. La
rétro-propagation du gradient est l’une des méthodes les plus utilisées pour
l’apprentissage supervisé des réseaux de neurones. Elle consiste à présenter des
exemples au réseau, calculer sa sortie, ajuster les poids de façon à réduire l’écart
entre cette sortie et la réponse désirée pour satisfaire un certain critère de
performance.
• Dans l’apprentissage non supervisé, seules les valeurs d’entrée sont disponibles et
le réseau est laissé libre de converger vers n’importe quel état final. La
connaissance à priori de la sortie désirée n’est pas nécessaire, la procédure
d’apprentissage est basée uniquement sur les valeurs d’entrées. Donc le réseau ne
dispose pas d’une solution désirée sur les exemples d’apprentissage pour l’aider à
ajuster ses paramètres, il doit chercher à représenter au mieux l’espace des
exemples qui lui sont présentés.
x(k )
r (k ) +
y(k ) r (k ) y(k )
Réseau de neurones − Réseau de neurones
e(k )
Algorithme Algorithme
d’apprentissage d’apprentissage
(a) (b)
75
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
x2
f ( x ) = exp − 2 (4.3)
2σ
La sortie de la couche cachée notée x1i est donnée par :
x1i = fi ( x − ci ) (4.4)
Sorties
w1, b1 s
Entrées c 2, σ 2 S1
⋮
c 3, σ 3
wN2, bN2
⋮ SN2
⋮
cN, σN1
76
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
Centre = 0
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Le vecteur prototype c définit un point dans l’espace d’entrée. Un neurone RBF calcule
sa sortie en se basant sur la distance entre chaque entrée et son vecteur prototype. Sa
sortie est d’autant plus grande que cette distance est plus petite, c’est-à-dire d’autant que
le vecteur d’entrée est très semblable à son vecteur prototype. La sortie du neurone est
égale à 1 pour une entrée x égale à c, puis décroît vers 0 lorsque l’entrée s’éloigne de c.
La vitesse de décroissance est réglée par : plus le coefficient est petit et plus la
fonction sera concentrée autour du point c et proche de 0 ailleurs.
Les neurones de la seconde couche calculent la sortie du réseau en effectuant une
combinaison linéaire des sorties de ceux de la première couche, et un biais est ajouté au
total.
Chaque sortie du réseau RBF est donnée par la formule :
N1
y j wi , j fi x ci bi (4.5)
i 1
77
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
Etape 1 : Initialisation
Le nombre k (nombre de fonction RBF, ou neurones cachés)
Les centres des fonctions de base radiale.
Etape 2 :
Calculer la distance euclidienne entre les centre de chaque
fonction RBF et le vecteur d’entée x :
Di ( n ) = x ( n ) − ci ( n )
Etape 3 :
Déterminer le centre I le plus proche du vecteur d’entrée, tel
que :
DI ( n ) = min Di ( n )
i
Etape 4 :
Ajuster le vecteur des centres cI en utilisant la loi d’adaptation
suivante :
cI ( n + 1) = cI ( n ) + µ ( x − cI ( n ) )
Où µ est une petite constante positive.
Une autre étape utilisée pour l’apprentissage des poids de la couche de sortie qui
consiste en une règle d’apprentissage supervisé pour l’adaptation des poids tels que les
algorithmes RLS ou LMS. L’algorithme LMS est utilisé pour ajuster les poids de la
couche de sortie suivant les étapes décrites ci-dessous.
Etape 1 :
Présenter le vecteur de sortie du réseau et le vecteur de sortie
désiré.
Etape 2 :
Calculer l’erreur entre la sortie du réseau et la sortie désirée :
e j ( n) = d j ( n) − y j
Etape 3 :
Ajuster les poids de la couche de sortie en utilisant la loi
d’adaptation suivante :
wkj ( n + 1) = ckj ( n ) + µ e j ( n )φk ( x − ck )
t2
Où : φ ( t ) = exp − 2
2σ
µ est une petite constante positive.
78
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
(k ) N k −1
(k )
yj = fk bj +
i =1
wi(,kj) s (jk )
(4.6)
s1(1) () 1
f1 y1
s1( 2) y1( 2)
Entrées f2
rj0 s1(3) y1(3) Sorties
f1
f3
f2
f1 ⋮
⋮ y N(33)
rjN ⋮ f3
0
(1)
⋮ f2 ( 2)
sN(33)
sN1 yN2 Couche de sortie
Couche d’entrée sN( 22)
f1 (1)
y N1
Couches cachées
L’importance du MLP réside essentiellement dans ces capacités de former des frontières
de décision complexe. Ces dernières sont déterminées par le nombre de couches cachées
et le nombre de neurones de chaque couche. Cependant, trop de couche cachées
compliquera l’apprentissage et augmentera le coût de calcule et peut de couches sera
79
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
inadéquat pour créer la non linéarité suffisante. Comme pour le RBF, il a été montré
qu’un perceptron à deux couches avec des fonctions d’activation non-linéaire sur la
première couche et une fonction d’activation linéaire sur la seconde est capable
d’approximer n’importe quelle fonction douce avec une précision donnée [107, 108],
pourvu que l’on fournisse un nombre suffisant de neurones dans la couche cachée.
La fonction d’activation utilisée dans le modèle de W. McCulloch et W. Pitts [8] est la
fonction échelon. Elle fait passer l’activation du neurone d’une valeur à une autre dès
que l’entrée résultante dépasse un certain seuil. L’inconvénient de cette fonction est
qu’elle n’est pas différentiable, ce qui pose un problème pour les algorithmes
d’apprentissage basés sur le gradient. Pour remédier à cet inconvénient, on cherche à
approximer cette fonction d’activation par une fonction non-linéaire différentiable.
Deux fonctions de ce type sont particulièrement intéressantes et sont souvent utilisées :
la tangente hyperbolique (f1) et la fonction sigmoïde (f2). La figure 4.9 montre les
courbes de la tangente hyperbolique et sigmoïde standard. Elles sont définies par :
1 e ax
f1 x tanh x (4.7)
1 e ax
1
f 2 x logsig x (4.8)
1 e ax
Où : a est le paramètre (dit aussi gain), qui contrôle la pente non linéaire de la fonction.
La différence entre ces deux dernières fonctions est le domaine des valeurs prises, qui
est de {-1,1} pour la tangente hyperbolique et de {0,1} pour la fonction sigmoïde
standard.
(a) (b)
80
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
(t ( ) − y( ) )
2
q q
E= j j (4.9)
q =1 j =1
81
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
valeurs de sorte que l’apprentissage soit rapide et uniforme, en d’autre termes les valeurs
finales d'équilibre des poids seront atteintes simultanément [109]. Pour ce faire, les poids
doivent être initialisés aléatoirement selon une distribution uniforme autour d’une
certaine valeur moyenne ( wmin < w < wmax ) [110]. Ces deux paramètres sont choisis avec
des valeurs petites afin que l’activation des neurones cachés soit petite. Le choix du pas
d’apprentissage influe beaucoup sur la rapidité de convergence, un pas trop petit ralenti
l’apprentissage, un pas trop important provoque un risque d’instabilité. Théoriquement, le
pas d’apprentissage optimal est celui qui mène au minimum d’erreur dans une seule
époque d’apprentissage (figure 4.10). La détermination d’un gain optimale est l’un des
problèmes de la RP [95].
E
E
w w w
(a) (b) (c)
Figure 4.10 Descente de gradient dans un problème unidimensionnel avec différents valeur du pas
d’apprentissage : (a) η < η optimal , (b) η = ηoptimal , (c) η > ηoptimal
Du fait que la RP est basée sur une descente de gradient, nous pourrons avoir une idée
sur cet algorithme en étudiant les surfaces d’erreur de la fonction coût employée en
fonction des poids. Le problème le plus important concerne les minima locaux, si la
surface d’erreur admet plusieurs minima locaux, il sera peu probable que le réseau
atteint le minimum global, et par conséquent cela pourra conduire à une mauvaise
performance.
Pour un MLP avec deux couches cachée (Fig. 4.8), la mise à jour des poids des couches
cachées et ceux de la couche de sortie est donnée par :
∂E ( n )
w(jk ) , j ( n ) = w(jk ) , j ( n − 1) − η k = 1, 2,3 (4.11)
∂w(j
k −1 k k −1 k k)
k −1 , jk
N3
( 2)
wj , j (n) = wj , j
1 2
( 2)
1 2
( n − 1) + η2 ( 3 3
) ( )
t j − y (j3) f 3' s (j3) w(j3,) j f 2' s (j2) y (j1)
3 2 3
( )
2 1
(4.13)
j3 =1
N N
(
3 2
w(j1), j ( n ) = w(j1), j ( n − 1) + η1
0 1 0 1
j =1 j =1 3 3
) ( ) 3
2 3
( )
t j − y (j3) f 3' s (j3) w(j3,) j f 2' s (j2 ) w(j2,)j f1' s (j1) rj (3.14)
2 1 2
( ) 1 0
3 2
Où : η1 ,η 2 ,η3 , sont les pas d’apprentissage, et f ' , f ' , f ' , sont respectivement les dérivées
1 2 3
82
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
y 1 y
f k' s j
k
k k
jk
k
jk k 1, 2,3 (4.15)
1 y 1 y
f k' s j
k
k k
jk
k
jk k 1, 2,3 (4.16)
Les fonctions d’activations jouissent d’une place importante dans les réseaux neuronaux
multicouche. Cela a conduit à l’utilisation d’une expansion de fonctions d’activation.
Etant donné qu’elles gouvernent la non-linéarité du réseau et influencent directement la
vitesse de convergence des algorithmes d’adaptation.
Bien que la RP fonctionne pratiquement avec n’importe quelle fonction d’activation,
étant données quelques conditions simples telles que la continuité de cette fonction
ainsi que sa dérivée, il y a un certain nombre de propriétés souhaitables [109]: D’abord,
la fonction d’activation doit être non linéaire. Deuxièmement, la fonction d’activation
doit être saturable, sa sortie doit être limitée par une valeur maximale et une valeur
minimale. Troisièmement, la fonction d’activation doit être continue et lisse, en d’autre
termes la fonction et sa dérivée doivent être définies sur tout l’intervalle d’entrée. La
fonction tangente hyperbolique possède toutes les propriétés précédentes (Fig 4.11), elle
est lisse, différentiable, non-linéaire, et saturable.
Certains travaux ont été effectués pour montrer la relation entre les réseaux RBF et le
réseau MLP. Particulièrement, si l'on considère qu'un MLP est un approximateur
universel, il peut approximer un réseau RBF et vice versa [111].
La différence entre les deux réseaux porte sur l’architecture qui est figée en deux couches
pour les RBF et peut comporter plusieurs couches pour le MLP. En plus le réseau MLP
jouit de la flexibilité de la structure, de bonnes capacités de représentation et une large
utilisation pour les applications industrielles et un grand nombre d'algorithmes
d’apprentissage [21, 112, 113].
83
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
Figure 4.12 Caractéristiques du canal H2(z) : (a) Réponse en amplitude, (b) Réponse en phase, (c) Les
zéros de canal.
L’égaliseur à base des réseaux de neurones étant un égaliseur non linéaire possédant des
capacités attirantes, il sera intéressant de tester ses performances pour des canaux non
linéaires. Nous considérons un modèle de canal non linéaire composé d'un canal linéaire
suivi d'une non-linéarité définie au chapitre précédent. Les paramètres contrôleurs de la
84
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
(a) (b)
Figure 4.13 Courbe de l’EQM (a) et BER (b) de l’égaliseur MLP et DFE-MLP (canal H1(z)).
(a) (b)
Figure 4.14 Courbe de l’EQM (a) et BER (b) de l’égaliseur RBF et DFE-RBF (canal H1(z)).
L'erreur quadratique moyenne est l'une des mesures les plus utiles pour la performance
d'un égaliseur. La performance de l’EQM est obtenue en moyennant 600 simulations
indépendantes, chacune consistant en 3000 itérations et caractérisée par des symboles
aléatoires différents et des paramètres initiaux aléatoires. Les figures 4.13(a) et 4.14(a)
présentent les courbes de convergence de l’erreur quadratique moyenne (MSE) des
85
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
égaliseurs considérés pour le canal H1(z). Ces courbes montrent une amélioration dans
le temps de convergence et aussi dans le niveau MSE lors de l'utilisation de DFE. Il est
également clairement montré que l’égaliseur MLP fonctionne mieux que l’égaliseur
RBF (avec une architecture de neurone différente). Comme le montre les figures 4.15(a)
et 4.16(a), une amélioration similaire est également obtenue par les deux égaliseurs
DFE-MLP et DFE-RBF pour le canal H2(z). L’égaliseur DFE-MLP engendre un niveau
d’EQM supérieur à l’égaliseur DFE-RBF. Cependant, le temps de convergence de
l’égaliseur DFE-MLP montre une dégradation dans la performance par rapport à
l’égaliseur DFE-RBF, en prouvant la supériorité de l’égaliseur DFE-RBF pour les 250
premières itérations. Pour l’égaliseur MLP et RBF (sans retour de décision), les courbes
montres une dégradation dans la performance qui se manifeste par une augmentation de
la valeur de l’état stable de l’EQM à cause de la distorsion apporter par ce canal.
La partie (b) des figures 4.13, 4.14, 4.15, 4.16 montrent les courbes du taux d’erreur
binaire (BER) des égaliseurs considérés. Ces courbes sont obtenues en prenant en
moyenne 100 simulations indépendantes de longueur 10000 symboles. Les 2000
premiers symboles sont utilisés pour l’apprentissage et les autres sont utilisées pour le
test. Les courbes BER montrent avec clarté la même classification des égaliseurs en
termes de performances, en prouvant la supériorité de l’égaliseur DFE. Cependant,
d’après les courbes de la figure 4.14(b), une légère amélioration au niveau des faibles
SNR est observée dans l’égaliseur RBF par rapport à l’égaliseur DFE-RBF.
(a) (b)
Figure 4.15 Courbe de l’EQM (a) et BER (b) de l’égaliseur MLP et DFE-MLP (canal H2(z)).
(a) (b)
Figure 4.16 Courbe de l’EQM (a) et BER (b) de l’égaliseur RBF et DFE-RBF (canal H2(z)).
86
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
T T T T T T T T
- - - -
e1( ) ( n ) eN( 2) ( n )
2 2
e1( 2) ( n ) e2( 2) ( n ) eN( 2)−1 ( n )
2
eN( 2) ( n )
2
N N
e1( ) ( n ) eN( ) ( n ) (N )
e1( ) ( n ) eN ( n )
N
e1( N ) ( n ) e2( N ) ( n ) eN( N )−1 ( n ) eN( N ) ( n ) e1( N ) ( n ) e2( N ) ( n ) eN( N )−1 ( n ) eN( N ) ( n )
N
N
(a) (b)
Figure 4.17 Structure de l’égaliseur MLP avec deux types d’apprentissage, l’apprentissage HBP (a) et
l’apprentissage NHBP (b).
87
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
Couche de sortie
BP v ( 3) ( n ) vɶ (3) ( n ) = xˆ ( n − d )
e ( n) -
+
x(n-d)
Figure 4.18 Apprentissage de trois couches DFE-MLP par la stratégie conventionnelle (BP).
88
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
BP1 -
-
v1(1) ( n ) (1)
vN(1)−1 ( n )
e2 ( n ) 1
+ eN(1) ( n )
+ 1
(1) (1)
e1 ( n ) e N ( n ) x(n-d)
1
(2) x(n-d)
w (n)
w( 3) ( n )
η ( 2) , β ( 2)
Couche de sortie
BP2 v ( 3) ( n ) vɶ (3) ( n ) = xˆ ( n − d )
e ( 3) ( n ) -
+
x(n-d)
Figure 4.19 Apprentissage de trois couches DFE-MLP par la nouvelle stratégie (NHBP).
si( p)
( n ) = wij( p ) ( n )v(j p −1) ( n ) + Ii( p ) ( n ) (4.18)
j =1
vi(
p)
(n) = f si(( p)
( n )) (4.19)
wij(
p)
( n ) = −η ( p ) .∇ ∆w( ) ( n ) (ζ i( p ) ( n ) ) + wij( p ) ( n − 1)
ij
p
= η ( ) .δ i( ) ( n ) .v(j ) ( n ) + wij( ) ( n − 1)
p p p −1 p
(4.20)
I i( ) ( n ) = − β ( ) .∇
p p
∆Ii( ) ( n )
p (ζ ( ) ( n )) = β ( ) .δ ( ) ( n )
i
p p
i
p
(4.21)
Où ζ i(
p)
(n) la fonction de coût à la sortie du ième neurone de la pème couche, cette
fonction est donnée par l’équation (4.22), ∇ x ( ) est le gradient de ζ i( p ) ( n ) .
2
ζ i( ) ( n ) = ei( ) ( n )
p p
(4.22)
ei( ) ( n ) = x ( n − d ) − vi( ) ( n )
p p
(4.23)
( p)
Où vi ( n ) est la sortie du ième neurone de la pème couche, et x ( n − d ) les données
transmises retardées.
89
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
La fonction delta δ i( p ) ( n ) dans l'équation (4.20) et l'équation (4.21) peut être définie
comme :
2
( )(
δ i( p ) ( n ) = −∇ s( p ) n
ζ ( ) ( n ) ) = e( ) ( n ) . 1 − ( v ( ) ( n ) )
i
p
i
p
i
p
(4.24)
i
wij(
p −1)
( n ) = η ( p ) .δ i( p −1) ( n ) .v(j p − 2) ( n ) + wij( p −1) ( n − 1) (4.26)
I i(
p −1)
( n ) = β ( p ) .δ i( p −1) ( n ) (4.27)
Les formules pour la nouvelle stratégie NHBP (voir figure 4.19) s’écrivent comme suit :
Pour le premier algorithme (BP1): les ajustements des poids et les biais peuvent être
écrits comme :
wij( ) ( n ) = −η ( ) .∇
1 1
wij( ) ( n )
1 (ξ ( ) ( n )) + w( ) ( n − 1)
i
1 1
ij
∂si( ) ( n )
1
= −η .∇ (1)
si( ) ( n )
1 (ξ (1)
i ( n )).
∂wij (1)
(n)
+ wij( ) ( n − 1)
1
= η ( ) .δ i( ) ( n ) .v(j ) ( n ) + wij( ) ( n − 1)
1 1 0 1
(4.28)
I i( ) ( n ) = − β ( ) .∇
1 1
I i( ) ( n )
1 (ξ ( ) ( n ) )
i
1
∂si( ) ( n )
1
= − β ( ) .∇
1
si( ) ( n )
1 ( ξ (1) ( n ) . ) ∂I ( ) ( n ) i
1
= β ( ) .δ i( ) ( n )
1 1
(4.29)
( )(
δ i(1) ( n ) = −∇ s(1) n
ξ ( ) ( n ) ) = e( ) ( n ) . 1 − ( v ( ) ( n ) )
i
1
i
1
i
1
(4.30)
i
Pour le deuxième algorithme (BP2): les ajustements des poids w(j3) ( n ) et les biais
I ( ) ( n ) peuvent être écrits comme suit :
3
w(j ) ( n ) = −η ( ) .∇
3 3
w(j ) ( n )
3 (ξ ( ) ( n )) + w( ) ( n − 1)
3
j
3
∂s ( ) ( n )
3
( 3)
= −η .∇ s(3)
(n) (ξ ( 3)
( n )).
∂w j ( 3)
(n)
+ w(j ) ( n − 1)
3
= η ( ) .δ ( ) ( n ) .v(j ) ( n ) + w(j ) ( n − 1)
3 3 2 3
(4.31)
90
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
I n B . I 3
3 3
n n
3
s n
n .
3
3 3
B . s3
n I n
3
B . n
3 3
(4.32)
n e n . 1 v n
2
3 n s3 3 3 3
(4. 33)
n
Les ajustements des poids wij 2 n et les biais I i 2 n peuvent être écrits comme :
Ii B . i n
2 3 2
(4.35)
i n n wi .vi n
2 3 3 '2
(4.36)
(a) (b)
Figure. 4.20 (a) courbes de l’erreur quadratique moyenne, (b) courbes BER du canal H1(z).
91
Chapitre 4 Égalisation à base des réseaux de neurones artificiels
(a) (b)
Figure. 4.21 (a) courbes de l’erreur quadratique moyenne, (b) courbes BER du canal H2(z).
Les figures 4.20(b) et 4.21(b) illustrent les courbes du BER (Bit Error Rate) des trois
algorithmes pour les deux canaux H1(z) et H2(z), respectivement, ces courbes montrent
que la méthode proposée présente de bons résultats dans un environnement fortement
bruité par rapport aux autres méthodes. Ces courbes sont obtenues en prenant en
moyenne 100 simulations indépendantes de longueur 10000 symboles. Les 2000
premiers symboles sont utilisés pour l’apprentissage et les autres sont utilisées pour le
test. Les résultats indiquent que la méthode proposée donne un BER plus faible que les
autres méthodes.
4.6 CONCLUSION
Nous avons utilisé, dans ce chapitre, les réseaux de neurones dans la fonction
d’égalisation. Nous avons examiné la fonctionnalité et les performances de ces
égaliseurs en tenant compte du type du réseau de neurones et l’algorithme
d’apprentissage utilisés.
Les réseaux de neurone constituent un outil puissant dans le domaine du filtrage
adaptatif non linéaire, pour les communications numériques. Beaucoup de recherches se
sont consacrés à développés des techniques permettant d’accélérer le taux
d’apprentissage de ces réseaux. Dans ce contexte, nous avons proposé des améliorations
des capacités d'apprentissage des filtres égaliseurs adaptatifs à base du perceptron
multicouche. Notre contribution est focalisée plus particulièrement au niveau de la
structure du filtre à base du MLP et à l’algorithme de rétro-propagation du gradient. La
performance de la nouvelle méthode est évaluée avec deux couches cachées et il est
démontré qu'une amélioration de la performance est obtenue par rapport à d’autres
méthodes.
92
CHAPITRE 5
ALGORITHMES META-HEURISTIQUE POUR L’EGALISATION :
HYBRIDATION ET METHODE PROPOSEE
5.1 INTRODUCTION
Heuristiques Méta-heuristiques
Les heuristiques ont rencontré des difficultés pour avoir une solution réalisable et de
bonne qualité aux problèmes d’optimisation difficiles, pour cela les méta-heuristiques
ont fait leur apparition. Ces algorithmes sont plus complets et complexes qu’une simple
heuristique, et permettent d’explorer l’espace de recherche efficacement afin de
déterminer des solutions (presque) optimales [50].
Les méta-heuristiques peuvent être classées en deux catégories: les méthodes à base de
solution unique et les méthodes à base de population de solutions (ou à base de solution
multiple). Les méthodes à base de solution unique se basent généralement sur une
recherche par voisinage, malheureusement la plupart de ces méthodes souffrent du
problème de la convergence vers l’optimum local. Cependant, les méthodes à base de
population de solutions se basent sur une recherche globale sur tout l'espace de
recherche. En fait, elles permettent d’échapper au problème de l’optimum local et de
déterminer l’optimum global.
L’idée de combiner des méthodes exactes et/ou des méthodes approchées pour créer de
nouvelles méthodes a donné naissance à un pseudo classe de méthodes. C’est la classe
des méthodes hybrides. Ces dernières ont construit une tendance qui a suscité l’intérêt
de plusieurs communautés de chercheurs. Aucune méthode n’est efficace pour tous les
types de problèmes. En fait, chaque méthode propose des avantages dont on cherche à
maximiser et des lacunes dont on cherche à combler. Partant de ce principe, beaucoup
de chercheurs ont envisagé la combinaison des méthodes de résolution des problèmes
afin de tirer profit des points forts de chacune et de proposer des alternatives plus
efficaces et plus performantes. On distingue trois types d’hybridations: des hybridations
entre des méthodes exactes, des hybridations entre des méthodes approchées, des
hybridations entre des méthodes exactes et des méthodes approchées [49].
Ce chapitre est consacré pour la description de la méthode hybride proposée pour
améliorer les performances de l’égaliseur à base des réseaux de neurones et aussi à
donner la notion de l’hybridation.
5.2 HYBRIDATION
L’hybridation est une tendance observée dans de nombreux travaux réalisés sur les
algorithmes d’optimisation ces dernières années. L’hybridation consiste à combiner les
caractéristiques de deux méthodes différentes pour tirer les avantages des deux
méthodes, elles peuvent être vues comme la solution parfaite vis-à-vis des désavantages
et des méthodes locales et des méthodes globales. Au fait, les méthodes locales mènent
à une solution locale. Tandis que les méthodes globales consomment énormément de
temps, il parait claire qu’un compromis entre exploitation et exploration doit être trouvé
d’où l’utilité des méthodes hybrides. Quand l’hybridation est basée sur une vraie
maîtrise de l’idée derrière chacune des méthodes candidates, l’augmentation de la
précision ainsi que la diminution du temps de calcul est assuré [42].
Actuellement, les méta-heuristiques hybrides sont devenues plus populaires car les
meilleurs résultats trouvés pour plusieurs problèmes d’optimisation ont étés obtenus
avec des algorithmes hybrides.
94
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
Méthode A Méthode A
Méthode B
Méthode B
Figure 5.3 Le niveau d’hybridation. Dans l’hybridation de bas niveau, la méthode est modifiée, ici la
méthode B devient un élément fonctionnel de A. Pour l’hybridation de haut niveau, les méthodes A et B ne
sont pas modifiées.
95
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
96
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
en affinant les solutions performantes qui s’y trouvent, pour cela, on applique
une recherche itérative à solution unique après la recherche itérative à solution
multiple.
L’hybridation Co-évolutionnaire de haut niveau (HCH : High-level Co-
evolutionary Hybrid), la structure interne des méta-heuristique hybridées n’est
pas modifiée. Les méta-heuristiques utilisées travaillent simultanément (en
parallèle) en échangeant des informations entre elles afin de trouver la solution
optimale du problème posé. Un exemple d’hybridation HCH est le modèle des
algorithmes génétiques en îles [132]. Dans ce modèle, la population est partagée
en petites sous-populations géographiquement éloignées. Un GA fait évoluer
chaque sous-population et les individus peuvent migrer d’une sous-population à
l’autre. Plusieurs paramètres configurent cet hybride : la topologie des
connexions entre les sous-populations, le nombre d’individus qui migrent, la
fréquence de la migration et la stratégie du remplacement.
[Link] La classification à plat
La classification à plat des méta-heuristiques est caractérisée par le type des méthodes
hybridées, leur domaine d’application et la nature de leurs fonctions. Selon le type
d’hybridation, on trouve des méthodes hybridées homogènes et des méthodes hybridées
hétérogènes. Un hybride est dit homogène lorsque les méthodes hybridées se basent sur
la même méta-heuristique. Par exemple, le modèle d’algorithme génétique en iles est un
hybride homogène. En général, on utilise des paramétrages différents pour chaque méta-
heuristique hybridée [132]. Un hybride est dit hétérogène lorsque les méta-heuristiques
utilisées sont différentes (voir figure 5.4).
Medium de
communication
Algorithme Recherche
génétique tabou
Figure 5.4 Hybridation HCH hétérogène. Plusieurs algorithmes de recherche différents coopèrent pour
résoudre le problème.
97
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
98
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
99
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
100
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
X wi ( new ) = X min
i
+ rand ( ) . ( X max
i i
− X min ) (5.7)
ẑ ( k ) = D1 z ( k ) + D2 z 2 ( k ) + D3 z 3 ( k ) (5.10)
101
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
Canal non-linéaire
Canal linéaire Non-linéarité
v (k )
D1
x (k ) z (k ) + ẑ ( k ) +
Canal
(.)1 z-1 z-1 z-1
H(z) +
+
D2 r (k ) r ( k − 1) r ( k − N1 )
Carrée (.)2
D3 Couche d’entrée
Cube (.)3 w(1)
Couche cachée
y1(1) ( k ) y 2(1) ( k ) y (N1) ( k )
2
w( 2 )
Couche de sortie
- y( ) (k )
2
Algorithme
+ adaptatif
Retard
x (k − d )
e (k )
Figure 5.6 Système de communication numérique avec un égaliseur à base de réseau de neurones
La sortie du canal non linéaire ẑ ( k ) est corrompue par un bruit additif blanc gaussien
(BABG ou AWGN : Additive White Gaussian Noise). Les données reçues r ( k ) sont
données par :
r(k) = zˆ ( k ) + v ( k ) (5.11)
N 1
y (j1) ( k ) = f w(ji1) ( k ) r ( k − i ) + b(1) ( k ) (5.12)
i =0
j
A partir de l'équation (5.12), la sortie de réseau de neurones représentée sur la figure 5.6
peut être décrite comme suit :
N ( 2) 2
N (1) 1
y ( k ) = h wj ( k ) f wji ( k )r ( k − i ) + b(j1) ( k ) + b( 2) ( k )
( 2)
(5.13)
j =1
i =0
Où w(ji1) est le poids de connexion du i ème nœud de la couche d'entrée au j ème nœud de la
couche cachée, w(j2) est le poids de connexion du j ème nœud de la couche cachée au
nœud de sortie de la couche de sortie et b est le niveau de seuil. Dans les expressions
ci-dessus, h représente la fonction d'activation de sortie (linéaire dans ce cas) et f est
102
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
une fonction d'activation non linéaire de la couche cachée. Pour la fonction d’activation
de la couche caché, notre choix s’est porté sur la fonction non linéaire tangente
hyperbolique, car la plupart du temps, cette fonction converge rapidement par rapport
aux fonctions sigmoïdes et logistiques. La fonction d'activation non linéaire utilisée
(figure 5.7), est donnée par :
2
f ( x) = −1 (5.14)
1 + exp ( −2.x )
L'algorithme d'apprentissage modifie les poids du réseau afin de minimiser une fonction
de coût. La fonction de coût la plus fréquemment utilisée est l'erreur quadratique
moyenne (EQM) donnée par :
1 l
2
MSE = ( ei (k ) ) (5.15)
l i =1
Où l est le nombre d'échantillons transmis. L'erreur peut être écrite comme suite :
e(k ) = x (k − d ) − y (k ) (5.16)
Où y ( k ) est la sortie de l'égaliseur et x ( k − d ) les données transmises retardées.
0.8
0.6
0.4
0.2
f(x)
-0.2
-0.4
-0.6
-0.8
-1
-5 -4 -3 -2 -1 0 1 2 3 4 5
x
103
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
des symboles (-1,1) uniformément distribués. Les performances ont été évaluées avec
trois canaux différents possèdent les fonctions de transfert suivantes [146]:
H1 ( z ) = 0.26 + 0.93 z −1 + 0.26 z −2 (5.17)
H 2 ( z ) = 0.304 + 0.9029 z −1 + 0.304 z −2 (5.18)
−1 −2
H 3 ( z ) = 0.341 + 0.876 z + 0.341z (5.19)
La performance est testée en fixant les coefficients donnés dans l'équation (5.10), à 1,
0,1 et 0,05 respectivement [91, 114]. Les données reçues sont données par :
r ( k ) = z ( k ) + 0.1z 2 ( k ) + 0.05 z 3 ( k ) + v ( k ) (5.20)
104
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
Tableau 5.1: Comparaison des résultats de PSO, DSO, MSFLA et de l'algorithme proposée
avec SNR = 15 dB.
h Stratégie Canal H1(z) Canal H2(z) Canal H3(z)
EQM BER EQM BER EQM BER
3 ANN-PSO 0.0077 0.0015 0.0109 0.0018 0.0188 0.0029
3 ANN-DSO 0.0043 7.5843e-04 0.0060 8.1687e-04 0.0093 0.0018
3 ANN-MSFLA 0.0036 1.5502e-04 0.0051 5.6466e-04 0.0111 0.0020
3 ANN-proposed 7.9909e-04 4.4177e-05 0.0018 1.6988e-04 0.0067 0.0010
4 ANN-PSO 0.0112 0.0019 0.0149 0.0022 0.0263 0.0035
4 ANN-DSO 0.0071 9.1867e-04 0.0093 9.7229e-04 0.0141 0.0026
4 ANN-MSFLA 0.0045 1.6185e-04 0.0072 5.7289e-04 0.0205 0.0022
4 ANN-proposed 9.9477e-04 6.5462e-05 0.0020 1.5161e-04 0.0080 0.0011
5 ANN-PSO 0.0148 0.0024 0.0222 0.0026 0.0327 0.0038
5 ANN-DSO 0.0084 0.0010 0.0095 0.0014 0.0188 0.0026
5 ANN-MSFLA 0.0050 2.8534e-04 0.0077 6.5743e-04 0.0221 0.0021
5 ANN-proposed 0.0017 9.7590e-05 0.0032 2.2490e-04 0.0072 0.0011
6 ANN-PSO 0.0182 0.0025 0.0228 0.0027 0.0348 0.0047
6 ANN-DSO 0.0124 0.0011 0.0160 0.0016 0.0216 0.0031
6 ANN-MSFLA 0.0061 2.3253e-04 0.0149 7.8474e-04 0.0226 0.0026
6 ANN-proposed 0.0019 1.8454e-04 0.0036 3.0803e-04 0.0087 0.0011
Les figures 5.8 (a, c et e) montrent les courbes de convergence de l'égaliseur avec
différents algorithmes. Ces courbes montrent une amélioration des performances en
termes de niveau de l’EQM lors de l'utilisation de l’algorithme proposé.
Les figures 5.8 (b, d, f) et le tableau 5.1 montrent les performances en termes de BER
des égaliseurs considérés. Le BER est défini comme suit [135] :
D'après le tableau 5.1, les résultats montrent que l’algorithme proposé présente de bons
résultats par rapport aux autres algorithmes. Il est également clairement observé à partir
des figures 5.8 (b, d et f) que l’algorithme proposé montre sa supériorité sur les autres
algorithmes lorsque le SNR dépasse 6, 8 et 10 dB respectivement. En plus, d’après les
tableaux 5.3, 5.4 et 5.5, nous remarquons que l’algorithme proposé (ANN-proposé)
présente un BER plus faible par rapport aux autres algorithmes malgré le milieu
fortement bruité (pour la petite valeur de SNR).
105
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
(a) (b)
(c) (d)
(e) (f)
Figure 5.8: Canal H1(z): courbes MSE (a) et courbes BER (b). Canal H2(z): courbes MSE (c) et courbes
BER (d). Canal H3(z): courbes MSE (e) et courbes BER (f)
On note que les courbes MSE et BER représentées sur la figure 5.8 sont réalisés à l'aide
d'une structure de réseau de neurones contenant une seule couche cachée de cinq nœuds.
106
Chapitre 5 Algorithmes méta-heuristique pour l’égalisation
Tableau 5.3: Résultats numériques du BER obtenus sur la figure 5.8(b) pour différentes valeurs
de SNR
algorithmes SNR(dB)
2 4 6 8 10
ANN-PSO 0,07289 0,04008 0,01779 0,00661 0.00322
ANN-DSO 0,07254 0,04039 0,01732 0,00619 0,00232
ANN-MSFLA 0,07110 0,03881 0,01750 0,00556 0,00158
ANN-proposé 0,07064 0,03805 0,01583 0,00472 0,00116
Tableau 5.4: Résultats numériques du BER obtenus sur la figure 5.8(d) pour différentes valeurs
de SNR
algorithmes SNR(dB)
2 4 6 8 10
ANN-PSO 0,09399 0,05757 0,03098 0,01411 0.00643
ANN-DSO 0,09156 0,05615 0,03008 0,01380 0,00575
ANN-MSFLA 0,09040 0,05751 0,02887 0,01331 0,00538
ANN-proposé 0,08953 0,05476 0,02837 0,01200 0,00402
Tableau 5.5: Résultats numériques du BER obtenus sur la figure 5.8(f) pour différentes valeurs
de SNR
algorithmes SNR(dB)
2 4 6 8 10
ANN-PSO 0,11268 0,07689 0,04975 0,02820 0.01473
ANN-DSO 0,11185 0,07773 0,04882 0,02722 0,01465
ANN-MSFLA 0,11002 0,07596 0,04681 0,02583 0,01357
ANN-proposé 0,10785 0,07438 0,04641 0,02520 0,01277
5.5 CONCLUSION
Dans ce chapitre, nous avons présenté une taxinomie des modèles d’hybridation des
algorithmes méta-heuristique. De plus nous avons présenté notre méthode
d’optimisation des poids d’un réseau de neurones appliquée à l’égalisation de canaux
dans les systèmes de communication numériques. Cette méthode est basée sur deux
algorithmes qui sont: Algorithme de saut de grenouille (SFLA) et l’algorithme
d’optimisation de recherche dirigée (DSO). La stratégie de la mise à jour dans la
recherche locale de l’algorithme SFLA est remplacée par la stratégie de la mise à jour
de l'algorithme DSO pour améliorer la convergence. La méthode proposée est comparée
à l'optimisation standard d'essaims de particules (PSO), l’algorithme modifié de saut de
grenouille (MSFLA) et l’algorithme DSO afin d'évaluer leurs performances pour
l'égalisation de canaux non linéaires. Les résultats des simulations révèlent que la
méthode proposée présente les meilleurs résultats et surpasse les autres algorithmes.
107
Conclusion générale
CONCLUSION GÉNÉRALE
Les travaux présentés dans cette thèse concernent l’égalisation adaptative dans les systèmes
de communications numériques. Nous avons focalisé nos recherches sur les algorithmes
d’apprentissage destinés à résoudre des problèmes d’égalisation des canaux.
Dans le premier chapitre, nous avons présenté les principales notions relatives aux systèmes
de communication numérique. Nous avons présenté quelques généralités sur la chaîne de
communication numérique. Les différents modèles mathématiques des canaux de
transmission les plus rencontrés en pratique, sont également évoqués, avec les distorsions
introduites par ces canaux, notamment l’interférence entre symboles qui a été bien détaillé en
considérant qu’il constitue un problème dont son élimination fait l’objectif principal de
l’égalisation. On a présenté aussi un aperçu sur les filtres numériques.
Dans le deuxième chapitre, nous avons présenté les définitions générales des méthodes
d’optimisation qui se divisent en deux grandes classes : les méthodes déterministes et les
méthodes non déterministes. Lorsque l’évolution de la méthode de résolution est prévisible et
ne laisse aucune place au hasard, celle-ci est qualifiée de déterministe. Les méthodes
déterministes s’appuient sur une direction de recherche qui peut être fournie par les dérivées
de la fonction objectif. Ces méthodes ont la réputation d’être efficaces lorsque la solution
initiale est proche de l’optimum recherché. Les méthodes non-déterministes ont comme
caractéristiques communes leurs caractères stochastiques, c.à.d. qu’une partie de la recherche
est conduit de façon aléatoire.
Dans le troisième chapitre, nous avons discuté le contexte d’égalisation des canaux de
communication numériques et nous avons également mis en évidence certaines structures
d’égaliseurs les plus communes, l’égaliseur LE et l’égaliseur DFE adaptés à l’aide des
algorithmes LMS et RLS. Les méthodes classiques ont été présentées dans le but de mettre en
évidence leurs performances médiocres pour un canal à phase non minimale, les niveaux de
l’erreur quadratique moyenne (EQM) atteints sont sous optimales. Les égaliseurs
conventionnels présentent une incapacité à égaliser les canaux non linéaires à faible SNR,
d’où la nécessité des architectures présentant un traitement non linéaire pour améliorer les
performances.
Dans le quatrième chapitre, nous avons utilisé les réseaux de neurones dans la fonction
d’égalisation. Nous avons examiné la fonctionnalité et les performances de ces égaliseurs en
tenant compte du type du réseau de neurones et l’algorithme d’apprentissage utilisé. Les
réseaux de neurone constituent un outil puissant dans le domaine du filtrage adaptatif non
linéaire, pour les communications numériques. Beaucoup de recherches se sont consacrés à
développés des techniques permettant d’accélérer le taux d’apprentissage de ces réseaux.
108
Conclusion générale
Dans ce contexte, nous avons proposé des améliorations des capacités d'apprentissage des
filtres égaliseurs adaptatifs à base du perceptron multicouche. Notre contribution est focalisée
plus particulièrement au niveau de la structure du filtre à base du MLP et à l’algorithme de
rétro-propagation du gradient. La performance de la nouvelle méthode est évaluée avec deux
couches cachées et il est démontré qu'une amélioration de la performance est obtenue par
rapport à d’autres méthodes.
Dans le cinquième chapitre, nous avons utilisés les algorithmes méta-heuristiques à base de
population de solution pour optimisés les poids du réseau MLP. Les méta-heuristiques sont
des méthodes stochastiques qui visent à résoudre un large panel de problèmes, sans pour
autant que l’utilisateur ait à modifier leur structure. Ces méthodes sont inspirées d’analogies
avec des domaines aussi variés que la physique, la génétique ou encore l’éthologie. Les méta-
heuristiques ont vite rencontré un vif succès grâce à leur simplicité d’emploi mais aussi à leur
forte modularité. On a vu dans ce chapitre que les méta-heuristiques sont facilement
adaptables et/ou hybridables en vue d’obtenir les meilleures performances possibles. Nous
avons présenté une nouvelle méthode d’optimisation des poids d’un réseau de neurones
appliquée à l’égalisation de canaux dans les systèmes de communication numériques. Cette
méthode est basée sur deux algorithmes qui sont: l’algorithme des sauts de grenouilles
(SFLA) et l’algorithme d’optimisation de recherche dirigée (DSO). La stratégie de mise à jour
dans la recherche locale de la standard SFLA est remplacée par la stratégie de mise à jour de
l'algorithme DSO pour améliorer la convergence. La méthode proposée est comparée à
l'optimisation standard d'essaims de particules (PSO), l’algorithme modifié de saut de
grenouille (MSFLA) et l’algorithme DSO afin d'évaluer leurs performances pour l'égalisation
de canaux non linéaires. Les résultats des simulations révèlent que la méthode proposée
présente les meilleurs résultats et surpasse les autres algorithmes.
Les travaux effectués dans cette thèse ouvrent plusieurs perspectives pour les futurs travaux.
Tout d’abord il est possible de travailler à développés des structures de réseaux de neurones
permettant d’accélérer le taux d’apprentissage de ces réseaux. Il est aussi envisageable
d’utiliser d’autres techniques d’optimisations intelligentes. Il est toujours possible d’étendre
ce travail en utilisant les modulations à grand nombre d’états et avec d’autres type de canaux.
Nous avons utilisé les méthodes supervisées celle-ci utilisent une partie de la bande passante
ce qui entraine une diminution de l’efficacité spectrale et donc du débit. Ce travail peut être
prolongé également sous un autre volé en considérant des algorithmes autodidactes dit (Non-
data aided) basés sur les statistiques d’ordre supérieur à deux. Ces algorithmes jouissent d’une
complexité remarquable, cependant économisent la bande passante et permettent
d’augmenter l’efficacité des systèmes de communication.
109
Bibliographie
RÉFÉRENCES
[1] A. Berdai, “Egalisation aveugle et turbo égalisation dans les canaux sélectifs en
fréquence invariants et variants dans le temps”, Mémoire Maître ès science,
Université Laval, Québec, 2006.
[2] S. Qureshi, “Adaptive equalization”, Proceeding of IEEE, vol. 73, no. 9, pp.1349-
1387, Sep.1985.
[3] H. Nyquist, “Certain topics in telegraph transmission theory”, Trans. AIEE
(Commun. Electron), vol. 47, pp. 617-644, Apr. 1928.
[4] R. W. Lucky, “Automatic equalization for digital communication”, Bell System
Technical Journal, vol. 44, pp. 547-588, 1965.
[5] J. G. Proakis, J. H. Miller, “An adaptive receiver for digital signaling through
channels with intersymbol interference”, IEEE Trans. Inf. Theory, vol. 15, no. 4,
pp. 484-497, 1969.
[6] C. Macchi, J. P. Jouannaud, O. Macchi, “Récepteur adaptatifs pour transmission
de données à grande vitesse”,Annals of Telecommunications, vol. 30, pp. 311-330,
1975.
[7] M. Austin, “Decision feedback equalization for digital communication over
dispersive channels”, M.I.T. Res. Lab Electron.,Tech. Rep. 461, Aug. 1967.
[8] W. McCulloch, W. Pitts, “A Logical Calculus of Ideas Immanent in Nervous
Activity”, Bulletin of Mathematical Biophysics, vol. 5, pp.115-133, 1943.
[9] S. Chen, G.J. Gibson, C.F.N. Cowan, “Decision feedback equalization using
neural network structures and performance comparison with standard architecture”,
IEE Proceeding, Vol. 137, No. 4, pp. 221-225, August 1990.
[10] S. Chen, B. Mulgrew, P. M. Grant, “A Clustering Technique for Digital
Communications Channel Equalization Using Radial Basis Function Networks”,
IEE Transactions on neural networks, vol. 4, no. 4, pp. 570-579, 1993.
[11] P. Chandra Kumar, P. Saratchandran, N. Sundararajan, “Minimal radial basis
function neural networks for nonlinear channel equalisation”, IEE Proceedings,
Vision, Image and Signal processing, vol. 147, no. 5, pp. 428-435, 2000.
[12] J. C. Patra, P. K. Meher, G. Chakraborty, “Nonlinear channel equalization for
wireless communication systems using Legendre neural networks”, Signal
Processing, vol. 89, pp. 2251-2262, 2009.
[13] K. Burse, R. N. Yadav, S. C. Shrivastava, “Channel Equalization Using Neural
Networks: A Review”, IEEE Transactions On Systems, Man, and Cybernetics-Part
C: Applications and Reviews, vol. 40, no. 3, pp. 352-357, 2010.
110
Bibliographie
111
Bibliographie
[32] M. Schetzen, “The Volterra and Wiener Theories of nonlinear systems”, Krieger
Publishing Co., Inc. Melbourne, FL, USA, 2006.
[33] DD. Falconer, “Adaptive Equalization of Channel nonlinearities in QAM Data
Transmission, Systems”, Bell System Technical Journal, vol.57, no.7, pp.2589-
2611, 1978.
[34] E. Biglieri, A. Gersho, R. Gitlin, T. Lim, “Adaptive Cancellation of nonlinear
Intersymbol Interference for Voiceband Data Transmission”, IEEE Journal on
Selected Areas in Communications, vol. 2, no.5, pp.765-777, 1984.
[35] E. Telatar, “Capacity of Multi-antenna Gaussian Channels”, European
Transactions on Telecommunications, vol. 10, no. 6, pp. 585–595, 1999.
[36] T. M Cover, J. A. Thomas, “Elements of information theory”, Second Edition,
John Wiley & Sons, Inc, 2006.
[37] John G. Proakis, “Digital communications”, McGraw-Hill, Third Edition, 1995.
[38] I. Andriyanova, “Introduction aux communications numériques”, Support de
cours, Université de Cergy-Pontoise, 2012.
[39] M. Ghadjati, “Applications des Réseaux de Neurones aux système de
communication numériques”, Mémoire de Magister, Université 8 Mai 1945
Guelma, 2012.
[40] C. Laot, “Egalisation autodidacte et turbo-égalisation. Application aux canaux
sélectifs en fréquence”, Thèse de doctorat, Université de Rennes 1, 1997.
[41] S. Paulo, R. Diniz, “Adaptive Filtering Algorithms and Practical Implementation,”
4th Edition, Springer Science, 2013.
[42] H. Hachimi, “Hybridations d’algorithmes méta heuristiques en optimisation
globale et leurs applications”, Thèse de Doctorat, Ecole Mohammadia
D’ingénieurs, Université Mohammed-V, Rabat, 2013.
[43] I. Boussaid, “Perfectionnement de méta heuristiques pour l’optimisation continue”,
Thèse de Doctorat, Université Houari Boumediene, 2013.
[44] O. Hajji, “Contribution au développement de méthodes d’optimisation
stochastiques. Application à la conception des dispositifs électrotechniques ”, Thèse
de Doctorat, Université des sciences et technologies de lille, 2003.
[45] J. C. Spall, “Multivariate stochastic approximation using a simultaneous
perturbation gradient approximation”, IEEE transactions on automatic control, vol.
37, pp : 332-341, 1992.
[46] J. C. Spall, “An overview of the simultaneous perturbation method for efficient
optimization”, Johns Hopkins apl technical digest, vol. 19, 1998.
[47] N. Ketfi, “Contribution à la gestion des réseaux de distribution en présence de
génération d’énergie dispersée”, Thèse de Doctorat, Université El Hadj Lakhdar,
Batna, 2014.
112
Bibliographie
113
Bibliographie
114
Bibliographie
115
Bibliographie
116
Bibliographie
117
Bibliographie
[126] P. Chandra, Y. Singh, “An activation function adapting training algorithm for
sigmoidal feedforward networks”, Neurocomputing, vol. 61, 2004, pp. 429– 437.
[127] K. Eom, K. Jung H. Sirisena, “Performance improvement of backpropagation
algorithm by automatic activation function gain tuning using fuzzy logic”,
Neurocomputing, vol. 50, pp. 439 – 460, 2003.
[128] Y. H. Zweiri, J. F. Whidborne L. D. Seneviratne,“Three-term backpropagation
algorithm”, Neurocomputing, Vol. 50, pp. 305-318, 2003.
[129] Y. H. Zweiri, “Optimization of a Three-Term Backpropagation Algorithm Used for
Neural Network Learning”, International Journal of Computational Intelligence.
vol. 3, pp. 322–327, 2006.
[130] X.G. Wang, Z. Tang, H. Tamura M. Ishii, “A modified error function for the
backpropagation algorithm”, Neurocomputing, vol. 57, pp. 477- 484, 2004
[131] S. Saidani, A. Moussaoui, M. Ghadjati, “A New Training Strategy for DFE-MLP
Using Modified BP Algorithm and Application to Channel Equalization”, WSEAS
Transactions on Signal Processing, vol.13, pp. 115-120, 2017.
[132] V. Bachelet, “Métaheuristiques parallèles hybrides : Application au problème
d’affectation quadratique”, Thèse de Doctorat, Université des sciences et
technologies de Lille, 1999.
[133] E. D. Talbi, L. Geneste, B. Grabot, R. Prévitali, P. Hostachy, “Application of
optimization techniques to parameter set-up in scheduling”, Computers in Industry,
vol, 55, no. 2, pp. 105-124, 2004.
[134] C. Blum, J. Puchinger, G. R. Raidl, A. Roli, “Hybrid metaheuristics in
combinatorial optimization : A survey, Applied Soft Computing”, vol. 11, no. 6, pp.
4135-4151, 2011.
[135] S. Panda, A. Sarangi, S. P. Panigrahi, “A new training strategy for neural
network using shuffled frog-leaping algorithm and application to channel
equalization”, International Journal of Electronics and Communications (AEÜ),
vol. 68, no. 11, pp. 1031–1036, 2014.
[136] E. Elbeltagi, T. Hegazy, D. Grierson, “A modified shuffled frog-leaping
optimization algorithm: applications to project management”, Structure and
Infrastructure Engineering, vol. 3, no. 1, pp. 53-60, 2007.
[137] X. Zhang, Y. Zhang, Y, Shi, L. Zhao, C. Zou, “Power control algorithm in
cognitive radio system based on modified Shuffled Frog Leaping Algorithm”,
International Journal of Electronics and Communications (AEÜ), vol. 66, no. 6, pp.
448-454, 2012.
[138] P. Roy, P. Roy, A. Chakrabarti, “Modified shuffled frog leaping algorithm with
genetic algorithm crossover for solving economic load dispatch problem with
valve-point effect”, Applied Soft Computing, vol. 13, no. 11, pp. 4244-4252, 2013.
118
Bibliographie
119