Memoire ATCHI Final
Memoire ATCHI Final
Faculté de Technologie
Présenté par :
ATCHI Anes
Promotion 2024-2025
Remerciements
Avant d’entamer la présentation de ce travail, il nous tient à cœur d’exprimer nos remerciements les plus
sincères à toutes les personnes qui ont contribué, de près ou de loin, à la réalisation de ce mémoire.
Nous remercions tout d’abord Allah, le Tout-Puissant et le Très Miséricordieux, de nous avoir accordé la
santé, la force, la patience et la persévérance nécessaires à l’aboutissement de ce projet. Sans Sa guidance, rien
n’aurait été possible.
Nos remerciements vont également à l’ensemble du corps enseignant et administratif de l’Université Yahia
Farès de Médéa, pour la qualité de leur encadrement tout au long de notre formation. Leur disponibilité, leur
rigueur et leur engagement ont grandement enrichi notre parcours académique.
Nous adressons notre plus profonde gratitude à Mr DALI Mohamed, notre encadrant, pour sa confiance,
sa bienveillance, ses conseils précieux, ainsi que pour son accompagnement tout au long de la réalisation de ce
mémoire. Son expertise et sa rigueur scientifique ont été d’un apport inestimable.
Nous exprimons aussi notre reconnaissance envers nos familles, pour leur amour inconditionnel, leur
soutien moral et leur patience tout au long de notre parcours universitaire. Leur présence et leurs encouragements
ont été essentiels dans chaque étape de notre chemin.
Enfin, nous remercions les membres du jury pour l’intérêt porté à notre travail, ainsi que toutes les
personnes, connues ou anonymes, qui ont contribué d’une manière ou d’une autre à la réussite de ce projet.
II
Dédicace
Ce mémoire représente bien plus qu’un simple travail académique. Il est le reflet d’un parcours fait de
défis, d’efforts constants, de remises en question, de nuits blanches et de moments de doute, mais aussi
d’apprentissage, de satisfaction et de petites victoires. Je le dédie, avec tout mon respect et ma gratitude, à celles
et ceux qui ont contribué, de près ou de loin, à sa réalisation.
À ma chère maman,
Toi qui es la lumière de ma vie, le cœur battant de notre foyer, et la source de tant de bénédictions. Ton amour
inconditionnel, ta patience dans les moments difficiles, ton soutien discret mais toujours présent, et tes prières
silencieuses ont été mon refuge dans les périodes d’incertitude. Tu es mon exemple de force, de courage et de
générosité. Ce mémoire est le fruit de ton éducation et de tes sacrifices, et je te le dédie avec tout l’amour que tu
m’as donné.
À mes frères,
Vous êtes mes complices de toujours. Merci pour votre soutien sans condition, pour vos gestes d’encouragement,
vos paroles simples mais toujours sincères, et pour la force tranquille que vous m’avez transmise. Vos parcours,
vos efforts, vos conseils ont été pour moi une source d’inspiration. Chacun de vous a contribué à sa manière à ce
que ce mémoire voie le jour.
À ma sœur,
Merci pour ton écoute précieuse, ton regard bienveillant et ta capacité à me motiver même dans mes pires
moments de doute. Ta sensibilité, ton attention et ton amour fraternel ont eu un rôle important dans mon
équilibre tout au long de cette aventure.
À mes amis,
Merci pour votre présence, vos encouragements, vos discussions qui m’ont permis de souffler, vos conseils
toujours avisés, et votre humour salvateur. Dans les moments de pression ou de découragement, votre amitié a
été une véritable bouffée d’air. Ce mémoire porte aussi les traces de ces échanges humains sincères et précieux.
Anes ATCHI
III
:ملخص
األول:تم اعتماد نهجين. يتناول هذا البحث مشكلة التصنيف اآللي ألنماط التضمين باالعتماد على تقنيات التعلم العميق
( انطالقًا منTransfer Learning) والثاني من خالل التعلم بالنقل،( مصممة يدويًاCNN) باستخدام شبكات عصبونية التفافية
SqueezeNet. نموذج
، (I/Q)مركبتا الطور والتربيع: باستخدام ثالث تمثيالت مختلفةRML2016a تم إجراء التجارب على قاعدة البيانات
أظهرت النتائج أن البنى المقترحةWigner-Ville (WVD). وصور ناتجة عن تحويل، (Spectrogram)صور الطيف الزمني
.مقارنة بتمثيالت الطيف الزمنيWVD وI/Q كانت فعّالة بشكل خاص عند تطبيقها على بيانات
الطيف، مركبتا الطور والتربيع، شبكات عصبونية التفافية، التعلم العميق،التصنيف اآللي ألنماط التضمين :الكلمات المفتاحية
.الزمني
Résumé :
Abstract :
This thesis addresses the problem of automatic modulation classification (AMC) using Deep
Learning techniques. Two approaches were explored: manually designed Convolutional Neural
Networks (CNNs) and transfer learning based on the SqueezeNet model. Experiments were
conducted using the RML2016a dataset, which was processed in three different representations: in-
phase and quadrature (I/Q) components, spectrogram images, and images derived from the
Wigner-Ville Distribution (WVD). The results show that the proposed architectures are particularly
effective when applied to I/Q and WVD data, compared to spectrogram-based representations.
IV
Sommaire
Remerciements .....................................................................................................................................II
Dédicace ........................................................................................................................................... III
Résumé :......................................................................................................................................... IV
Liste des figures ........................................................................................................................... VIII
Liste des tableaux ........................................................................................................................... XI
Liste des abréviations .................................................................................................................... XII
Liste des symboles ....................................................................................................................... XIII
V
La transformée en ondelettes ...........................................................................................38
Caractéristiques cyclo-stationnaires ................................................................................39
Les statistiques d’ordre supérieur ....................................................................................40
Conclusion .............................................................................................................................41
VI
Modèle de réseaux utilisant la représentation I.Q ................................................................96
Conclusion : ......................................................................................................................102
VII
Liste des figures
Chapitre I
Figure I:1: Chaîne de transmission numérique. Les deux lignes de la chaîne correspondent
respectivement à l’émetteur et au récepteur. .................................................................................. 17
Figure I:7: Représentation temporelle des deux signaux modulants et du signal modulé pour
une modulation 8-QAM. ................................................................................................................ 26
Figure I:10 : Allure temporelle du signal modulant et du signal modulé pour la modulation
8-PSK. ............................................................................................................................................ 29
Figure I:13 : Etapes de classification des méthodes basées sur la vraisemblance (LB). ...... 35
Figure I:14 : Etapes de classification des méthodes basées sur les caractéristiques (FB). ... 37
Chapitre II
Figure II:2 : Schéma bloc de l'apprentissage non supervisé d'un réseau de neurone............ 47
VIII
Figure II:4 : Fonction d’activation ReLU. ............................................................................ 50
Figure II:12 : Principe des deux types de sous échantillonnage (Pooling). .......................... 61
Figure II:15 : Utilité de chacun des trois sous-ensembles d’une base de données : training,
validation et test. ............................................................................................................................ 65
Chapitre III
Figure III:3: Exemples des images de transformée WVD des signaux de la base RML2016a
........................................................................................................................................................ 80
Figure III:4: Evolution de l’entrainement du premier modèle proposé appliqué à des image
WVD de la base RML2016a .......................................................................................................... 83
Figure III:5: Matrices de confusion pour les différentes valeurs du SNR obtenu par le premier
modèle proposé appliqué à des images WVD. ............................................................................... 86
Figure III:6: Evolution de l’entrainement du premier modèle proposé appliqué à des images
de spectrogramme de la base RML2016a. ..................................................................................... 88
IX
Figure III:7: Matrices de confusion pour les différentes valeurs du SNR obtenu par le premier
modèle proposé appliqué à des images de spectrogramme. ........................................................... 91
Figure III:8: Evolution de l’entrainement du réseau SqueezeNet appliqué à des image WVD
de la base RML2016a. .................................................................................................................... 94
Figure III:9 Evolution de l’entrainement du réseau proposé appliqué à des données en format
IQ de la base RML2016a. .............................................................................................................. 98
Figure III:10: Matrices de confusion pour les différentes valeurs du SNR obtenu par le
premier réseau proposé appliqué à des données en format IQ de la base RML2016a ................. 101
X
Liste des tableaux
Chapitre I
Tableau I:2: Cumulants théorique des modulations M-PAM, M-PSK et M-QAM. ............. 41
Chapitre II
Chapitre III
Tableau III:3: Justesse de test du premier modèle proposé appliqué aux images de
spectrogramme pour les valeurs positifs du SNR .......................................................................... 84
Tableau III:4: justesse de test du premier modèle proposé appliqué aux images de
spectrogramme pour les valeurs positifs du SNR .......................................................................... 88
Tableau III:6: Justesse de test du réseau SqueezeNet appliqué aux images WVD pour les
valeurs positives du SNR ............................................................................................................... 94
Tableau III:8: Justesse d’apprentissage des réseaux essayés avec la Base RML2016.10a. .. 96
Tableau III:9: Caractéristiques les différentes couches du réseau proposé pour les données
IQ. ................................................................................................................................................... 97
Tableau III:10: justesses de test du réseau proposé appliqué à des données en format IQ de la
base RML2016a. ............................................................................................................................ 99
XI
Liste des abréviations
AI : Artificial Intelligence
ALRT : Average Likelihood Ratio Test
ANN : Artificial Neural Network
ASK : Amplitude Shift Keying
AMC : Automatic Modulation Classification
BPSK : Binary Phase Shift Keying
CAN : Convertisseur Analogique Numérique
CNN : Convolutional Neural Network
CPFSK : Continuous Phase Frequency Shift Keying
CR : Cognitive Radio
CWT : Continuous Wavelet Transform
DL : Deep Learning
DNN : Deep Neural Network
FB : Feature-Based
FFT : Fast Fourier Transform
FSK : Frequency Shift Keying
GFSK : Gaussian Frequency Shift Keying
GLRT : Generalized Likelihood Ratio Test
GPU : Graphics Processing Unit
HLRT : Hybrid Likelihood Ratio Test
HOS : Higher Order Statistics
IA : Intelligence Artificielle
IQ : In-phase and Quadrature
LB : Likelihood-Based
LMS : Least Mean Square
MAC : Modulation Automatic Classification
ML : Machine Learning
MLE : Maximum Likelihood Estimation
M-PSK : M-ary Phase Shift Keying
M-QAM : M-ary Quadrature Amplitude Modulation
NN : Neural Network
PAM : Pulse Amplitude Modulation
PDF : Probability Density Function
PSK : Phase Shift Keying
QAM : Quadrature Amplitude Modulation
QPSK : Quadrature Phase Shift Keying
ReLU : Rectified Linear Unit
RF : Radio Frequency
RML : RadioML (Radio Machine Learning dataset)
XII
RNN : Recurrent Neural Network
SCF : Spectral Correlation Function
SDR : Software Defined Radio
SNR : Signal-to-Noise Ratio
SVM : Support Vector Machine
TEB : Taux d'Erreur Binaire
TES : Taux d'Erreur Symbole
WBFM : Wide Band Frequency Modulation
WVD : Wigner-Ville Distribution
WT : Wavelet Transform
XIII
INTRODUCTION GENERALE
Dans le contexte actuel des télécommunications modernes, l'évolution rapide des
technologies sans fil et la multiplication des standards de communication ont conduit à une
complexification croissante des systèmes de transmission.
La classification automatique des modulations (AMC) est devenue un élément crucial dans
les systèmes de communication modernes, particulièrement dans le contexte de la radio cognitive
(CR) et de la radio logicielle (SDR), permettant l'identification automatique du type de
modulation d'un signal reçu, une étape essentielle pour l'adaptation dynamique des paramètres de
transmission et la gestion efficace des ressources spectrales.
Traditionnellement, deux approches principales ont été utilisées pour la classification des
modulations : les méthodes basées sur la vraisemblance (LB) et celles basées sur
les caractéristiques (FB), mais ces approches présentent des limitations significatives en présence
de bruit ou d'interférences.
Le troisième chapitre présente les résultats de la classification des onze types de modulation
issus de la base RML2016a, en utilisant à la fois un réseau CNN conçu spécifiquement et la
technique de Transfert Learning basée sur le modèle [Link] d’évaluer l’impact du format
de représentation des données sur les performances de classification, la base RML2016a a été
exploitée sous trois formes distinctes : les composantes en phase et en quadrature (I/Q), les images
de spectrogrammes, et les images issues de la transformée de Wigner-Ville (WVD).
14
I. CHAPITRE I :
MODULATIONS NUMERIQUES ET
LEURS CLASSIFICATIONS
15
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Introduction
La modulation numérique est considérée comme l’un des blocs les plus importants de la
chaine de communication, les modulations numériques se déclinent en plusieurs formes selon les
besoins et les contraintes du système [1][3]. Chaque type présente des compromis entre plusieurs
paramètres et critères d’évaluation.
Ce chapitre se propose d’explorer ces concepts, en commençant par une revue détaillée de la
chaîne de communication numérique, des modulations numériques et de leurs principales
catégories, avant d’aborder l’importance stratégique de la classification automatique des
modulations et un panorama des méthodes classiques utilisées à cet effet.
16
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
(Channel). Le canal est le milieu dans lequel est transmis ou stocké l’information du message
(comme un câble électrique ou une fibre optique) [1][2][7].
Ainsi, comme indiqué dans la fig.1, le message m, qu’il soit analogique (m(t)) ou déjà sous
forme numérique (m[n]), est transformé via les différents blocs de l’émetteur pour finalement
devenir un signal analogique x(t) qui est émis. Le récepteur reçoit quant à lui un signal
analogique y(t) qui diffère de x(t) à cause des perturbations sur le canal de transmission. Les
opérations inverses de l’émetteur permettent d’obtenir un message reçu 𝑚
̂ , qu’on espère être
exactement le message émis [1][2][7].
Figure I:1: Chaîne de transmission numérique. Les deux lignes de la chaîne correspondent respectivement à
l’émetteur et au récepteur.
Au niveau d’émetteur
17
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
• Le chiffrement (cryptage) : consiste à modifier le message selon une certaine règle pour
garantir son authentification ou pour le rendre incompréhensible si on ne possède pas la
règle [2].
• Le codage canal : ajoute de la redondance dans le message, le message est donc rallongé.
L’objectif est de protéger le message des erreurs de transmission. Les codes utilisés
permettent de détecter la présence d’erreurs dans le message reçu, et parfois même de les
corriger [1][2].
• Le multiplexage : regroupe plusieurs messages différents pour qu’ils puissent être transmis
sur le même canal [1][2].
• La modulation : peut être définie comme le processus par lequel le signal est transformé
de sa forme originale en une forme adaptée au canal de transmission, par exemple en faisant
varier les paramètres (Amplitude, fréquence ou la phase) d'une onde sinusoïdale
appelée porteuse [1][3]. Le dispositif qui effectue cette modulation, C’est le modulateur.
L'opération inverse qui permet d'extraire le signal (original) de la porteuse est la
démodulation.
• Le canal : représente le milieu physique ou électromagnétique par lequel le signal transite
de l’émetteur vers le récepteur. Il peut s’agir d’un câble, de l’air (ondes radio), de la fibre
optique …etc. Le canal peut altérer le signal à cause de divers phénomènes comme le bruit,
l’atténuation, la distorsion ou les interférences, ce qui peut entraîner des erreurs de
transmission [1][2].
Au niveau du récepteur
18
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
permettent de repérer les erreurs éventuelles dans le message reçu, et parfois même de les
corriger automatiquement [1][2].
• Le déchiffrement (décryptage) : consiste à transformer le message chiffré en son contenu
lisible. Il utilise une clé de déchiffrement afin de restaurer le message original, garantissant
la confidentialité et l'intégrité des données [2].
• Le décodage source : permet de restituer l’information originale à partir de sa version
compressée ou codée. Il consiste à inverser le codage source effectué à l’émission afin de
retrouver le message dans une forme exploitable (texte, image, son...) [1][2].
• Le convertisseur numérique – analogique (CNA) : transforme le message numérique
obtenu en un signal analogique. Il reconstitue un signal continu à partir d’échantillons
numériques pour une restitution finale exploitable (par exemple : un son audible ou une
image visible) [1][2].
La modulation numérique
Afin de pouvoir transmettre sans fil des informations qui étaient à l'origine analogiques
(comme la voix) mais qui ont été numérisées, il a fallu mettre au point des techniques spécifiques.
Ces techniques reposent sur le principe des modulations numériques. La figure I.2 montre le
principe de la modulation numérique. Tout comme pour les modulations analogiques, le système
d'émission utilise une onde porteuse, de forme sinusoïdale et de fréquence fc, qui sert à transporter
le message binaire à travers l'espace hertzien [1][3].
Les modulations numériques sont largement privilégiées grâce à une meilleure compatibilité
avec les données numériques et une plus grande immunité contre les interférences.
19
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
La forme générale d’un signal modulant (le signal de l’information obtenu après l’étape de
codage) est :
𝑐𝑘 = 𝑎𝑘 + 𝑗𝑏𝑘 I.2
ak et bk prennent leurs valeurs dans l’alphabet (A1, A2, … ,AM) et dans l’alphabet (B1, B2,…,
BM).
Où :
L’équation I.7 montre que a(t) module la porteuse en phase cos(2𝜋𝑓𝑐 𝑡) et b(t) module la
porteuse en quadrature sin(2𝜋𝑓𝑐 𝑡) ce qui signifie que la modulation est bidimensionnelle
20
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Constellation
La constellation est une représentation graphique dans le plan complexe (I/Q) des symboles
possibles pour une modulation donnée [1][3]. C’est la représentation de tous les symboles 𝑐𝑘 =
𝑎𝑘 + 𝑗𝑏𝑘 dans le plans complexe comme le montre la figure I.3. La constellation permet de
visualiser la modulation et d’analyser la distance entre symbole pour avoir son impact sur les
erreurs en fonction du bruit.
Probabilité d’erreur
La probabilité d'erreur par bit Pb est la probabilité de recevoir un bit erroné (transmission
de 0 et réception de 1 ou transmission de 1 et réception de 0) [1][3].
Pb et Ps sont des valeurs théoriques, dans la pratique et dans les simulations on utilise une
estimation de Pb et Ps qui sont: le Taux d'Erreur par Bit TEB (Bit Error Rate : BER) et le taux
d’erreur par symbole TES (Symbol Error rate SER) qui sont calculés par :
𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑏𝑖𝑡𝑠 𝑒𝑟𝑟𝑜𝑛é𝑠
BER= I.8
𝑛𝑜𝑚𝑏𝑟𝑒 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑏𝑖𝑡𝑠
21
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
La probabilité de l’erreur ou taux d’erreur sont liées à la distance minimale dmin entre les
points de la constellation. Plus dmin est grande et plus la probabilité d'erreur sera faible.
L'efficacité spectrale
C’est le rapport entre le débit binaire D et la largeur de bande spectrale du signal modulé B :
𝐃
𝛈 = 𝐁 En bit/sec/Hz I.10
L’énergie d’émission moyenne d’un signal modulé est une grandeur importante qui dépend
directement des symboles de la constellation utilisée et de leur probabilité d'apparition [1][3]. Elle
correspond à l’énergie moyenne transmise par symbole ou par unité de temps. Elle dépend de la
géométrie de la constellation (position des points), de la probabilité d’apparition des symboles
(souvent équiprobables) et et du type de modulation (PSK, QAM, etc.).
𝐸𝑎𝑣𝑔 = 𝔼[|𝑠|2 ] = ∑𝑀
𝑖=1 𝑃 (𝑠𝑖 ) ⋅ |𝑠𝑖 |
2
I.12
22
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Le signal modulé peut s’écrire comme une somme de symboles pondérant une fonction de
base modulée en fréquence :
Où :
• 𝑔(𝑡) : forme d'impulsion de base (ex : fonction porte rectangulaire, racine de cosinus
surélevé, etc.)
• 𝑓𝑐 : fréquence de la porteuse
Pour une modulation M-ASK symétrique, les M symboles sont uniformément répartis sur
une droite comme le montre la figure I.4
23
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Figure I:5:Représentation temporelle du signal modulant et du signal modulé pour une modulation 4-
ASK.
24
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
1 ∞ 2
Avec : 𝑄(𝑥) = ∫ 𝑒 −𝑡 /2 𝑑𝑡 : fonction Q de Gauss, 𝐸𝑏 : énergie par bit, 𝑁0 : densité
√2𝜋 𝑥
Le signal modulé s(t) est la somme de deux porteuses en quadrature, modulées en amplitude
par les deux signaux a(t) et b(t) comme le montre l’équation I.7.
Les éléments 𝒂𝒌 sont : ∓a0 , ∓3a0 , ∓ 5a0 , … ∓ (M1 − 1)a0 et les éléments 𝒃𝒌 sont :
∓a0 , ∓3a0 , ∓ 5a0 , … ∓ (M2 − 1)a0
8-QAM 16-QAM
25
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Pour la modulation QAM, la valeur approximative de la probabilité d’erreur par bit pour un
canal AWGN est exprimée par :
1 𝐸
4(1− ) 3 log2 𝑀⋅ 𝑏
⋅ 𝑄 (√
√𝑀 𝑁0
𝑇𝐸𝐵 ≈
log2 𝑀 𝑀−1
) I.16
La figure I.7 illustre l’allure temporelle des deux signaux modulants a(t) (composante en
phase) et b(t) (composante en quadrature) et du signal modulé s(t) pour une modulation 8-QAM et
pour n train binaire de 120 bits.
Figure I:7: Représentation temporelle des deux signaux modulants et du signal modulé pour une modulation 8-QAM.
Pour la modulation par déplacement de fréquence (FSK) l'information est codée en faisant
varier la fréquence d'un signal porteur entre plusieurs valeurs discrètes prédéterminées [1][3].
L'amplitude et la phase de la porteuse restent constantes. Dans sa forme la plus simple, la FSK
binaire (BFSK ou 2-FSK), deux fréquences distinctes sont utilisées pour représenter les bits '0' et
'1'. Des variantes M-FSK utilisent M fréquences distinctes.
Pour la modulation FSK, le signal modulé s(t) a une enveloppe constante, C'est la dérivée de
la phase qui est reliée de façon linéaire à la valeur des symboles représentant l’information.
26
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
La figure I.8 donne la représentation temporelle du signal modulant et celle du signal modulé
pour une modulation BFSK (M=2). La figure montre que le signal modulé possède deux fréquences
différentes correspondant aux deux valeurs du symbole (0 et 1).
Figure I:8 : Représentation temporelle du signal modulant et du signal modulé pour la modulation BFSK.
La limité supérieure de la probabilité d’erreur par bit est donnée par l’expression :
27
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
𝑀−1 𝐸
𝑃𝑏 ≤ ⋅ 𝑄 (√log 2 𝑀 ⋅ 𝑁𝑏 ) I.20
2 0
Pour la modulation par déplacement de phase (PSK) l'information est codée en modifiant la
phase d'un signal porteur sinusoïdal [1][3]. La phase de la porteuse prend un nombre fini de valeurs
discrètes, chaque valeur représentant un symbole (un ou plusieurs bits). L'amplitude et la fréquence
de la porteuse restent constantes.
Pour la modulation PSK les points de la constellation (𝑐𝑘 ) sont répartis sur un cercle, donc :
Ce qui donne :
Pour améliorer la probabilité de l’erreur, les symboles sont répartis régulièrement sur le cercle
selon l’expression :
𝜋 2𝜋
𝜑𝑘 = 𝑀 + 𝑘 𝑝𝑜𝑢𝑟 𝑘 = 0,1, … 𝑀 − 1 Pour M>2 ou 𝜑𝑘 = 0 𝑜𝑢 𝜋 pour M=2 I.23
𝑀
La figure I.9 illustre des exemples de la constellation pour les modulations BPSK (M=2),
QPSK (M=4) et 8-PSK
28
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Le signal modulé présente des sauts de phase qui sont proportionnelles aux passages entre
les symboles consécutifs comme le montre la figure I.10.
Figure I:10 : Allure temporelle du signal modulant et du signal modulé pour la modulation 8-
PSK.
29
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
La valeur approximative de la probabilité de l’erreur par bit pour la modulation M-PSK est
donnée par :
2 𝜋 𝐸
TEB ≈ log ⋅ 𝑄 (√2 log 2 𝑀 ⋅ sin2 (𝑀) ⋅ 𝑁𝑏 ) I.24
2𝑀 0
30
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
La SDR (Software Defined Radio) est un système de communication radio qui peut s’adapter
à n’importe quelle bande de fréquence et recevoir n’importe quelle modulation en utilisant le même
matériel. Les opportunités qu’offre la SDR lui permettent de résoudre des problèmes de la gestion
dynamique du spectre [4][5]. Les équipements SDR peuvent fonctionner dans des réseaux sans fil
hétérogènes. Les systèmes de communication à base de la SDR peuvent émettre et recevoir des
signaux à différentes fréquences pour implémenter des normes de télécommunications allant de la
radio FM à la 5G, au LTE et au WLAN. C’est-à-dire qu’une SDR idéale peut s’adapter
automatiquement aux nouvelles fréquences et aux nouvelles modulations.
Comme le montre la figure I.11, une radio logicielle se compose généralement d’un dispositif
frontal RF configurable et d’une carte FPGA ou d’un SoC (System-on-Chip) programmable
permettant d’exécuter des fonctions numériques.
31
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
La radio cognitive (CR) est née en réponse aux limites de la radio logicielle (SDR),
confrontée à des défis croissants dans un environnement spectral de plus en plus encombré et
complexe [4][5][9]. Alors que la SDR permet une reconfiguration logicielle des paramètres radio
(fréquence, modulation, puissance), elle reste passive et incapable de s'adapter intelligemment aux
conditions dynamiques du spectre. Ce manque d'autonomie a engendré plusieurs problèmes
majeurs : un gaspillage des ressources spectrales (bandes inutilisées mais réservées), des
interférences croissantes entre systèmes hétérogènes (réseaux civils/militaires/urgence), et une
incapacité à optimiser les performances dans des environnements variables.
Pour pallier ces insuffisances, la radio cognitive a introduit une couche d'intelligence
artificielle couplée à la SDR, permettant une perception active de l'environnement RF et une prise
de décision autonome [4][5][9]. Grâce à des techniques comme le spectrum sensing, l'apprentissage
automatique (optimisation des paramètres en temps réel) et le partage dynamique du spectre (accès
opportuniste sans interférence), la RC transforme les radios en systèmes auto-adaptatifs. Ces
capacités sont devenues indispensables pour des applications critiques comme les réseaux
militaires (évitement de brouillage), la 5G (efficacité spectrale), ou les communications d'urgence
(priorisation du trafic). Ainsi, la radio cognitive représente l'évolution naturelle de la SDR,
combinant flexibilité matérielle et intelligence logicielle pour relever les défis des communications
futures.
Radio cognitive
Une radio cognitive est un système radio employant une technologie permettant au système
:
32
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
L’architecture simplifiée d’un système RC est basée sur six éléments comme le montre la
figure I.12.
Les six composantes fonctionnelles de l’architecture d’une radio cognitive (RC) sont :
33
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
les exigences en matière de qualité de service (QoS) comme la latence, le débit, ou la fiabilité. En
comprenant la nature de l'application en cours, la RC peut adapter dynamiquement ses ressources.
Par exemple, une vidéo HD nécessitera plus de bande passante qu’un message texte. Cette
composante guide les décisions d’optimisation du système radio.
4. Fonctions SDR (Software Defined Radio) : Elles assurent la flexibilité du système radio
par la reconfiguration logicielle des paramètres physiques : fréquence, modulation, puissance, etc.
Ces fonctions permettent la détection de signaux RF, le changement de bande, la sélection de
canaux, ou encore l’identification du type de modulation. Grâce à la SDR, la radio peut s’adapter
en temps réel aux variations du spectre et aux standards multiples. Elle constitue la couche
matérielle programmable indispensable à la mise en œuvre de la cognition.
5. Fonctions de la cognition : Cette unité est le « cerveau » du système. Elle prend en charge
les fonctions de contrôle, de planification et d’apprentissage. Elle utilise les données de
l’environnement, de l’utilisateur et des applications pour prendre des décisions intelligentes : par
exemple, quel canal utiliser, à quelle puissance émettre, ou quand basculer vers un autre protocole.
Elle peut intégrer des algorithmes d’intelligence artificielle ou de machine learning. Ce moteur
décisionnel rend la radio réellement cognitive et adaptative.
6. Fonctions locales effectrices : Elles traduisent les décisions du système en actions visibles
ou audibles pour l’utilisateur. Cela inclut la synthèse vocale (text-to-speech), l’affichage graphique,
les alertes sonores ou les messages multimédias. Elles permettent une interaction intuitive et
efficace avec l’utilisateur final. Par exemple, une RC peut afficher une carte ou une instruction
vocale selon le contexte détecté. Ces fonctions garantissent une communication bidirectionnelle
fluide entre la machine et l’être humain.
Les méthodes classiques de classification de modulation sont celles qui n'utilisent pas le deep
learning. Elles se basent sur des techniques traditionnelles d’analyse du signal, comme l’extraction
de caractéristiques (features) suivie de l’utilisation d’algorithmes de classification classiques (K-
NN, SVM, arbres de décision, etc.) [6][9][10], contrairement aux méthodes modernes qui
apprennent directement à partir des données brutes via des réseaux de neurones. Elles sont
traditionnellement été regroupées en deux grandes catégories, les méthodes basées sur la
vraisemblance LB (Likelihood-Based), et celles basées sur les caractéristiques FB (Features-
34
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Les a méthodes basées sur la vraisemblance LB comprend deux étapes comme le montre la
figure I.13. Dans la première étape, la vraisemblance est évaluée pour chaque hypothèse de
modulation avec des échantillons de signal observés. Dans la deuxième étape, les probabilités des
différentes hypothèses de modulation sont comparées pour conclure la décision de classification
[6][10].
Figure I:13 : Etapes de classification des méthodes basées sur la vraisemblance (LB).
En fonction de la manière dont les paramètres et les données inconnus sont traités dans le
calcul de la fonction de vraisemblance, les algorithmes basés sur MLE (Maximum Likelihood
Estimate) peuvent être divisées en trois catégories principales :
35
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Dans ALRT, les quantités inconnues du signal telles que la constellation de signal et la
puissance de bruit sont traitées comme des variables aléatoires. La fonction de densité de
probabilité (PDF) du signal reçu est calculée en faisant la moyenne de ces variables aléatoires en
supposant que leur distribution soit connue. Cette méthode conduit à la meilleure précision de
classification si cette hypothèse est exacte.
Pour la GLRT, la PDF du signal reçu est calculée en utilisant l’estimation de vraisemblance
maximale (MLE) des valeurs inconnues, où elles sont comme des variables déterministes. Tandis
que ALRT nécessite des calculs lourds, en particulier lorsque le nombre de variables aléatoires
augmente, GLRT est moins complexe, mais présente un inconvénient lorsqu’elle est utilisée pour
classer des constellations de signaux imbriquées telles que (16-QAM et 64-QAM), ce qui entraîne
une classification incorrecte.
HLRT traite les paramètres inconnus en tant que variables aléatoires ou déterministes, et traite
les données en tant que variables aléatoires afin d’éliminer le problème de constellation de signaux
imbriqués du GLRT. Avec les estimations ML des paramètres, HLRT est également complexe à
mettre en œuvre.
En général, l’approche LB est sensible aux inadéquations des modèles, tel que le décalage
temporel et les performances d’identification peuvent se dégrader de manière significative en
raison de telles imperfections.
Un algorithme FB bien conçu peut offrir les mêmes performances que l'algorithme LB, tout
en ayant une complexité de calcul moindre. Dans les méthodes basées sur les caractéristiques (FB),
le type de modulation est identifié à l’aide d’un processus en deux étapes. Premièrement, des
caractéristiques représentatives sont utilisées pour représenter le signal reçu au lieu de traiter le
signal comme un flux de symboles. Ensuite, les caractéristiques sélectionnées sont utilisées par un
classifieur d’apprentissage automatique afin de prendre une décision concernant la classe de
modulation [6][9][10]. Le processus général de la méthode FB est illustré dans la Figure I.14.
36
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Figure I:14 : Etapes de classification des méthodes basées sur les caractéristiques (FB).
Les méthodes d’extraction de caractéristiques sont plus simples à mettre en œuvre et peuvent
conduire à des solutions sous-optimales par rapport à l’approche basée sur la vraisemblance.
L’efficacité de cette approche dépend de la puissance de classification des caractéristiques
sélectionnées et de la simplicité des classifieurs appliqués. Nous consacrerons cette section pour
énumérer certaines des caractéristiques bien connues de la classification de modulation.
Caractéristiques spectrales
Caractéristiques Description
37
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
La transformée en ondelettes
Parmi les différentes fonctions d’ondelettes mères, à savoir Morlet, Haar et Shannon, la
fonction d’ondelettes de Haar est privilégiée en raison de sa forme simple et de la commodité de
son calcul. L’ondelette de Haar est donnée par :
𝑇
1, si 0 ≤ 𝑡 < 2
Ψ(𝑡) = {−1, 𝑇
si 2 ≤ 𝑡 < 𝑇 I.26
0, sinon
Avec :
1 𝑡−𝜏
Ψ𝑎,𝜏 (𝑡) = Ψ( ) I.27
√𝑎 𝑎
38
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
à l’exception de la période des symboles et des temps de changement de phase. L’estimation de ces
points de synchronisation rend la technique difficile à mettre en œuvre. De plus, la sélection du
type de WT approprié pour la discrimination de caractéristiques peut être un défi en fonction des
formes d’onde des modulations utilisées. Cette technique n’est pas largement représentée dans la
littérature et les modulations couvertes semblent très limitées, un exemple de discrimine
uniquement les formes d’onde M-PSK et M-FSK.
Caractéristiques cyclo-stationnaires
Les techniques qui s’appuient sur les caractéristiques cyclo-stationnaires d’un signal peuvent
être appliquées à la reconnaissance de nombreuses modulations et à des niveaux faibles de SNR
avec un bruit considérable. Elles tirent parti du fait que de nombreuses formes d’onde peuvent être
modélisées comme étant cyclo-stationnaires plutôt que stationnaires en raison des périodicités
sous-jacentes des signaux. Pour de tels processus, leurs moyennes et leurs autocorrélations sont
périodiques [6][9][10].
Étant donné un signal sinusoïdal x(t), on dit que le signal présente des propriétés cyclo-
stationnaires ou contient une périodicité d’ordre 2 si l’autocorrélation cyclique présentée dans
l’équation
1 𝑇/2 𝜏 𝜏
𝑅𝑥𝛼 (𝜏) = lim ∫−𝑇/2 𝑥 (𝑡 + 2) (𝑡 − 2) 𝑒 −𝑖2𝜋𝑓𝛼𝑡 𝑑𝑡 I.28
𝑇→∞ 𝑇
Le spectre cyclique, qui peut être interprété comme une fonction de corrélation spectrale
(SCF) est donné par la transformée de Fourier de l’autocorrélation cyclique
+∞
𝑆𝑥𝛼 (𝑓) = ∫−∞ 𝑅𝑥𝛼 (𝜏)𝑒 −𝑖2𝜋𝑓𝜏 𝑑𝜏 I.29
Il est démontré que le plan SCF théorique de différents signaux de modulation sur un domaine
de α et f présente des différences distinctives et peut être utilisé pour la classification des
modulations de signal. Cependant, l’utilisation de la SCF est limitée à certaines modulations
d’ordre inférieur, elles ne convient pas aux modulations d’ordre supérieur. Pour cette raison,
l’utilisation des cumulants cycliques pour la classification des modulations d’ordre élevé a été
proposée.
39
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Les Statistiques d’Ordre Supérieur à 2 (High Order Statistics), autrement dit les moments et
cumulants d’ordre supérieur à 2, sont utilisées essentiellement en complément aux statistiques
d’ordre 2. Elles donnent une description plus complète des données et de leurs propriétés. Le
moment d’un signal est égal à l’espérance du signal élevée à une puissance déterminée par l’ordre
du moment. La moyenne d’un signal est le moment du premier ordre, tandis que le moment du
deuxième ordre indique généralement la puissance du signal [6][9][10]. Pour un processus aléatoire
stationnaire à valeurs complexes, y, les moments d’ordre supérieur (HOM) sont définis comme suit
:
̂𝑝𝑞 (𝑦) = 1 ∑𝑁
𝑀 𝑦 𝑝 (𝑖)𝑦 ∗𝑞 (𝑖) I.31
𝑁 𝑖=1
𝐶𝑝𝑞 (𝑦) = [ 𝑦, ⏟∗ , … , 𝑦 ∗ ]
⏟… , 𝑦 , 𝑦 I.32
(𝑝−𝑞) fois (𝑞) fois
En règle générale, les HOCs (High Order Cumulant) sont exprimés en fonction des moments
d’ordre supérieur (HOMs) d’un signal. Les relations entre certains des HOC les plus couramment
utilisés et les HOM sont données par les équations suivantes :
𝐶20 = 𝑀20
𝐶21 = 𝑀21
2
𝐶40 = 𝑀40 − 3𝑀20
𝐶41 = 𝑀40 − 3𝑀20 𝑀21
2
𝐶42 = 𝑀42 − |𝑀20 |2 − 2𝑀21 I.33
3
𝐶60 = 𝑀60 − 15𝑀20 𝑀40 + 30𝑀20
2
𝐶61 = 𝑀61 − 5𝑀21 𝑀40 − 10𝑀20 𝑀41 + 30𝑀20 𝑀21
2 2
𝐶62 = 𝑀62 − 6𝑀20 𝑀42 − 8𝑀21 𝑀41 − 𝑀22 𝑀40 + 6𝑀20 𝑀22 + 24𝑀21 𝑀20
3
𝐶63 = 𝑀63 − 9𝑀21 𝑀42 + 12𝑀21 − 3𝑀20 𝑀43 − 3𝑀22 𝑀41 + 18𝑀20 𝑀21 𝑀22
40
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Les valeurs des cumulants pour chaque type de modulation est unique et peut donc être
utilisée comme caractéristique de la classification de modulation. Les valeurs théoriques du
cumulant pour certains des types de modulation sont présentées dans le tableau suivant :
Conclusion
Dans ce chapitre, nous avons commencé par les principaux éléments d’une chaîne de
communication numérique, en expliquant comment l’information est traitée, modulée, transmise
puis démodulée à travers un canal. Chaque bloc joue un rôle essentiel pour assurer une transmission
efficace et fiable dans des environnements souvent perturbés.
Nous avons ensuite abordé les modulations numériques, qui consistent à adapter le signal
porteur en fonction des données à transmettre. Parmi les techniques étudiées figurent la modulation
M-ASK, M-QAM, M-PSK et M-FSK. Pour chaque type nous avons expliqué le principe de la
41
CHAPITRE I : MODULATIONS NUMERIQUES ET LEURS CLASSIFICATIONS
Enfin, nous avons présenté les méthodes classiques de classification, en distinguant celles
basées sur la vraisemblance, qui comparent le signal reçu à des modèles statistiques, et celles basées
sur des caractéristiques, qui extraient des paramètres représentatifs du signal pour les classer via
des algorithmes de classification.
42
II. CHAPITRE II :
DEEP LEARNING ET
CLASSIFICATION DES
MODULATIONS
43
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Introduction
44
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Concept de base
L’intelligence artificielle (IA) est une technologie mise au point pour simuler l’intelligence
humaine à travers des algorithmes. Pour se rapprocher le plus possible du fonctionnement du
cerveau humain, l’IA fait appel à un certain nombre d’éléments dont les plus importants sont :
Le concept d’intelligence artificielle a vu le jour dans les années 1950, lorsque des chercheurs
comme Alan Turing, John McCarthy et Marvin Lee Minsky ont posé les premières bases de ce qui
allait devenir un domaine révolutionnaire [11][12] Le célèbre test de Turing, imaginé en 1950,
cherchait à déterminer si une machine pouvait penser comme un humain. Quelques années plus
tard, John McCarthy a inventé le terme « Artificial Intelligence » lors d’une conférence qui
marquera un tournant dans l’histoire de l’informatique. Depuis ces premières expérimentations,
l’IA a très bien évolué, passant des premiers systèmes experts aux technologies actuelles comme
le Deep Learning et les réseaux neuronaux. Ces avancées permettent aujourd’hui à des plateformes
d’intégrer des solutions innovantes pour optimiser le travail d’équipe. Près de 75 ans après, l’IA
fait aujourd’hui partie intégrante de notre quotidien et elle ne cesse de se développer.
L’entraînement d’un modèle d’intelligence artificielle (IA) est le processus par lequel un
modèle apprend à effectuer une tâche en analysant un grand ensemble de données. Durant cette
phase, le modèle ajuste ses paramètres internes (comme les poids dans un réseau de neurones) pour
minimiser l’erreur entre ses prédictions et les résultats attendus.
45
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
L'apprentissage supervisé est un modèle de Machine Learning qui mappe une entrée
spécifique à une sortie à l'aide de données d'entraînement étiquetées (données structurées). En
d'autres termes, pour entraîner l'algorithme à reconnaître des images de chats par exemple, il faut
lui fournir des images étiquetées comme étant des chats.
L'apprentissage non supervisé est un modèle de Machine Learning qui apprend les
tendances à partir de données sans étiquette (données non structurées). Contrairement à
l'apprentissage supervisé, le résultat final n'est pas connu à l'avance. En effet, l'algorithme apprend
à partir des données et les classe par groupes en fonction d'attributs. Par exemple, l'apprentissage
non supervisé est efficace pour établir des correspondances de tendances et la modélisation
descriptive.
46
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Figure II:2 : Schéma bloc de l'apprentissage non supervisé d'un réseau de neurone.
L'apprentissage par renforcement est un modèle de Machine Learning qui peut être décrit
globalement comme "l'apprentissage par la pratique". Un "agent" apprend à exécuter une tâche
définie de manière empirique (boucle de rétroaction) jusqu'à ce que ses performances se situent
dans une plage souhaitée. L'agent reçoit un renforcement positif lorsqu'il effectue bien la tâche, et
un renforcement négatif lorsqu'il se trompe. Un exemple d'apprentissage par renforcement consiste
à apprendre à un robot à ramasser une balle.
Domaines de L’IA
L'IA englobe plusieurs domaines spécialisés qui constituent ses piliers fondamentaux :
Les réseaux neuronaux artificiels sont des modèles primitifs du cerveau humain. Une
cellule neuronale possède une seule sortie et des entrées reliées à d’autres neurones. Ces réseaux
utilisent plusieurs couches pour traiter les informations, imitant la structure et le fonctionnement
du cerveau humain. Cela exige une programmation non explicite et de la répartition d’information
sur l’ensemble du réseau.
47
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Les réseaux de neurones artificiels (RNA) sont des modèles inspirés du fonctionnement du
cerveau humain, capables d’apprendre à partir de données. Ils sont constitués de couches de
neurones interconnectés qui traitent l'information de manière hiérarchique. Grâce à des
mécanismes d’apprentissage comme la rétropropagation, les RNA ajustent leurs connexions pour
minimiser l’erreur de prédiction. Ils sont largement utilisés dans des domaines variés tels que la
reconnaissance d’images, le traitement du langage ou la classification de signaux. Leur capacité à
modéliser des relations complexes en fait un outil central de l’intelligence artificielle moderne.
L’histoire des réseaux de neurones artificiels remonte à 1943, lorsque Warren McCulloch et
Walter Pitts ont conçu le premier modèle de neurone inspiré de la biologie. En 1949, Donald Hebb
a approfondi cette idée en démontrant que les connexions neuronales se renforcent par l’usage,
jetant ainsi les bases de l’apprentissage automatique. En 1957, Frank Rosenblatt a introduit le
perceptron, un réseau à une seule couche aux capacités limitées, car incapable de traiter des données
non linéairement séparables. Ce n’est que dans les années 1980, avec l’avènement d’ordinateurs
plus puissants et l’invention de la rétropropagation, que les réseaux multicouches (MLP) ont pris
leur essor. Puis, en 1998, Yann LeCun a révolutionné le domaine avec LeNet, un réseau convolutif
(CNN) capable de reconnaître les chiffres manuscrits [13]. Depuis, l’apprentissage profond s’est
imposé grâce à des architectures toujours plus performantes, intégrant des couches automatiques
d’extraction de caractéristiques et éliminant le besoin d’une étape manuelle préalable. Ces avancées
ont ouvert la voie aux systèmes modernes d’IA, capables de traiter des problèmes de plus en plus
complexes.
48
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Comme le montre la figure II.3, chaque neurone est caractérisé par une fonction de
combinaison et une fonction d’activation.
Tels que :
• (X1, X2, …, Xm) : sont les entrées du neurone (signaux qui lui parviennent).
• (W1, W2, ..., Wn) : les poids associés à chaque connexion.
• b : le seuil d’activation (biais).
• S est la somme pondérée des entrées (potentiel d’activation).
• Ŷ = ƒ(S) : la sortie du neurone
Fonction d’activation
Le terme de fonction d’activation est synonyme de potentiel d’activation pour les neurones
biologiques. La fonction d’activation applique une opération non-linaire sur la sortie de la fonction
de combinaison ce qui est similaire au fonctionnement des neurones biologiques.
49
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
La fonction Rectified Linear Unit (ReLU) : Principalement appliquée dans les réseaux de
neurones convolutifs après les couches de convolutions. Elle attribut toutes les valeurs négatives à
0 et garde les valeurs positives inchangées. Elle est utilisée afin d’augmenter la non-linéarité du
réseau. Elle est décrite par l’équation suivante :
𝑠 𝑠𝑖 𝑠 ≥ 0
𝑓(𝑠) = 𝑚𝑎𝑥 (0, 𝑠) = { II.2
0 𝑠𝑖𝑛𝑜𝑛
La fonction Sigmoïde : Elle représente la fonction de répartition de la loi logistique. Elle est
souvent utilisée dans les réseaux de neurones parce qu’elle est dérivable. La forme de la dérivée de
sa fonction inverse est extrêmement simple et facile à calculer, ce qui améliore les performances
des algorithmes. Elle est décrite par la fonction suivante :
1
𝑓(𝑠) = 1+ 𝑒 −𝑠 ∀𝑠 ∈ ℝ II.3
50
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
L’avantage de la fonction tanh est que les entrées négatives seront bien répertoriées
comme négatives. Elle a de meilleurs résultats que la fonction sigmoïde et la fonction ReLU
dans un certain nombre de problèmes. Elle est définie par l’équation suivante :
sinh(x) es − e−s
tanh(s) = cosh(x) = es + e−s II.4
51
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
complexité de calcul plus faible, accélérant ainsi l’apprentissage du modèle. Elle est décrite par
l’équation suivante :
𝑠 𝑠𝑖 𝑠 ≥ 0
𝑓 (𝑠 ) = { ( 𝑠 II.5
𝛼 𝑒 − 1)𝑠𝑖𝑛𝑜𝑛, 𝛼𝜖ℝ
Les réseaux de neurones se structurent de manière variée selon leurs types et applications,
oscillant entre architectures simples et complexes.
Les réseaux convolutifs (CNN) introduisent des filtres dans leurs couches cachées pour
extraire automatiquement des caractéristiques hiérarchisées à partir d’images ou de signaux, en
mettant en évidence localement des motifs répétitifs.
De leur côté, les réseaux récurrents (RNN) et leurs variantes telles que LSTM ou GRU
intègrent des connexions récurrentes qui permettent de modéliser des dépendances temporelles en
« mémorisant » des informations sur une séquence, et ce, en traitant l’information de manière
séquentielle.
52
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Les architectures modernes à base d’attention, comme les Transformers, offrent une structure
qui alloue des poids variables à différentes parties des données d’entrée, optimisant ainsi la gestion
des dépendances contextuelles sur de longues séquences, ce qui démontre la riche diversité dans la
conception des réseaux de neurones pour répondre aux besoins spécifiques de chaque domaine
d’application.
Il existe, donc, une multitude de structures de réseaux de neurones. La figure II.8 donne un
aperçu des structures courantes couramment utilisées.
53
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
54
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Deep Learning
Le Deep Learning ou apprentissage profond, est une technique d'intelligence artificielle qui
utilise des réseaux de neurones artificiels pour résoudre des problèmes complexes. Ces réseaux
sont composés d’un nombre important de couches interconnectées qui permettent d'extraire des
informations et des caractéristiques à partir de grandes quantités de données. Le Deep Learning est
utilisé pour des tâches comme la reconnaissance d'images (traitement d’image), la traduction
automatique, la synthèse vocale, et bien d'autres.
Les modèles de Deep Learning sont fondés sur des architectures de réseaux de neurones.
Chaque neurone reçoit et interprète les informations de la couche précédente. Les neurones situés
entre les couches d'entrée et de sortie d'un réseau de neurones sont appelés couches cachées. Le
terme « Deep » fait généralement référence au nombre de couches cachées (jusqu’à des milliers)
dans le réseau de neurones.
La figure II.9 illustre le principe du Deep Learning. Le système apprendra par exemple à
reconnaître les lettres avant de s'attaquer aux mots dans un texte, ou détermine s'il y a un visage
sur une photo avant de découvrir de quelle personne il s'agit. À chaque étape, les « mauvaises »
réponses sont éliminées et renvoyées vers les niveaux en amont pour ajuster le modèle
mathématique. Au fur et à mesure, le programme réorganise les informations en blocs plus
complexes. Lorsque ce modèle est par la suite appliqué à d'autres cas, il est normalement capable
de reconnaître un chat sans que personne ne lui ait jamais indiqué qu'il n'ait jamais appris le concept
de chat. Les données de départ sont essentielles : plus le système accumule d'expériences
différentes, plus il sera performant.
55
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Performance élevée sur les grandes quantités de données : Les réseaux de neurones
profonds assure de meilleures performances lorsqu’ils sont entraînés sur de vastes ensembles de
données. Leur architecture leur permet de capturer des relations complexes non linéaires. Ils
surpassent souvent les méthodes traditionnelles dès que les données sont abondantes. Cela les rend
particulièrement puissants pour les applications industrielles à grande échelle.
Adaptabilité à différents types de données : Le deep learning peut être utilisé avec des
images, du texte, des signaux, des vidéos, etc., sans modification profonde du modèle de base. Les
architectures peuvent être adaptées pour chaque type de donnée avec des blocs spécialisés (CNN,
56
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
RNN, etc.). Cette flexibilité dépasse les capacités des méthodes classiques souvent limitées à un
format spécifique.
Complexité des modèles : Les réseaux de neurones profonds comportent souvent des
millions de paramètres à ajuster. Cette complexité rend leur conception, réglage et interprétation
difficiles. Ils fonctionnent souvent comme des "boîtes noires", ce qui limite leur [Link]
complique leur adoption dans des domaines exigeant une forte explicabilité (santé, droit...).
Temps d’apprentissage long : L’entraînement des modèles profonds peut prendre plusieurs
heures, voire plusieurs jours. Cela dépend du volume de données, de la profondeur du réseau et des
ressources [Link] itérations sont nombreuses et les algorithmes d’optimisation nécessitent
un grand nombre d’époques. Cela ralentit le développement et l’expérimentation des solutions.
Nécessité de grandes bases de données : Les réseaux profonds ont besoin de beaucoup de
données annotées pour bien généraliser. Une base de données insuffisante peut provoquer le
surapprentissage (overfitting). Cela limite leur utilisation dans les domaines où les données sont
rares ou [Link] collecte, l’étiquetage et le nettoyage de ces données demandent aussi du temps
et des ressources.
Les réseaux de neurones convolutifs (CNN ou ConvNet) constituent une évolution majeure
par rapport aux perceptrons multicouches (MLP), permettant de pallier certaines de leurs
57
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
limitations. C’est LeCun et son équipe qui ont marqué un tournant important dans l’évolution des
CNN en proposant le réseau LeNet, une architecture spécialisée dans la reconnaissance de chiffres
manuscrits.
Les réseaux CNN comportent deux parties bien distinctes comme le montre la figure II.10.
La première partie d’un réseau de neurones convolutif (CNN) agit comme un extracteur
automatique de caractéristiques à partir des images. L’image est traitée successivement par
plusieurs filtres (ou noyaux de convolution), générant des cartes de convolution représentant
différentes composantes visuelles. Certaines de ces couches appliquent une réduction de
dimension, comme le max pooling, pour diminuer la résolution tout en conservant l'information
essentielle. À la fin de cette phase, les cartes sont aplaties et combinées en un vecteur de
caractéristiques appelé code CNN, qui sert d’entrée à la seconde partie du réseau.
58
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
La figure II.11 illustre une couche de convolution avec trois entrées et deux sorties, calculées
à l’aide de deux groupes de filtres. Chaque groupe contient trois filtres 3×3, chacun étant appliqué
à une entrée. Les résultats sont ensuite sommés et un biais est ajouté à chaque sortie. Le stride est
de 2, ce qui réduit la taille des cartes de sortie.
59
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Figure II:11 : Illustration du principe de fonctionnement d’une couche de convolution à trois entrées et deux sorties.
Couche de correction ReLU (Rectified Linear Unit) : On fait passer les cartes de
convolution à travers une couche d’activation non linéaire telle que Rectified Linear Unit (ReLu),
qui consiste à remplacer les nombres négatifs des images filtrées par des zéros.
60
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
La Batch Normalization (normalisation par lots) est une technique de normalisation des
entrées d'un réseau de neurones artificiels qui a été proposée en 2015 par Ioffe et Szegedy et qui
permet d'accélérer l'apprentissage. Elle consiste à normaliser les activations d'une couche en
soustrayant la moyenne et en divisant par l'écart type des activations dans un mini-lot d'exemples
d'entraînement. De plus, la normalisation par lots agit comme une régularisation et peut réduire le
besoin d'autres formes de régularisation, telles que la désactivation aléatoire et le lissage des poids.
Drop-out : Le Drop-Out est une technique de régularisation simple mais efficace. Pendant
l'entraînement, le Drop-Out élimine aléatoirement une fraction des neurones du réseau,
généralement entre 20% et 50%, dans chaque couche. Cela signifie que chaque neurone a une
chance d'être temporairement “dropped” (éliminé) au cours d'une étape d'entraînement particulière.
Cela oblige le réseau à compter sur plusieurs neurones pour représenter des caractéristiques, plutôt
que de dépendre d'un petit sous-ensemble de neurones. Le principe d’utilisation du drop-out est de
désactiver aléatoirement des neurones afin que le réseau soit plus réactif et puisse donc apprendre
plus rapidement. On l’utilise généralement après la couche convolutionnelle et entièrement
connectée. [16]
61
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Les poids de chaque couche complètement connectée sont représentés sous forme d'une
matrice unique à deux dimensions, dont une dimension représente le nombre d'entrées de la couche
et l'autre dimension représente le nombre de sorties de la couche. La sortie d'une couche
complètement connectée est obtenue en faisant le produit matrice-vecteur de la matrice des poids
et du vecteur des caractéristiques d'entrée, suivie de l'ajout d'un vecteur de biais.
L'objectif de la couche complètement connectée est d'utiliser les caractéristiques pour classer
l'image d'entrée du réseau en différentes classes en fonction.
62
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
La fonction softmax : La fonction softmax est une fonction d'activation souvent utilisée
dans les réseaux de neurones pour produire des sorties normalisées et interprétables. Elle prend un
vecteur de scores réels en entrée et produit un vecteur de probabilités normalisées en sortie. La
valeur de la probabilité est calculée comme suit :
𝑠
𝑒 𝑗
𝑓(𝑠𝑗 ) = 𝛴 𝑒𝑠𝑖 II.6
𝑖
Où 𝑠𝑗 est l’élément considéré 𝑗 du vecteur d’entrée. La classe ayant la plus grande probabilité
sera prise comme sortie du réseau de neurones.
La classification d’images par réseaux de neurones convolutifs (CNN) est une méthode
puissante qui permet de reconnaître automatiquement le contenu visuel des images. Grâce à leur
capacité à extraire et apprendre des caractéristiques discriminantes, les CNN sont devenus la
référence dans les tâches de vision par ordinateur.
Lors de l'entraînement d'un réseau neuronal pour des tâches de classification, il est crucial de
disposer d'un ensemble de données vaste et diversifié qui représente fidèlement le problème à
63
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Données d'entraînement (Training Data) : Ce sont les données principales utilisées pour
enseigner le modèle. Le réseau neuronal ajuste ses poids et ses biais de manière itérative en fonction
de ces données, cherchant à minimiser l'erreur entre ses prédictions et les étiquettes réelles. C'est
sur cet ensemble que le modèle apprend les motifs et les caractéristiques nécessaires à la
classification.
Données de validation (Validation Data) : Contrairement aux données de test, les données
de validation ne servent pas à évaluer la performance finale, mais à surveiller et ajuster le modèle
durant l'apprentissage. Elles permettent de détecter le surapprentissage (overfitting) en comparant
les performances sur l’ensemble d’entraînement et de validation. De plus, elles sont utilisées pour
choisir les hyperparamètres optimaux (comme le taux d’apprentissage, la taille du réseau, ou le
nombre d’époques). En résumé, les données de validation aident à contrôler et améliorer la
généralisation du modèle avant son évaluation finale sur les données de test.
Données de test (Testing Data) : Une fois que le modèle est entièrement entraîné et que ses
hyperparamètres ont été optimisés à l'aide des données de validation, l'ensemble de test est utilisé
pour une évaluation finale et impartiale. Ces données n'ont jamais été vues par le modèle pendant
l'entraînement ou la validation, ce qui permet d'estimer sa capacité réelle à généraliser à des
données nouvelles et inconnues. Les métriques de performance obtenues sur cet ensemble sont les
plus représentatives de la performance du modèle en conditions réelles.
La figure II.14 illustre le rôle de chacun des trois sous-ensembles de la base de données.
64
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Figure II:15 : Utilité de chacun des trois sous-ensembles d’une base de données : training, validation et test.
Entrainement du modèle
Initialisation des poids et biais : Au début de l'entraînement, les poids et les biais de toutes
les connexions du réseau neuronal sont initialisés aléatoirement. Cette initialisation est cruciale car
elle brise la symétrie et permet au réseau d'apprendre des caractéristiques différentes.
Propagation avant (Forward Propagation) : Les données d'entrée sont transmises à travers
le réseau, de la couche d'entrée vers la couche de sortie. À chaque neurone, la somme pondérée de
ses entrées est calculée, puis une fonction d'activation est appliquée pour produire une sortie. Cette
sortie est ensuite transmise aux neurones de la couche suivante, et ce processus se poursuit jusqu'à
ce que la couche de sortie produise la prédiction finale du modèle.
65
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Une fois le modèle de Deep Learning entraîné, son évaluation est une étape critique pour
s'assurer de sa performance et de sa capacité à généraliser sur des données inconnues. Cette
évaluation se fait principalement sur l'ensemble de données de test, qui n'a pas été utilisé pendant
l'entraînement ou la validation. Plusieurs métriques sont couramment utilisées pour quantifier la
performance d'un modèle de classification [16] :
Précision : elle est calculée comme le rapport entre le nombre d'échantillons positifs
correctement classés et le nombre total d'échantillons classés comme positifs (correctement ou
incorrectement). La précision mesure l'exactitude du modèle à classer un échantillon comme
positif.
𝑇𝑃
𝑝𝑟é𝑐𝑖𝑠𝑖𝑜𝑛 = 𝑇𝑃+𝐹𝑃 II.7
66
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Justesse (Accuracy) : c’est une mesure qui décrit généralement les performances du modèle
dans toutes les classes. Il est utile lorsque toutes les classes sont d'égale importance. Il est calculé
comme le rapport entre le nombre de prédictions correctes et le nombre total de prédictions.
𝑇𝑃+𝑇𝑁
𝐽𝑢𝑠𝑡𝑒𝑠𝑠𝑒 = II.8
𝑇𝑃+𝐹𝑃+𝑇𝑁+𝐹𝑁
Pour un système de classification à plus de deux classes les étiquettes réelles sont
représentées sur les lignes (ou colonnes) de la matrice de confusion et les étiquettes prédites
(résultats de classification) sont représentés sur les colonnes (ou lignes). Les éléments diagonaux
représentent le nombre de points pour lesquels l'étiquette prédite est égale à la véritable étiquette,
tandis que les éléments hors diagonale sont ceux qui sont mal étiquetés par le système. Plus les
valeurs diagonales de la matrice de confusion sont élevées, mieux est le système de classification.
Courbe ROC (Receiver Operating Characteristic) et AUC (Area Under the Curve) :
Une courbe ROC est obtenue en traçant le taux de vrais positifs (TPR) en fonction du taux de faux
positifs (FPR). Le taux de vrais positifs est la proportion d'observations qui ont été correctement
prédites comme étant positives sur toutes les observations positives :
De même, le taux de faux positifs est la proportion d'observations qui sont incorrectement
prédites positives sur toutes les observations négatives :
67
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Les classificateurs qui donnent des courbes plus proches du coin supérieur gauche indiquent
une meilleure performance La courbe ROC est un graphique qui illustre la performance d'un
modèle de classification binaire à tous les seuils de classification. L'AUC représente l'aire sous
cette courbe, fournissant une mesure agrégée de la performance du modèle.
Nous avons vu dans la fin du chapitre 1 que l’approche classique de l'AMC a été abordée
selon deux méthodes classiques de classification : les méthodes basées sur la vraisemblance
(Likelihood-Based Methods) et les méthodes basées sur l'extraction de caractéristiques (Feature-
Based Methods).
Malgré leur succès relatif, les aproches traditionnelles présentent plusieurs limitations
lorsqu'elles sont confrontées aux défis réels des communications sans fil modernes :
C'est dans ce contexte que les approches basées sur l'apprentissage profond (Deep Learning)
ont émergé comme une alternative prometteuse pour résoudre les défis de la classification
automatique de modulation.
68
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
• Robustesse accrue : Les modèles profonds ont démontré une meilleure tolérance au bruit
et aux distorsions de canal par rapport aux approches classiques [17].
• Performances supérieures : Des gains significatifs de précision ont été observés,
particulièrement dans les scénarios à faible rapport signal/bruit (SNR) [18].
• Capacité d'extraction automatique de caractéristiques : Les architectures de Deep
Learning peuvent apprendre directement à partir des données brutes, éliminant ainsi la
nécessité d'une conception manuelle d'extracteurs de caractéristiques [20][21].
• Adaptabilité : Capacité à s'adapter à de nouveaux types de modulations et à des conditions
de canal variables par simple réentraînement [22].
L'évolution des approches Deep Learning pour l'AMC peut être résumée en trois générations
principales :
Une étape critique dans la conception d'un système AMC basé sur l'apprentissage profonde
est le choix de la représentation du signal. Ce choix influence directement l'efficacité avec laquelle
les réseaux neuronaux peuvent extraire des caractéristiques discriminantes.
69
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Représentation IQ
[ ] [ ] [ ]
𝑋𝐼𝑄 = (𝐼𝑄0[0𝐼]𝑄1[1]...…𝑄𝐼[𝑁−1
𝑁−1
] ) II.13
Cette représentation est particulièrement adaptée aux CNN qui peuvent traiter 𝑿𝑰𝑸 comme
une image à 2 canaux, chaque canal correspondant aux composantes I et Q [20].
Représentation en constellation
Représentations temps-fréquence
{∞} 2
𝑆(𝑡, 𝑓 ) = | ∫{−∞} 𝑥(𝜏)𝑤(𝜏 − 𝑡)𝑒 {−𝑗 2 𝜋𝑓 𝜏},𝑑𝜏| II.15
70
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Diverses architectures de réseaux neuronaux ont été appliquées à l'AMC, chacune présentant
des avantages spécifiques. Cette section examine les principales catégories, avec une attention
particulière aux CNN qui se sont révélés particulièrement efficaces pour cette tâche.
Les CNN ont émergé comme l'architecture dominante pour l'AMC en raison de leur capacité
à exploiter efficacement les structures spatiales et les corrélations locales présentes dans les
données de signal [21][24].
En fonction des types de données d'entrée, les approches AMR basées sur des CNN existants
peuvent être regroupées en deux catégories : les modèles CNN utilisant des entrées I/Q brutes et
les modèles CNN utilisant des entrées prétraitées.
Modèles CNN basés sur des entrées de données I/Q brutes : En utilisant un modèle CNN
simple à quatre couches prenant des données I/Q comme entrées, le potentiel des CNN appliqués
à la reconnaissance automatique de la modulation (AMR) a été exploré pour la première où une
précision de reconnaissance plus élevée que de nombreuses méthodes classiques a été obtenue.
Quelques modèles CNN améliorés, intégrant des couches complexes ou des opérations de
transformation spécifiques, ont été appliqués à l’AMR. Par exemple, des modèles inspirés par les
ResNet et DenseNet) ont été proposés pour permettre aux caractéristiques extraites de multiples
couches d’être efficacement transmises au module de détection. Des modèles de classification de
la modulation des signaux en temps réel pour les systèmes OFDM ont été proposés par des
spécialistes.
Modèles CNN classiques utilisant des entrées prétraitées : ces modèles utilisent les
caractéristiques importantes facilement extraites par des méthodes classiques de traitement du
signal, telles que les cumulants d’ordre supérieur, les images spectrales ou les diagrammes de
constellation. Combiner les méthodes classiques AMR basées sur des caractéristiques (FB-AMR)
avec des modèles CNN a montré un potentiel considérable pour surmonter ces limitations. Par
71
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
exemple, [27] applique une transformée de Fourier discrète à court terme pour convertir des
signaux radio 1D en images spectrales, puis applique un filtre gaussien pour réduire le bruit. Le
modèle proposé atteint ainsi une précision de reconnaissance élevée démontrant l’efficacité de cette
stratégie. Dans [28], les séquences I/Q ainsi que leur transformée Stockwell orthonormée discrète
(DOST) sont combinées pour représenter le signal reçu à des fins de reconnaissance de modulation
par CNN.
Par ailleurs, le diagramme de constellation est une autre méthode de représentation du signal
largement utilisée pour l’AMR ; les caractéristiques peuvent ainsi en être extraites directement afin
d’identifier le schéma de modulation. Ce diagramme peut être converti en image à 3 canaux dans
pour tirer parti des modèles CNN tels qu’AlexNet et GoogLeNet adaptés à la classification
d’images couleur.
Le CNN basé sur le diagramme de constellation est principalement utilisé pour résoudre le
problème de confusion entre 16QAM et 64QAM.
Pour tirer parti de la forte capacité de résistance au bruit des images spectrales cycliques ainsi
que de la capacité de reconnaissance des schémas de modulation d’ordre supérieur offertes par les
diagrammes de constellation, un CNN à deux branches est proposé dans [29] pour extraire des
caractéristiques multi-échelles avant de les fusionner.
72
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
Modèles hybrides
Étant donné que les modèles purement CNN ou RNN se concentrent uniquement sur les
caractéristiques spatiales ou temporelles des signaux AMR, l’utilisation d’un seul de ces deux types
de modèles peut ne pas atteindre des performances optimales. C’est pourquoi des chercheurs ont
proposé de combiner les caractéristiques des deux types de couches de réseaux de neurones afin de
concevoir des modèles hybrides pour l’AMR. Un modèle de réseaux de neurones profonds
convolutionnels et à long terme (CLDNN) a été proposé dans [31], constitué d’un LSTM et de trois
couches CNN. Ce modèle possède une connexion de dérivation avant le LSTM, contournant ainsi
deux des couches CNN, dans le but de fournir un contexte temporel plus long pour les
caractéristiques extraites. La sortie de la première couche de convolution est concaténée à celle de
la troisième couche avant d’être transmise à la couche LSTM, permettant à celle-ci d’extraire des
caractéristiques temporelles plus efficaces, ce qui conduit à une précision de reconnaissance
améliorée ainsi qu’à une descente de gradient plus stable que d’autres modèles.
De plus, une structure à deux flux basés sur CNN-LSTM ont été proposée, où
l’amplitude/phse (A/P) ainsi que les données I/Q servent d’entrées pour les deux flux du modèle.
Les approches AMR basées sur l’apprentissage profond reposent fortement sur la qualité des
jeux de données. Des bases de données fiables sont essentielles pour l’entraînement, le test et
l’évaluation des modèles DL‑AMR. Le jeu de données RML2016.10a est devenu une référence,
intégrant des effets aléatoires tels que le décalage de fréquence, le bruit gaussien, l’évanouissement
multi‑trajets ainsi que la dérive de l’horloge d’échantillonnage. RML2016.10b est plus volumineux
tandis que RML2018.01a propose 24 schémas de modulation ainsi que des séquences plus longues
(1024 points), offrant davantage de détails pour concevoir des modèles avancés malgré un coût de
calcul plus élevé. Le jeu de données HisarMod2019.1 fournit 26 schémas de modulation simulés à
l’aide de Matlab, couvrant des environnements variés (Rayleigh, Rician, Nakagami‑m) mais plus
favorables à la reconnaissance. Pour atteindre des performances opérationnelles robustes, un
73
CHAPITRE II : DEEP LEARNING ET CLASSIFICATION DES MODULATIONS
modèle AMR nécessite un apprentissage affiné à partir de jeux de données captés en conditions de
propagation réelle.
Schémas de Longueur
Jeu de données Année Source modulation du signal Conditions de canal
Conclusion
Ce chapitre a été consacré à l’étude des méthodes basées sur l’intelligence artificielle
appliquées à la classification des signaux de communication. Dans la première partie, nous avons
vu les notions générales de l’intelligence artificielle ainsi que le fonctionnement des réseaux de
neurones artificiels, qui constituent la base de nombreuses méthodes de traitement du signal
moderne. Ensuite, nous avons abordé le Deep Learning, en détaillant ses principes ainsi que sa
capacité à extraire automatiquement des caractéristiques complexes à partir de grands volumes de
données. Puis, nous nous sommes intéressés aux réseaux de neurones convolutionnels (CNN),
adaptés à l’identification de motifs spécifiques grâce à leur structure de convolution, ce qui les rend
particulièrement efficaces pour la classification de signaux représentés visuellement. Et finalement,
nous avons présenté la classification automatique de la modulation par deep learning, en mettant
en évidence des modèles CNN, RNN et hybrides ainsi que les base de données disponibles et
utilisées pour l’entrainement et l’évaluation des modèles de classification AMR à base du Deep
Learning.
74
III. CHAPITRE III : RESULTATS DE
SIMULATION : PRESENTATION ET
INTERPRETATION
75
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Introduction :
Ce chapitre est dédié à la présentation et à l’analyse des résultats expérimentaux obtenus lors
de la classification des types de modulation à l’aide de réseaux de neurones convolutifs (CNN). Le
travail repose sur l’exploitation de la base de données RadioML 2016.10a, qui constitue une
référence dans le domaine de la reconnaissance automatique de modulations (AMC). Deux
représentations du signal ont été utilisées : la forme brute en composantes I/Q (In-phase et
Quadrature) et la forme image à travers des représentations temps-fréquence, notamment les
spectrogrammes et la transformée de Wigner-Ville (WVD).
Les simulations ont été réalisées dans l’environnement MATLAB, choisi pour ses outils
performants en traitement du signal et en apprentissage profond, ainsi que pour sa souplesse
d’intégration des réseaux pré-entraînés. Deux approches ont été comparées : un réseau CNN que
nous avons proposé et conçu spécifiquement pour ce travail, et un modèle issu du transfert learning
basé sur le réseau léger et optimisé SqueezeNet. Les performances ont été évaluées sur différents
niveaux de rapport signal sur bruit (SNR) pour refléter des conditions réalistes de communication.
Les simulations ont été effectuées sous MATLAB R2024b, installé sur un ordinateur portable
équipé d’un processeur Intel Core i7 de 11ᵉ génération cadencé à 3 GHz. La machine dispose de
32 Go de mémoire RAM, permettant un traitement efficace des volumes de données élevés.
La base de données RadioML 2016.10a, abrégée RML2016a, est une base de référence
utilisée pour l’évaluation des algorithmes de classification de modulation automatique (AMC). Elle
a été développée pour simuler un environnement de communication réaliste, incluant des effets de
bruit, de décalage de fréquence, et de gigue temporelle. Elle contient des signaux I/Q complexes
générés pour 11 types de modulations (analogiques et numériques) suivantes :
1. BPSK (Binary Phase Shift Keying) : Modulation de phase à deux états représentant les
bits 0 et 1 par un changement de phase de 180°.
76
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
2. QPSK (Quadrature Phase Shift Keying) : Utilise quatre phases différentes (0°, 90°,
180°, 270°) pour coder deux bits par symbole.
3. 8PSK (8-Phase Shift Keying) : Modulation de phase à huit états, codant 3 bits par
symbole pour une meilleure efficacité spectrale.
4. QAM16 (16-Quadrature Amplitude Modulation) : modulation sur deux porteuses en
quadrature codant 4 bits par symbole.
5. QAM64 (64-Quadrature Amplitude Modulation) : Extension du QAM16 avec 64
symboles, permettant de coder 6 bits par symbole.
6. GFSK (Gaussian Frequency Shift Keying) : Modulation de fréquence lissée par un
filtre gaussien.
7. CPFSK (Continuous Phase Frequency Shift Keying) : Variante de FSK avec une phase
continue, réduisant la largeur de bande occupée.
8. AM-DSB (Amplitude Modulation - Double Side Band) : Modulation d’amplitude
classique avec deux bandes latérales autour de la porteuse.
9. AM-SSB (Amplitude Modulation - Single Side Band) : Variante de l’AM-DSB où une
seule bande latérale est transmise pour économiser de la bande.
10. FM (Frequency Modulation) : Modulation où l’information est transmise par la
variation de la fréquence de la porteuse.
11. WB-FM (Wideband Frequency Modulation) : Version à large bande de la FM, comme
utilisée dans la radio FM, offrant une meilleure qualité sonore au prix d’une bande
passante plus large.
Pour chaque type de modulation le signal reçu est évalué à vingt valeurs du rapport signal
sur bruit (SNR) allant de -20 dB à +18 dB avec un pas de 2.
Pour chaque type de modulation et pour chaque valeur du rapport signal sur bruit la base
offre 1000 exemples de signal. Chaque exemple de signal est représenté par une séquence complexe
de 128 échantillons I/Q, accompagnée de son label de modulation et de la valeur SNR
correspondante. Cette base est particulièrement bien adaptée aux techniques d’apprentissage
profond, car elle offre un grand volume de données annotées. Elle permet de tester la robustesse
des modèles face à des conditions de canal variées, simulant un environnement réaliste pour les
systèmes de radio cognitive et les applications de guerre électronique.
77
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Pour transformer la base RML2016a en images de spectrogrammes nous avons suivi les
étapes suivantes :
Pour faciliter la tâche de classification, La base est organisée en dossiers hiérarchiques, selon
le SNR et le type de modulation selon la structure de la figure III.1.
78
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
La figure III.2 présente quatre exemples de spectrogrammes de signaux, pour les deux
modulations BPSK et 64-QAM et pour deux valeurs du rapport SNR 10 dB et 18 dB.
𝜏 𝜏
𝑊𝑥 (𝑡, 𝑓) = ∫ 𝑥 (𝑡 + ) 𝑥 ∗ (𝑡 − ) 𝑒 −𝑗2𝜋𝑓𝜏 𝑑𝜏
2 2
79
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Les étapes de conversion de la base [Link] vers une base en images WVD sont
similaires à ceux du paragraphe 2.1 à l’exception de l’utilisation de la fonction wvd de Matlab au
lieu de la fonction spectrogram. La hiérarchie des dossiers de la base obtenue est aussi similaire à
celle du paragraphe 2.1. La figure III.3 quatre exemples de représentation WVD de signaux , pour
les deux modulations BPSK et 64-QAM et pour deux valeurs du rapport SNR 10 dB et 18 dB.
Figure III:3: Exemples des images de transformée WVD des signaux de la base RML2016a
Après plusieurs essais réalisés sur différentes architectures de réseaux de convolution, nous
avons réussi à concevoir un modèle à complexité réduite tout en offrant des performances de
80
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
classification satisfaisantes. Ce modèle repose sur trois blocs convolutionnels successifs suivis
d’une couche de dropout, d’une couche entièrement connectée ainsi que des couches de
classification classiques (softmax et classification). Ce choix permet de trouver un équilibre entre
la profondeur du modèle, la capacité de généralisation ainsi que la rapidité de calcul, ce qui est
particulièrement adapté à la reconnaissance de la modulation à partir d’images de taille 128×128×3.
Le logiciel MATLAB 2024b a été utilisé pour implémenter ce modèle grâce à son
environnement intégré, idéal pour le prototypage rapide et la création de modèles de deep learning
spécifiques aux télécommunications. Il fournit des outils adaptés à la préparation des signaux, à la
construction du modèle ainsi qu’au suivi de l’entraînement. De plus, les nombreuses fonctions de
visualisation simplifient la validation du modèle.
Tableau III:1: Architecture du premier réseau proposé pour la classification automatique de la modulation
81
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
3. Choix des options d’apprentissage : le tableau III.2 résumes les options choisis pour
l’apprentissage pour assurer un temps d’apprentissage raisonnable sans perdre la justesse
de la classification.
Paramètre Valeur
Optimiseur Adam
Taux d’apprentissage 1e‑4
Époques 10
Taille du mini‑batch 64
Fréquence de validation Toutes les 120 itérations
Affichage du progrès training‑progress
Verbose false
4. Entraînement du modèle : Le modèle CNN est entraîné à partir des données
d’entraînement définies.
5. Evaluation Pour chaque SNR, on applique le modèle entraîné aux images de test, on
calcule la précision pour chaque niveau de bruit (SNR) et on génère une matrice de
confusion pour analyser visuellement la performance.
82
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Figure III:4: Evolution de l’entrainement du premier modèle proposé appliqué à des image WVD de la base
RML2016a
83
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Après la phase d’apprentissage du modèle, une évaluation détaillée est effectuée en calculant la
justesse (accuracy) pour chaque valeur de SNR afin de mesurer la robustesse du classificateur selon
le niveau de bruit.
Tableau III:3: Justesse de test du premier modèle proposé appliqué aux images de spectrogramme pour les valeurs
positifs du SNR
Pour affiner l’analyse des performances, des matrices de confusion spécifiques à chaque SNR
ont été générées, offrant ainsi une visualisation précise des taux de reconnaissance pour toutes les
classes de modulation. Ces matrices permettent d’identifier facilement les schémas de modulation
qui sont correctement classés ainsi que ceux qui posent des difficultés, révélant ainsi les confusions
fréquentes entre certaines classes. Ce niveau de détail est crucial pour comprendre les faiblesses
du modèle et envisager des améliorations spécifiques. La figure III.5 donne les matrices de
confusion obtenues pour les 10 valeurs de SNR (allant de 0dB à 18dB avec pas de 2)
84
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
85
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Figure III:5: Matrices de confusion pour les différentes valeurs du SNR obtenu par le premier modèle proposé
appliqué à des images WVD.
À partir des matrices de confusion de la Figure III.5, on peut dégager les observations
suivantes :
86
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
• Le schéma PAM4 fournit des résultats très satisfaisants, atteignant des taux de justesse
compris entre 95 % et 100 % à des valeurs de SNR supérieures à 0 dB.
• Pour la modulation QAM16, le taux de justesse est particulièrement faible à bas SNR, et
reste limité même à des valeurs plus élevées, illustrant sa sensibilité au bruit ainsi que la
difficulté du modèle à la distinguer correctement.
• La modulation QAM64 connaît des taux de précision faibles à 0 dB et 2 dB, mais elle
bénéficie d’une amélioration notable à partir de 4 dB, atteignant d’excellentes
performances à partir de 10 dB.
• Le schéma QPSK est affecté par des taux de précision limités à bas SNR, mais s’améliore
nettement à mesure que le SNR devient supérieur à 10 dB, où elle atteint des taux de
reconnaissance élevés.
• Le schéma WBFM est plus difficile à identifier correctement, avec des taux de justesse
faibles, généralement compris entre 28,5 % et 44 %, quelle que soit la valeur du SNR.
• Enfin, la modulation 8PSK fournit des taux de précision modestes à bas SNR, mais
bénéficie d’une forte amélioration à partir de 12 dB, atteignant des taux supérieurs à
90 %.
87
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Figure III:6: Evolution de l’entrainement du premier modèle proposé appliqué à des images de spectrogramme de la
base RML2016a.
Tableau III:4: justesse de test du premier modèle proposé appliqué aux images de spectrogramme pour les valeurs
positifs du SNR
88
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
La figure III.7 présente les matrices de confusion obtenues pour les 10 niveaux de SNR
considérés, allant de 0 dB à 18 dB par pas de 2 dB.
89
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
90
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Figure III:7: Matrices de confusion pour les différentes valeurs du SNR obtenu par le premier modèle proposé
appliqué à des images de spectrogramme.
À partir des matrices de confusion de la Figure III.7, on peut dégager les observations
suivantes :
91
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
de 13 à 30%, puis remonte à environ 30–31 % à haut SNR, ce qui suggère des difficultés
à isoler visuellement ce type de modulation à l'aide du spectrogramme.
• QPSK bénéficie peu de la hausse du SNR, avec des taux de classification faibles et
irréguliers : de 40 % à 0 dB à 30–40 % à haut SNR.
• WBFM reste limité, avec des taux variant de 31 % à 0 dB à environ 37–48 % à haut
SNR.
• 8PSK est extrêmement affecté par le bruit, avec des taux tombant à 7–8 % à moyen SNR,
puis légèrement améliorés à haut SNR 13.5%–15%, sans jamais atteindre des niveaux
acceptables.
Dans notre travail, nous avons exploré l’intérêt de cette technique pour la classification
automatique des modulations numériques. Nous avons utilisé le réseau SqueezeNet comme modèle
de base. Ce choix s’explique par sa légèreté architecturale par rapport à d’autre réseau ce qui permet
un entraînement rapide avec de bonnes performances de classification, même sur des machines
avec des ressources limitées.
Le tableau III.5 résume l'architecture de SqueezeNet avec, pour chaque couche, son nom, les
dimensions d’entrée et de sortie, ainsi que le nombre de paramètres entrainables [33].
92
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Les étapes de programmation du réseau SqueezeNet sont similaire à ceux expliqués au début
du paragraphe 3.1 sauf dans l’étape de détermination de l’architecture du réseau où nous avons
utilisé le transfert Learning pour construire un modèle de classification comme suivant :
93
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Figure III:8: Evolution de l’entrainement du réseau SqueezeNet appliqué à des image WVD de la base RML2016a.
Tableau III:6: Justesse de test du réseau SqueezeNet appliqué aux images WVD pour les valeurs positives du SNR
94
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Les matrices de confusion obtenues avec le modèle SqueezeNet pour les différentes valeurs
de SNR présentent une forte similarité avec celles du modèle proposé, illustrées dans la figure III.5.
Afin d’éviter des redondances, nous avons choisi de ne pas reproduire l’ensemble des matrices de
confusion. À la place, le tableau III.7 présente, pour chaque valeur de SNR, le nombre de
classifications correctes obtenues par les deux modèles, ce qui permet une comparaison plus directe
et synthétique.
Dans ce tableau, les colonnes numérotées 1 indiquent les performances du modèle proposé,
tandis que les colonnes numérotées 2 correspondent aux résultats du réseau SqueezeNet.
Tableau III:7: Comparaison entre le réseau proposé et le réseau SqueezeNet en termes de précision de classification
par classe de modulation et pour chaque valeur de SNR.
95
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
QAM64 193 165 195 169 199 183 195 188 200 185
QPSK 184 176 192 176 189 190 189 193 191 185
WBFM 84 90 85 99 88 96 86 79 78 82
8 PSK 169 184 181 187 180 188 188 192 183 188
Basé sur le tableau III.7 on peut mentionner les remarques suivantes :
• Les modulation AM_SSB, CPFSK, GFSK, BPSK : présentent une justesse très élevée
(près de 100 %) pour toutes les valeurs de SNR, sans différence significative entre les
deux modèles.
• La modulation AM_DSB : présente une légère supériorité du modèle SqueezeNet aux
SNR faible contre une légère supériorité du modèle proposé à partir de SNR ≥ 12 dB.
• Pour la modulation PAM4 : Les performances de SqueezeNet sont légèrement
supérieures pour la majorité des SNR.
• Pour 8PSK : le réseau SqueezeNet dépasse légèrement le modèle proposé sur l’ensemble
des SNR.
• Pour QAM16 : Le modèle proposé montre de meilleures performances à bas SNR (sauf
exceptions ponctuelles), bien que les deux réseaux présentent une précision faible
globalement.
• QAM64 : Le modèle proposé surpasse généralement SqueezeNet à SNR ≥ 10 dB.
• Pour QPSK les deux réseaux donne sont presque équivalent.
• La modulation WBFM montre des performances faibles sur les deux modèles avec une
légère supériorité de SqueezeNet à partir de 6 dB.
Pour les données au format I/Q, le réseau proposé est constitué de cinq couches de
convolution. Ce choix résulte d'une étude comparative de plusieurs configurations comportant 3, 4
et 6 couches, dont les performances sont présentées dans le tableau III.8. Le modèle à 5 couches
s’est avéré offrir le meilleur compromis entre complexité et précision.
Tableau III:8: Justesse d’apprentissage des réseaux essayés avec la Base RML2016.10a.
96
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Tableau III:9: Caractéristiques les différentes couches du réseau proposé pour les données IQ.
97
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
La figure III.9 illustre l’évolution des courbes d’apprentissage du réseau proposé pour la
classification des 11 modulations en utilisant la base RML2016.a en format IQ.
Figure III:9 Evolution de l’entrainement du réseau proposé appliqué à des données en format IQ de la base
RML2016a.
La justesse (accuracy) augmente rapidement pour atteindre environ 80% après deux
époques, puis continue à s'améliorer plus lentement pour se stabiliser autour de 83%. Comparé
aux résultats précédents utilisant les représentations WVD et spectrogrammes, ce modèle
utilisant directement les données IQ montre une performance similaire à ceux du premier
modèle proposé et du réseau SqueezeNet utilisant les données WVD tout en évitant le coût
computationnel lié à la génération des représentations temps-fréquence, ce qui représente un
avantage significatif pour les applications en temps réel.
98
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Les valeurs de justesse de test correspondant aux différentes valeurs du SNR sont
données dans le tableau III.10.
Tableau III:10: justesses de test du réseau proposé appliqué à des données en format IQ de la base RML2016a.
99
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
100
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Figure III:10: Matrices de confusion pour les différentes valeurs du SNR obtenu par le premier réseau proposé
appliqué à des données en format IQ de la base RML2016a
À partir des matrices de confusion présentées, on peut dégager les observations suivantes :
101
III. CHAPITRE III : RESULTATS DE SIMULATION : PRESENTATION ET
INTERPRETATION
Conclusion :
102
IV. CONCLUSION GENERALE
Ce mémoire a exploré l'application des réseaux de neurones profonds à la classification
automatique des modulations numériques, en progressant des fondamentaux jusqu'aux
implémentations avancées à travers trois chapitres complémentaires.
Le premier chapitre a établi les bases théoriques essentielles des modulations numériques et
leurs méthodes de classification traditionnelles. Nous avons exploré les différents types de
modulations (ASK, PSK, FSK, QAM), leurs caractéristiques distinctives, et les approches
classiques de classification basées sur la vraisemblance (LB) et les caractéristiques (FB). Cette
fondation a mis en évidence les limitations des méthodes conventionnelles, particulièrement
leur sensibilité au bruit et leur complexité computationnelle.
Nous avons identifié certaines limitations incluant des difficultés persistantes avec certaines
modulations complexes comme QAM16, QAM64 et WBFM, des confusions entre
modulations d'ordre supérieur et un compromis nécessaire entre complexité computationnelle et
performance
103
CONCLUSION GENERALE
104
REFERENCES BIBLIOGRAPHIQUES
[1] M. Bouguerra, "Modulation Numérique," Université Badji Mokhtar Annaba, Département
d'Électronique, Support de cours. [En ligne]. Disponible sur: [Link]
[Link]/[Link]/93325/mod_resource/content/1/MODULATION%20NUMERIQ
[Link] [Consulté en Mai 2025]
[2] "Modulation numérique," dans Ingénierie des Télécommunications, StudySmarter, [En
ligne]. Disponible sur: [Link]
telecommunications/modulation-numerique/ [Consulté en Mai 2025]
[3] Département Sciences de l'Ingénieur, "Les modulations numériques," Lycée Blaise Pascal,
Support pédagogique, [En ligne]. Disponible sur: [Link]
modulations-numeriques/ [Consulté en Mai 2025]
[4] J. Mitola III, "Software Radio Architecture: Object-Oriented Approaches to Wireless
Systems Engineering," Wiley, 2000.
[5] T. Ulversoy, "Software Defined Radio: Challenges and Opportunities," IEEE
Communications Surveys & Tutorials, vol. 12, no. 4, pp. 531-550, 2010.
[6] S. Huang, Y. Yao, Z. Wei, Z. Feng et P. Zhang, "Automatic Modulation Classification Method
for Multiple Antenna System Based on Convolutional Neural Network," IEEE Access, vol.
8, pp. 42938-42950, 2020.
[7] B. Sklar, "Digital Communications: Fundamentals and Applications," 2nd ed., Prentice Hall,
2001.
[8] M. Coupechoux, "Radio Cognitive - Introduction," Institut Mines-Télécom, IMT Atlantique,
Support de cours, 2018. [En ligne]. Disponible sur:
[Link] [Consulté en
juin 2025]
[9] O. A. Dobre et R. Inkol, "Automatic Modulation Classification: Theory and Applications,"
dans Wireless Communications Systems, Springer, 2021.
[10] MathWorks, "Communications Toolbox Documentation," dans MATLAB Documentation,
[En ligne]. Disponible sur: [Link] [Consulté en
juin 2025]
105
REFERENCES BIBLIOGRAPHIQUES
[11] Turing, A. M., “Computing Machinery and Intelligence,” Mind, vol. 59, no. 236, pp. 433–
460, 1950.
[12] Minsky, M., “Steps Toward Artificial Intelligence,” Proceedings of the IRE, vol. 49, no. 1,
pp. 8–30, 1961.
[13] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, “Gradient-based learning applied to
document recognition,” Proceedings of the IEEE, vol. 86, no. 11, pp. 2278–2324, Nov. 1998.
[14] W. S. McCulloch and W. Pitts, “A logical calculus of the ideas immanent in nervous
activity,” The Bulletin of Mathematical Biophysics, vol. 5, no. 4, pp. 115–133, 1943.
[15] Goodfellow, I., Bengio, Y., & Courville, A."Deep Learning."MIT Press, 2016.
[16] Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R.,“Dropout:
A simple way to prevent neural networks from overfitting,”Journal of Machine Learning
Research (JMLR), vol. 15, pp. 1929–1958, 2014..
[17] T. J. O'Shea, T. Roy, and T. C. Clancy, _Over the air deep learning based radio signal
classification,” IEEE Journal of Selected Topics in Signal Processing, vol. 12, no. 1, pp.
168_179, 2018.
[18] D. Zhang, W. Ding, B. Zhang, F. Lin, and R. Tang, “Deep learning for radio signal
modulation recognition : A survey,” IEEE Access, vol. 8, pp. 132 922_132 956, 2020.
[19] F. Meng, P. Chen, L. Wu, and X. Wang, “Automatic modulation classification : A deep
learning enabled approach,” IEEE Transactions on Vehicular Technology, vol. 67, no. 11, pp.
10 760_10 772, 2018.
[20] T. J. O'Shea, J. Corgan, and T. C. Clancy, “Convolutional radio modulation recognition
networks,” International conference on engineering applications of neural networks, pp.
213_226, 2016.
[21] J. Hong, W. Wang, Y. Ban, Y. Luo, and J. Ge, “Automatic modulation classification using
deep learning,” Journal of Communications and Information Networks, vol. 2, no. 4, pp.
47_56, 2017.
[22] K. Sankhe, M. Belgiovine, F. Zhou, L. Angioloni, F. Restuccia, S. D'Oro, T. Melodia, S.
Ioannidis, and K. Chowdhury, “No radio left behind: Radio fingerprinting through deep
learning of physical-layer hardware impairments,” IEEE Transactions on Cognitive
106
REFERENCES BIBLIOGRAPHIQUES
107