0% ont trouvé ce document utile (0 vote)
263 vues231 pages

GEL2001 Notes

Ce document est un ensemble de notes de cours sur l'analyse des signaux, abordant des concepts tels que les séries complexes, les séries de Fourier, et la transformée de Fourier. Il inclut des sections sur les propriétés mathématiques, les théorèmes importants comme celui de Parseval, et des applications pratiques. Les notes sont destinées aux étudiants en génie électrique et informatique, fournissant une base solide pour l'étude des signaux et des systèmes.

Transféré par

jo91
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
263 vues231 pages

GEL2001 Notes

Ce document est un ensemble de notes de cours sur l'analyse des signaux, abordant des concepts tels que les séries complexes, les séries de Fourier, et la transformée de Fourier. Il inclut des sections sur les propriétés mathématiques, les théorèmes importants comme celui de Parseval, et des applications pratiques. Les notes sont destinées aux étudiants en génie électrique et informatique, fournissant une base solide pour l'étude des signaux et des systèmes.

Transféré par

jo91
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Faculté des sciences et de génie

Département de génie électrique


et de génie informatique

GEL–2001 Analyse des Signaux

Notes de cours

c 1999 C. Deutsch, 2003 L. A. Rusch, 2006,2018 J. Genest


ii
Table des matières

Avant-Propos vii

1 Les séries complexes 1


1.1 Les nombres complexes . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Manipulation des limites . . . . . . . . . . . . . . . . . 2
1.2 Quelques notions à connaı̂tre . . . . . . . . . . . . . . . . . . 3
1.3 Rappel sur la parité . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Fonctions périodiques . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1 L’ensemble L2 [0, T ] . . . . . . . . . . . . . . . . . . . 5
1.4.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.3 La famille des exponentielles complexes . . . . . . . . 6
Définition . . . . . . . . . . . . . . . . . . . . . . . . . 6
Propriétés de la famille S . . . . . . . . . . . . . . . . 7

2 Séries de Fourier 9
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Quelques définitions . . . . . . . . . . . . . . . . . . . 10
2.1.2 Un exemple - porte périodisée . . . . . . . . . . . . . . 11
2.1.3 La fonction sinus cardinal . . . . . . . . . . . . . . . . 13
2.2 Propriétés de la série de Fourier . . . . . . . . . . . . . . . . . 15
2.2.1 Notations et Définitions . . . . . . . . . . . . . . . . . 15
2.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.3 Exemples d’utilisation des propriétés . . . . . . . . . 20
Cas d’une fonction paire . . . . . . . . . . . . . . . . . 20
Cas d’une fonction impaire . . . . . . . . . . . . . . . 21
Cas d’une fonction réelle quelconque . . . . . . . . . . 23
2.3 Théorème de Parseval . . . . . . . . . . . . . . . . . . . . . . 25
2.3.1 Introduction à la notion de puissance d’un signal . . . 25
2.3.2 Théorème de Parseval . . . . . . . . . . . . . . . . . . 26

iii
iv TABLE DES MATIÈRES

2.4 Spectre de Puissance . . . . . . . . . . . . . . . . . . . . . . . 28


2.4.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.2 La série de Fourier réelle . . . . . . . . . . . . . . . . . 30
2.5 Aspects Mathématiques . . . . . . . . . . . . . . . . . . . . . 32
2.5.1 Deux conditions suffisantes de convergence de la série
de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 33
Théorème du carré integrable . . . . . . . . . . . . . 33
Théorème de Fourier . . . . . . . . . . . . . . . . . . . 34
2.5.2 Vitesse de convergence de la série de Fourier . . . . . 35
Comparaison des taux (vitesses) de convergence . . . 36
Comment trouver la vitesse de convergence? . . . . . 36
Vitesse de convergence en fonction de la régularité de
fp (t) . . . . . . . . . . . . . . . . . . . . . . . 36
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Transformée de Fourier 39
3.1 De la série de Fourier à l’intégrale de Fourier . . . . . . . . . 39
3.2 La transformée de Fourier . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.2 Remarques importantes . . . . . . . . . . . . . . . . . 44
Définitions équivalentes . . . . . . . . . . . . . . . . . 45
3.2.3 Exemple - La fonction rectangle . . . . . . . . . . . . 45
3.3 Propriétés de la transformée de Fourier . . . . . . . . . . . . . 47
3.3.1 Notations et Définitions . . . . . . . . . . . . . . . . . 47
3.3.2 Propriétés pour les fonctions réelles . . . . . . . . . . . 48
3.3.3 Exemple: La fonction triangle . . . . . . . . . . . . . . 50
3.3.4 Dualité, dilatation et translation en temps et fréquence 52
3.3.5 Notion de fréquence . . . . . . . . . . . . . . . . . . . 58
3.4 Théorème de Parseval . . . . . . . . . . . . . . . . . . . . . . 59
3.4.1 Introduction à la notion d’énergie d’un signal . . . . . 59
3.4.2 Théorème de Parseval . . . . . . . . . . . . . . . . . . 59
3.4.3 Spectre d’énergie . . . . . . . . . . . . . . . . . . . . . 60
3.4.4 Exemple: L’exponentielle décroissante des deux côtés . 61
3.5 Aspects mathématiques . . . . . . . . . . . . . . . . . . . . . 64
3.5.1 Transformée de Fourier dans L2 ( Re) . . . . . . . . . . 64
3.5.2 Transformée de Fourier pour des fonctions autres que
celles de L2 ( Re) . . . . . . . . . . . . . . . . . . . . . 66
3.5.3 Bornes asymptotiques . . . . . . . . . . . . . . . . . . 67
3.6 Etude de quelques fonctions intéressantes . . . . . . . . . . . 69
3.6.1 Le rectangle . . . . . . . . . . . . . . . . . . . . . . . . 69
TABLE DES MATIÈRES v

3.6.2 Le triangle . . . . . . . . . . . . . . . . . . . . . . . . 71
3.6.3 L’exponentielle décroissante d’un coté . . . . . . . . . 72
3.6.4 Résumé des résultats . . . . . . . . . . . . . . . . . . . 77

4 Introduction à la notion de distribution 79


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.1.1 Un exemple d’application . . . . . . . . . . . . . . . . 79
4.1.2 La fonction signe . . . . . . . . . . . . . . . . . . . . . 80
4.2 Théorie de fonctions généralisées . . . . . . . . . . . . . . . . 82
4.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . 82
Définition d’une fonction . . . . . . . . . . . . . . . . 82
Définition d’une fonction généralisée . . . . . . . . . . 82
Propriété fondamentale des distributions . . . . . . . . 83
4.2.2 La transformée de Fourier de la fonction signe . . . . . 84
4.2.3 La fonction Dirac (ou la fonction delta, ou l’impulsion
unitaire) . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.3 Manipulations sur la fonction de Dirac . . . . . . . . . . . . . 86
4.3.1 Propriété d’échantillonnage de la fonction de Dirac . . 86
4.3.2 Autre dérivation de la transformée de Fourier de la
fonction delta . . . . . . . . . . . . . . . . . . . . . . . 87
4.3.3 Transformée de Fourier de la fonction delta déplacée
en temps . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3.4 La transformée de Fourier d’une constante . . . . . . . 89
4.3.5 Exponentielle complexe, sinus et cosinus . . . . . . . . 90
4.4 Contre-exemple: distributions . . . . . . . . . . . . . . . . . . 90
4.4.1 Echelon unitaire et sa transformée de Fourier . . . . . 91
4.4.2 Utilisation de l’échelon pour le calcul du rectangle . . 92
4.5 Fonctions périodiques . . . . . . . . . . . . . . . . . . . . . . 94
4.5.1 Calcul de la transformée de Fourier d’une fonction
périodique . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5.2 Peigne de Dirac . . . . . . . . . . . . . . . . . . . . . . 98
4.5.3 Transformée de Fourier de la restriction d’une fonction
à une période . . . . . . . . . . . . . . . . . . . . . . . 102
4.6 La fonction delta et la dérivée d’une fonction . . . . . . . . . 104
4.6.1 Dérivée de l’échelon . . . . . . . . . . . . . . . . . . . 105
4.6.2 Dérivée aux points de discontinuité . . . . . . . . . . . 105
4.6.3 Dérivée de la fonction delta . . . . . . . . . . . . . . . 108
4.7 Ce qu’il faut retenir dans ce chapitre . . . . . . . . . . . . . . 109
vi TABLE DES MATIÈRES

5 Transformée de Fourier et dérivation 111


5.1 Différentiation en temps et en fréquence . . . . . . . . . . . . 111
5.1.1 Théorème pour les fonctions continues . . . . . . . . . 111
5.1.2 Applications aux distributions . . . . . . . . . . . . . 112
5.1.3 Corollaires du théorème précédent . . . . . . . . . . . 113
5.1.4 Application aux équations différentielles . . . . . . . . 113
5.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.2.1 Équation générale . . . . . . . . . . . . . . . . . . . . 114
5.2.2 Les fonctions intégrables . . . . . . . . . . . . . . . . . 115
5.2.3 Les fonctions non-intégrables . . . . . . . . . . . . . . 122
5.2.4 Les fonctions périodiques . . . . . . . . . . . . . . . . 123
5.2.5 La transformée de Fourier d’une gaussienne . . . . . . 127

6 Introduction au filtrage des signaux 129


6.1 Introduction au filtrage analogique . . . . . . . . . . . . . . . 129
6.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . 129
6.1.2 L’analyse de systèmes . . . . . . . . . . . . . . . . . . 129
6.1.3 Linéarité . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.1.4 L’invariance dans le temps . . . . . . . . . . . . . . . . 131
6.1.5 Mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.1.6 Causalité . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.1.7 Stabilité BIBO . . . . . . . . . . . . . . . . . . . . . . 133
6.2 Approche fréquentielle . . . . . . . . . . . . . . . . . . . . . . 133
6.2.1 Equations différentielles linéaires à coefficients constants133
6.2.2 Calcul de la sortie temporelle d’un filtre . . . . . . . . 135
6.2.3 Réponse harmonique . . . . . . . . . . . . . . . . . . . 138
Réponse à une exponentielle complexe . . . . . . . . . 138
Réponse à un sinus ou un cosinus . . . . . . . . . . . . 138
Réponse à un signal périodique . . . . . . . . . . . . . 139
Filtre passe bas idéal . . . . . . . . . . . . . . . . . . . 140
6.2.4 Analyse des Circuits . . . . . . . . . . . . . . . . . . . 142
L’impédance complexe . . . . . . . . . . . . . . . . . . 144
6.3 Approche temporelle . . . . . . . . . . . . . . . . . . . . . . . 149
6.3.1 Produit de convolution . . . . . . . . . . . . . . . . . . 150
Définition . . . . . . . . . . . . . . . . . . . . . . . . . 150
Interprétation graphique et méthode de calcul . . . . . 150
6.3.2 Propriétés de la convolution . . . . . . . . . . . . . . . 157
Convolution par un peigne de Dirac . . . . . . . . . . 160
Produit de convolution et transformée de Fourier . . . 161
6.3.3 Réponse impulsionnelle d’un filtre . . . . . . . . . . . 162
TABLE DES MATIÈRES vii

6.3.4 Interprétation temporelle de la notion de filtrage . . . 163


Temps de réponse et temps de mémoire . . . . . . . . 163
Interprétation physique de la notion de filtrage. . . . . 164
6.4 Causalité et stabilité des filtres . . . . . . . . . . . . . . . . . 165
6.4.1 Causalité . . . . . . . . . . . . . . . . . . . . . . . . . 165
6.4.2 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 166
6.5 Distorsions dans les filtres . . . . . . . . . . . . . . . . . . . . 167
6.5.1 Distorsions linéaires . . . . . . . . . . . . . . . . . . . 167
6.5.2 Distorsions non linéaires . . . . . . . . . . . . . . . . . 167

7 Échantillonnage 169
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
7.2 Théorème d’échantillonnage . . . . . . . . . . . . . . . . . . . 169
7.2.1 Théorème . . . . . . . . . . . . . . . . . . . . . . . . . 169
7.2.2 Interprétation physique . . . . . . . . . . . . . . . . . 171
7.2.3 Interprétation spectrale . . . . . . . . . . . . . . . . . 172
7.2.4 Reconstruction . . . . . . . . . . . . . . . . . . . . . . 173
7.2.5 Formule de poisson . . . . . . . . . . . . . . . . . . . . 174
7.3 Échantillonnage de signaux à bande étroite . . . . . . . . . . 175
7.4 Échantillonnage réel . . . . . . . . . . . . . . . . . . . . . . . 179
7.4.1 Filtrage antirepliement . . . . . . . . . . . . . . . . . . 179
Nécessité du filtrage antirepliement . . . . . . . . . . . 179
Un filtrage optimal . . . . . . . . . . . . . . . . . . . . 180
7.4.2 Échantillonnage maintien . . . . . . . . . . . . . . . . 183
7.4.3 Bloqueur d’ordre 0 . . . . . . . . . . . . . . . . . . . . 184
7.4.4 Interpolateur . . . . . . . . . . . . . . . . . . . . . . . 185
7.4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . 186

8 Applications en télécommunication 189


8.1 Les différents types de modulation . . . . . . . . . . . . . . . 189
8.2 Modulation double bande sans porteuse . . . . . . . . . . . . 191
8.2.1 Modulation DBSP . . . . . . . . . . . . . . . . . . . . 191
8.2.2 Génération du signal modulé . . . . . . . . . . . . . . 191
8.2.3 Démodulation . . . . . . . . . . . . . . . . . . . . . . . 195
8.3 La modulation double bande avec porteuse . . . . . . . . . . 196
8.3.1 Modulation . . . . . . . . . . . . . . . . . . . . . . . . 196
8.3.2 Démodulation . . . . . . . . . . . . . . . . . . . . . . . 197
8.4 La modulation à bande latérale unique . . . . . . . . . . . . . 200
8.4.1 Modulation . . . . . . . . . . . . . . . . . . . . . . . . 200
8.4.2 Démodulation . . . . . . . . . . . . . . . . . . . . . . . 201
viii TABLE DES MATIÈRES

8.5 Modulation à bande latérale résiduelle . . . . . . . . . . . . . 205


8.5.1 Démodulation . . . . . . . . . . . . . . . . . . . . . . . 207
8.6 La modulation de fréquence . . . . . . . . . . . . . . . . . . . 207
8.6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . 207
8.6.2 Modulation . . . . . . . . . . . . . . . . . . . . . . . . 208
8.6.3 Étude de la largeur de bande utile . . . . . . . . . . . 209
Modulation par une sinusoı̈de . . . . . . . . . . . . . . 210
Indice de modulation . . . . . . . . . . . . . . . . . . . 211
Modulation de fréquence à faible indice. . . . . . . . . 212
Modulation de fréquence à grand indice. . . . . . . . . 212
Modulation de fréquence dans le cas général . . . . . . 213
8.6.4 Démodulation . . . . . . . . . . . . . . . . . . . . . . . 213
8.6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . 214
8.7 Multiplexage fréquentiel et Hétérodynage . . . . . . . . . . . 214
Liste des figures

1.1 Coordonnées u-v. . . . . . . . . . . . . . . . . . . . . . . . . 3


1.2 Exemple d’une fonction paire. . . . . . . . . . . . . . . . . . 4
1.3 Exemple d’une fonction impaire. . . . . . . . . . . . . . . . . 4
1.4 La partie paire et la partie impaire d’une fonction quelconque. 5

2.1 La fonction porte périodisée. . . . . . . . . . . . . . . . . . . 11


2.2 Coefficients de la série de Fourier pour la fonction porte
périodisée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 La fonction sinus cardinal, Sinc(x). . . . . . . . . . . . . . . 14
2.4 La fonction Sinc(n/2). . . . . . . . . . . . . . . . . . . . . . 14
2.5 Spectre d’amplitude de la porte périodisée. . . . . . . . . . . 16
2.6 Spectre de phase de la porte périodisée. . . . . . . . . . . . . 16
2.7 La fonction porte périodisée. . . . . . . . . . . . . . . . . . . 20
2.8 La fonction rampe périodisée . . . . . . . . . . . . . . . . . . 20
2.9 Le spectre d’amplitude de la fonction rampe périodisée. . . . 22
2.10 Le spectre de phase de la fonction rampe périodisée. . . . . 22
2.11 Fonction quelconque . . . . . . . . . . . . . . . . . . . . . . 23
2.12 Spectre de puissance. . . . . . . . . . . . . . . . . . . . . . . 28
2.13 Deux taux de convergence. . . . . . . . . . . . . . . . . . . . 35
2.14 Exemple de vitesse de convergence de la série de Fourier. . . 37

3.1 Fonction non-périodique. . . . . . . . . . . . . . . . . . . . . 40


3.2 Restriction et périodisation d’une fonction non-périodique. . 41
3.3 Suite ωn pour différentes valeurs de ωo . . . . . . . . . . . . . 42
3.4 La fonction rectangle. . . . . . . . . . . . . . . . . . . . . . . 46
3.5 Transformée de Fourier de la fonction rectangle. . . . . . . . 46
3.6 Spectre complexe F(ω) de la fonction rectangle Rect(t/τ ) . . 48
3.7 Spectre d’amplitude |F (ω)| de la fonction rectangle. . . . . . 49
3.8 Spectre de phase θ(ω) de la fonction rectangle. . . . . . . . . 49

ix
x LISTE DES FIGURES

3.9 La fonction triangle. . . . . . . . . . . . . . . . . . . . . . . 51


3.10 Spectre d’amplitude dela fonction triangle. . . . . . . . . . . 51
3.11 La fonction triangle déplacée dans le temps, Tri(t − 1). . . . 55
3.12 Spectre d’amplitude de Tri(t − 1). . . . . . . . . . . . . . . . 55
3.13 Spectre de phase de Tri(t − 1). . . . . . . . . . . . . . . . . . 56
3.14 La fonction triangle modulée. . . . . . . . . . . . . . . . . . 56
3.15 Spectre d’amplitude de la fonction triangle modulée. . . . . 57
3.16 Spectre de phase de la fonction triangle modulée. . . . . . . 57
3.17 La fonction triangle dilatée. . . . . . . . . . . . . . . . . . . 58
3.18 Spectre d’amplitude de la fonction triangle dilatée. . . . . . 58
3.19 L’exponentielle décroissante des deux côtés. . . . . . . . . . 61
3.20 Spectre de la fonction exponentielle décroissante des deux
côtés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.21 Spectre d’amplitude de Tri(t). . . . . . . . . . . . . . . . . . 68
3.22 Spectre d’amplitude de Rect(t/τ ). . . . . . . . . . . . . . . . 68
3.23 La fonction rectangle, Rect(t/τ ). . . . . . . . . . . . . . . . 69
3.24 Spectre d’amplitude de Rect(t/τ ). . . . . . . . . . . . . . . . 70
3.25 Spectre de phase de Rect(t/τ ). . . . . . . . . . . . . . . . . . 70
3.26 La fonction triangle. . . . . . . . . . . . . . . . . . . . . . . 71
3.27 Spectre d’amplitude de la fonction triangle. . . . . . . . . . 72
3.28 L’exponentielle décroissante d’un côté. . . . . . . . . . . . . 73
3.29 Spectre d’amplitude de l’exponentielle décroissante d’un côté. 73
3.30 Spectre de phase de l’exponentielle décroissante d’un côté. . 74
3.31 Partie paire. . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.32 Partie impaire . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.33 Spectre d’amplitude de la partie paire. . . . . . . . . . . . . 76
3.34 Spectre d’amplitude de la partie impaire. . . . . . . . . . . . 77

4.1 Fonction signe. . . . . . . . . . . . . . . . . . . . . . . . . . . 81


4.2 Distribution de la fonction delta, comme limite de rectangles. 85
4.3 La fonction delta. . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4 Fonctions delta déplacées en temps. . . . . . . . . . . . . . . 89
4.5 Échelon unitaire. . . . . . . . . . . . . . . . . . . . . . . . . 91
4.6 Rectangle comme somme d’échelons. . . . . . . . . . . . . . 93
4.7 Fonction constante par morceaux. . . . . . . . . . . . . . . . 93
4.8 Rampe périodique. . . . . . . . . . . . . . . . . . . . . . . . 95
4.9 Partie réelle de la TF d’une rampe périodique. . . . . . . . . 96
4.10 Partie imaginaire de la TF d’une rampe périodique. . . . . . 97
4.11 Module de la transformée de Fourier d’une rampe périodique. 97
4.12 Porte périodisée: onde carrée. . . . . . . . . . . . . . . . . . 97
LISTE DES FIGURES xi

4.13 Partie réelle de la TF d’une onde carrée. . . . . . . . . . . . 98


4.14 Module de la Transformée de Fourier d’une onde carrée. . . 99
4.15 Train d’impulsions ou peigne de Dirac. . . . . . . . . . . . . 100
4.16 Fonction continue échantillonnée par un peigne de Dirac. . . 100
4.17 Transformée de Fourier d’un train d’impulsions unitaires. . . 102
4.18 Onde carrée. . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.19 Dérivée de l’échelon. . . . . . . . . . . . . . . . . . . . . . . 104
4.20 Dérivée de l’échelon décalé. . . . . . . . . . . . . . . . . . . . 105
4.21 Fonction discontinue. . . . . . . . . . . . . . . . . . . . . . . 106
4.22 La fonction f1 (t) U(a-t). . . . . . . . . . . . . . . . . . . . . 106
4.23 La fonction f2 (t) U(t-a). . . . . . . . . . . . . . . . . . . . . 107
4.24 Dérivée d’un rectangle. . . . . . . . . . . . . . . . . . . . . . 108
4.25 Dérivée d’une impulsion. . . . . . . . . . . . . . . . . . . . . 108

5.1 Fonction rectangle et sa dérivée. . . . . . . . . . . . . . . . . 115


5.2 La fonction exponentielle décroissante multipliée par l’échelon.116
5.3 Dérivée de l’exponentielle décroissante multipliée par l’échelon.117
5.4 Exemple, fonction f(t). . . . . . . . . . . . . . . . . . . . . . 117
5.5 Dérivée de f(t). . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.6 Rampe de pente négative entre zéro et un. . . . . . . . . . . 119
5.7 Fonction cosinus multipliée par un rectangle. . . . . . . . . . 120
5.8 Dérivée de la fonction cosinus multipliée par un rectangle. . 121
5.9 Dérivée seconde la fonction cosinus multipliée par un rectangle.121
5.10 Fonction périodique. . . . . . . . . . . . . . . . . . . . . . . 124
5.11 Restriction de la fonction périodique. . . . . . . . . . . . . . 125
5.12 Dérivée de la fonction restreinte. . . . . . . . . . . . . . . . . 125
5.13 Dérivée seconde de la fonction restreinte. . . . . . . . . . . . 126
5.14 Fonction gaussienne. . . . . . . . . . . . . . . . . . . . . . . 127

6.1 Système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130


6.2 Stabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.3 Exemple d’un SLIT. . . . . . . . . . . . . . . . . . . . . . . . 135
6.4 SLIT: Filtre de 1er ordre. . . . . . . . . . . . . . . . . . . . . 135
6.5 Entrée du filtre: exponentielle décroissante d’un côté. . . . . 136
6.6 Filtre passe-bas idéal. . . . . . . . . . . . . . . . . . . . . . . 140
6.7 Signal d’horloge. . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.8 La sortie du filtre. . . . . . . . . . . . . . . . . . . . . . . . . 142
6.9 Circuit RLC. . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.10 Circuit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.11 Filtre RC passe-bas. . . . . . . . . . . . . . . . . . . . . . . . 145
xii LISTE DES FIGURES

6.12 Filtre RLC. . . . . . . . . . . . . . . . . . . . . . . . . . . . 146


6.13 Exemple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.14 Filtre actif de second ordre. . . . . . . . . . . . . . . . . . . 149
6.15 Convolution de rectangles pour t < −1 ou t > 1. . . . . . . . 151
6.16 Convolution de rectangles pour -1 < t < 0. . . . . . . . . . . 151
6.17 Convolution de rectangles pour 0 < t < 1. . . . . . . . . . . 151
6.18 Résultat du produit de convolution du rectangle par une
exponentielle décroissante. . . . . . . . . . . . . . . . . . . . 155
6.19 Convolution par un peigne de Dirac. . . . . . . . . . . . . . 161
6.20 Effet du filtrage. . . . . . . . . . . . . . . . . . . . . . . . . . 165

7.1 Échantillonnage. . . . . . . . . . . . . . . . . . . . . . . . . . 170


7.2 Spectre du signal échantillonné. . . . . . . . . . . . . . . . . 171
7.3 Recouvrement spectral (aliasing). . . . . . . . . . . . . . . . 172
7.4 Échantillonnage de signaux à bande étroite. . . . . . . . . . 176
7.5 Reconstruction du signal x(t). . . . . . . . . . . . . . . . . . 176
7.6 Reconstruction du signal x(t), modulation à l’aide de ω1 − ∆ω.177
7.7 Copies de X(ω). . . . . . . . . . . . . . . . . . . . . . . . . . 178
7.8 Repliement du spectre. . . . . . . . . . . . . . . . . . . . . . 179
7.9 Signal échantillonné à une fréquence inférieure à la limite. . 180
7.10 Filtrage de garde. . . . . . . . . . . . . . . . . . . . . . . . . 181
7.11 Effet du filtre antirepliement sur l’échantillonage d’un rect-
angle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
7.12 Transformée de Fourier. . . . . . . . . . . . . . . . . . . . . . 183
7.13 Système bloqueur d’ordre zero. . . . . . . . . . . . . . . . . 184
7.14 Interpolation linéaire. . . . . . . . . . . . . . . . . . . . . . . 186
7.15 Reconstruction du signal x(t) . . . . . . . . . . . . . . . . . 187

8.1 Modulation. . . . . . . . . . . . . . . . . . . . . . . . . . . . 190


8.2 Modulation DBSP. . . . . . . . . . . . . . . . . . . . . . . . 191
8.3 Spectre du signal modulé DBSP. . . . . . . . . . . . . . . . . 192
8.4 Multiplication de m(t) par c(t). . . . . . . . . . . . . . . . . 193
8.5 Modulateur en anneau. . . . . . . . . . . . . . . . . . . . . . 194
8.6 Démodulation cohérente. . . . . . . . . . . . . . . . . . . . . 195
8.7 Modulation double bande avec porteuse. . . . . . . . . . . . 197
8.8 Démodulation double bande avec porteuse. . . . . . . . . . . 198
8.9 Démodulation double bande avec porteuse, point de vue
spectral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
8.10 Circuit de détection d’enveloppe. . . . . . . . . . . . . . . . 200
8.11 Modulation à bande latérale unique. . . . . . . . . . . . . . . 201
LISTE DES FIGURES xiii

8.12 Modulation à bande latérale unique. . . . . . . . . . . . . . . 202


8.13 Démodulation BLU cohérente. . . . . . . . . . . . . . . . . . 202
8.14 Démodulation BLU cohérente, erreur de phase. . . . . . . . 203
8.15 Démodulation BLU cohérente, erreur de fréquence. . . . . . 204
8.16 Modulation à bande latérale résiduelle. . . . . . . . . . . . 206
8.17 Fonction de transfert d’un filtre permettant la modulation
BLR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
8.18 Modulation de fréquence. . . . . . . . . . . . . . . . . . . . 208
8.19 Spectre raies, modulation. . . . . . . . . . . . . . . . . . . . 211
8.20 Multiplexage en fréquence. . . . . . . . . . . . . . . . . . . 214
8.21 Démodulation hétérodyne. . . . . . . . . . . . . . . . . . . 215
xiv LISTE DES FIGURES
Avant-Propos

Ces notes de cours sont destinées à des étudiants de deuxième année de bac
en génie électrique ou informatique. Les 5 premiers chapitres sont consacrés
à l’étude mathématique des séries et des transformées de Fourier. Les quatre
autres chapitres sont consacrés aux applications de l’analyse de Fourier. Le
chapitre 6 offre une introduction à la notion de filtrage, le chapitre 7 est
une étude de l’échantillonnage et, enfin, le chapitre 8 donne un aperçu des
différentes méthodes de communication analogique.

xv
xvi AVANT-PROPOS
Chapitre 1

Les séries complexes

1.1 Les nombres complexes

Dans l’ensemble de ce cours la notion de fonction de nombres complexes


va être omniprésente. Il est donc important de bien connaı̂tre les nombres
complexes et de savoir les manipuler avec aisance.

Soit z un nombre complexe. Voici quelques notions élémentaires à rete-


nir:

1
2 CHAPITRE 1. LES SÉRIES COMPLEXES

La forme cartésienne z = x + jy où (x, y) ∈ Re2

La forme polaire z = r ejθ = r(cos θ + j sin θ)


où r ∈ [0, +∞[ et θ ∈ [−π, π[

Le conjugué z ∗ = x − jy = re−jθ

La partie réelle Re(z) = x = 21 (z + z ∗ ) = r cos θ

La partie imaginaire Im(z) = y = 1


2j (z − z ∗ ) = r sin θ
p √
Le module |z| = x2 + y 2 = r = zz ∗

La phase ou l’argument < z = arg(z) = θ = tan−1 (y/x)

Exponentielle complexe ejθ = cos θ + j sin θ


e−jθ = cos θ − j sin θ
cos θ = 12 (ejθ + e−jθ )
1
sin θ = 2j (ejθ − e−jθ )

1.1.1 Manipulation des limites


Soit z(t) = x(t) + jy(t) une fonction complexe d’une variable réelle t avec
x(t) et y(t) deux fonctions réelles. Pour tout réel t0 nous aurons:

lim z(t) = lim [x(t) + jy(t)] = lim x(t) + j lim y(t).


t→t0 t→t0 t→t0 t→t0

Soit zn = xn + jyn une suite complexe et xn et yn deux suites réelles. La


relation sur les limites donne:

lim zn = lim [xn + jyn ] = lim xn + j lim yn .


n→∞ n→∞ n→∞ n→∞

De même la relation pour la limite d’une série complexe donne:


n
" n # n n
X X X X
lim zi = lim (xi + jyi ) = lim xi + j lim yi .
n→∞ n→∞ n→∞ n→∞
i=0 i=0 i=0 i=0

Autrement dit, peu importe la forme du nombre complexe et l’opération


qui lui est appliquée, on peut toujours décomposer en la somme d’une partie
réelle et d’une partie imaginaire.
1.2. QUELQUES NOTIONS À CONNAÎTRE 3

1.2 Quelques notions à connaı̂tre


Nous allons essayer par un exemple simple d’introduire ici quelques no-
tions sur la théorie des espaces de Hilbert (produit scalaire, norme, base
orthonormée). Prenons l’ensemble Re2 (c’est l’ensemble des vecteurs dans
le plan: ~v = [x, y]) et rappelons quelques notions élémentaires:

Figure 1.1 Coordonnées u-v.

D E
• Le produit scalaire de deux vecteurs est : ~v · v~0 = ~v , v~0 = xx0 +yy 0 .
√ p
• La norme d’un vecteur est: k~v k = ~v · ~v = x2 + y 2 .
• Deux vecteurs sont orthogonaux si et seulement si leur produit sca-
laire est nul.
• On dit qu’une base (~u, ~v ) est orthonormée si h~u, ~v i = 0 et k~uk =
k~v k = 1.
• Dans une base orthonormée tout vecteur peut être mis sous la
forme w~ = x~u +y~v , x et y sont les coordonnées du vecteur dans
la base (~u, ~v ). De plus, les relations suivantes sont vérifiées:
x = hw,
~ ~ui et y = hw,~ ~v i.

Le principe des séries de Fourier est exactement le même que celui d’avoir
des coordonnées dans une base orthonormale. Seulement, cette fois, au lieu
de travailler dans l’espace Re2 , nous allons nous placer dans l’espace des
fonctions T-périodiques de carré intégrable que nous allons noter L2 [0, T ].
allons chercher une base orthonormale qui nous permettra de représenter
chaque fonction à partir des coordonnées dans cette base.
4 CHAPITRE 1. LES SÉRIES COMPLEXES

1.3 Rappel sur la parité

Figure 1.2 Exemple d’une fonction paire.

Figure 1.3 Exemple d’une fonction impaire.

• On dit que fp (t) est une fonction paire si fp (−t) = fp (t).

• On dit que fp (t) est une fonction impaire si fp (−t) = −fp (t).

• Le produit de deux fonctions paires est pair.

• Le produit de deux fonctions impaires est pair.


1.4. FONCTIONS PÉRIODIQUES 5

• Le produit d’une fonction paire et d’une fonction impaire est impair.

• Toute fonction peut s’écrire comme la somme d’une fonction paire et


d’une fonction impaire.

Figure 1.4 La partie paire et la partie impaire d’une fonction


quelconque.

On note fev (t) = 1/2 [fp (t) + fp (−t)] la partie paire de fp (t).
On note fod (t) = 1/2 [fp (t) − fp (−t)] la partie impaire de fp (t).1

1.4 Fonctions périodiques


1.4.1 L’ensemble L2 [0, T ]
• Soit f(t) une fonction d’une variable réelle. On dit que f est T-
périodique si et seulement si:

f (t + T ) = f (t).
Par exemple, cos(t) est une fonction de période 2π.

• On dit que f(t) est une fonction de carré intégrable sur [a, b] si et
seulement si:
Zb
|f (t)|2 dt < ∞.
a

• L’ensemble des fonctions T-périodiques et de carré intégrable sur l’in-


tervalle [−T /2, T /2] est noté L2 [0, T ].
1
On reconnait ici la forme des formules d’Euler pour le cosinus qui est pair et le sinus
impair.
6 CHAPITRE 1. LES SÉRIES COMPLEXES

Cet ensemble est d’autant plus intéressant qu’il regroupe l’ensemble des
signaux périodiques que l’on rencontre dans la pratique. Nous verrons un
peu plus loin qu’il correspond aux signaux de puissance finie.

1.4.2 Définitions
• Le produit scalaire de deux fonctions T-périodiques est défini de la
manière suivante:

ZT /2
1
hf, gi = f (t)g ∗ (t)dt,
T
−T /2

le choix des bornes d’intégration n’est pas important. On peut faire


l’intégration sur n’importe quel intervalle de longueur T .

• La norme d’une fonction périodique est:


 1
ZT /2 2

1
|f (t)|2 dt = hf, f i.
p
kf k = 

T
T /2

• deux fonctions sont orthogonales si et seulement si leur produit


scalaire est nul.

Exemple f (t) = cos(t) et g(t) = sin(t), f (t) et g(t) sont des fonctions
périodiques de période T = 2π. Calculons leur produit scalaire pour savoir
si f et g sont orthogonales:
Zπ  π
1 1
hf, gi = cos(t) sin(t)dt = sin2 (t) = 0.
2π 4π −π
−π

Donc sin(t) et cos(t) sont orthogonales.

1.4.3 La famille des exponentielles complexes


Définition
Nous allons à présent chercher une base orthonormée “ intéressante ” de
l’ensemble L2 [0, T ]. Pour cela, nous allons introduire la famille de fonction
S = (fn (t))n∈Z telle que:
1.4. FONCTIONS PÉRIODIQUES 7


fn (t) = ejnω0 t avec ω0 = et n entier.
T0
S est l’ensemble des exponentielles complexes.

S = . . . , e−2jω0 t , e−jω0 t , 1, ejω0 t , e2jω0 t , . . . .




Propriétés de la famille S
• Tous les éléments de S sont dans L2 [0, T0 ](c’est à dire sont de période
To ).

cos(ω0 t) et sin(ω0 t) sont de période T0 = ω0 .

• Les éléments de S sont orthogonaux.

Démonstration il s’agit de montrer que hfn , fm i = 0 pour tout n 6= m.


T
Z0 /2
1
hfn , fm i = exp {jω0 t (n − m)} dt
T0
−T0 /2

exp {jω0 t (n − m)} T0 /2


 
=
jT0 ω0 (n − m) −T0 /2
1 1 h j(n−m)π i
= e − e−j(n−m)π
π(n − m) 2j
1
= sin {(n − m)π}
π(n − m)
= 0 si n 6= m.

• Les éléments de S sont tous normés (c’est à dire de norme 1).

Démonstration
 1  1
T
Z0 /2 2 T
Z0 /2 2

1 jnω0 t 2 1
kfn k =  e dt =  dt = 1.
 
T0 T0
−T0 /2 −T0 /2

• la famille des exponentielles complexes S forme une base orthonormée


de L2 [0, T0 ].

La démonstration est très difficile et ne nous intéresse pas dans le cadre de


ce cours.
8 CHAPITRE 1. LES SÉRIES COMPLEXES
Chapitre 2

Séries de Fourier

2.1 Introduction
Comme S est une base de L2 [0, T0 ] chaque fonction fp (t)1 peut se mettre
sous la forme:
+∞
X
fp (t) = F (n)ejnω0 t . (2.1)
n=−∞

Cette opération est purement équivalente à écrire w~ = xî + y ĵ + z k̂ pour


représenter un vecteur dans l’espace cartésien 3D comme une somme pondérée
des vecteurs de base.
Les coefficients F (n) représentent les coordonnées de fp (t) dans S. Ils
sont aussi appelés les coefficients de la série complexe de Fourier. Le
calcul des coefficients F(n) peut se faire grâce au produit scalaire puisque S
est une base orthonormée:
T
Z0 /2
1
F (n) = fp (t), e jnω0 t
= fp (t)e−jnω0 t dt. (2.2)
T0
−T0 /2

Encore une fois, l’opération est analogue à ce qu’on ferait dans un espace
cartésien. Pour obtenir les valeurs de x,y et z à partir de w,
~ il faut calculer
les produits scalaires avec les vecteurs de base î , hatj et k̂. On remarque
le signe négatif de l’argument de l’exponentielle complexe. Celui-ci provient
de la définition du produit scalaire qui fait intervenir le conjugé complexe.
1
L’indice p fait référence à la périodicité. Nous allons garder cette notation dans la
suite.

9
10 CHAPITRE 2. SÉRIES DE FOURIER

L’équation 2.1 est appelée l’équation de synthèse et l’équation 2.2 est


appelée l’équation d’analyse.

Démonstration Faisons la preuve rapide de l’équation 2.2. Pour cela,


multiplions l’équation 2.1 par e−jmω0 t /T0 et intégrons-la sur une période:

T
Z0 /2 T
Z0 /2 +∞
1 1 X
fp (t)e−jmω0 t dt = e−jmω0 t F (n)ejnω0 t dt.
T0 T0 n=−∞
−T0 /2 −T0 /2

Dans certains cas on peut intervertir l’ordre de l’intégrale et de la somma-


tion. Nous allons admettre qu’une telle interversion est possible2 . Le second
membre devient alors une somme dont le seul terme non nul est F (m) à cause
de l’orthonormalité de S.
Nous aurons donc bien:

T
Z0 /2
1
F (m) = fp (t)e−jmω0 t dt.
T0
−T0 /2

Les séries de Fourier peuvent être vues de deux points de vue. Dans
le premier, on connaı̂t la fonction fp (t) et on cherche les coefficients F (n)
(à partir de l’équation 2.2). C’est une analyse dans laquelle on passe de la
considération temporelle de fp (t) comme une fonction analytique à sa con-
sidération fréquentielle à l’aide des coefficients F (n). Dans la pratique il ex-
iste des analyseurs qui, à partir d’un signal, nous donnent la représentation
dans le domaine des fréquences.
Le second point de vue est l’inverse du premier, c’est à dire qu’on connaı̂t
le contenu fréquentiel F (n) et on cherche à retrouver l’expression analytique
de la fonction fp (t) (grâce à l’équation 2.1). Les appareils qui font ceci sont
des synthétiseurs.

2.1.1 Quelques définitions


• Nous noterons fp (t) ⇔ F (n) la fonction fp (t) qui admet un dévelop-
pement en série de Fourier F (n).
2
Nous verrons plus loin quelles restrictions cette condition va nous donner.
2.1. INTRODUCTION 11

• F (0) est la valeur moyenne de fp (t). En effet nous avons:


T
Z0 /2
1
F (0) = fp (t)dt.
T0
−T0 /2

F (0) est appelée la composante continue (ou encore valeur DC) du


signal.

• F (−1)e−jω0 t + F (1)ejω0 t est appelé la fondamentale du signal ou la


première harmonique.
• F (−n)e−jnω0 t + F (n)ejnω0 t est appelé la nième harmonique du sig-
nal.

Figure 2.1 La fonction porte périodisée.

2.1.2 Un exemple - porte périodisée


La fonction fp (t) que nous allons traiter est la fonction porte périodisée. Son
graphique est celui de la Figure 2.1.
La période de la fonction est T0 = 4. Donc ω0 = 2π/T0 = π/2.
L’expression analytique de fp (t) sur une période est:

 0 si −2 ≤ t < −1
fp (t) = 1 si −1 ≤ t < 1 .
0 si 1≤t<2

12 CHAPITRE 2. SÉRIES DE FOURIER

Figure 2.2 Coefficients de la série de Fourier pour la fonction


porte périodisée.

Calculons les coefficients de la série de Fourier:

T
Z0 /2 Z1
1 −jnω0 t 1
F (n) = fp (t)e dt = e−jnω0 t dt
T0 4
−T0 /2 −1
1
1 e−jnω0 t

1 1  
= = e−jnπ/2 − ejnπ/2
4 −jnω0 −1 4 −jnπ/2
1 1  jnπ/2 
= e − e−jnπ/2
nπ 2j
sin(nπ/2)
= .

• Pour les valeurs paires de n (on peut mettre n sous la forme n = 2k


avec k entier) F(n) = 0
• Pour les valeurs impaires de n (on peut mettre n sous la forme n =
2k+1 avec k entier)
(−1)k
F (n) = .

Le sinus a complètement disparu dans cette expression. Celui-ci ne
sert qu’à faire osciller les coefficients entre des valeurs positives et
négatives. La norme (ou l’enveloppe) varie pendant ce temps en 1/n.
2.1. INTRODUCTION 13

• Pour n = 0, il faut faire un calcul de limite. On sait qu’autour de 0


sin(x) ≈ x, donc pour n proche de 0 nous aurons :

1 sin(nπ/2) 1 nπ/2 1
F (n) = ≈ = .
2 nπ/2 2 nπ/2 2
et ainsi F (0) = 1/2.


 F (0) = 1/2
• En résumé :3 F (2k) = 0 pour. k 6= 0 .
 F (2k + 1) = (−1)k (2k + 1) π

La valeur moyenne ou valeur DC est 1/2. La fondamentale est:

e−jtπ/2 ejtπ/2 2
h(1) = + = cos(πt/2).
π π π
La seconde harmonique est nulle, etc.

2.1.3 La fonction sinus cardinal


On définit la fonction sinus cardinal de la manière suivante:
sin(πx)
Sinc(x) = .
πx
Cette fonction se retrouve très souvent dans le cadre de l’analyse des sig-
naux, c’est pourquoi nous allons l’étudier d’un peu plus près. Remarquer la
disparition du facteur π dans l’argument du Sinc. Les zéros de la fonction
Sinc sont aux entiers non nuls.

• Sinc(0) = 1 en effet lorsqu’on est proche de 0 sin(πx) ≈ πx.


• Sinc(n) = 0 pour tout entier naturel n non nul.
• lim Sinc (x) = 0.
x→±∞

• Sinc(x) est une fonction paire.

Certains auteurs utilisent la fonction Sa(x) définie par Sa(x) = sin(x)/x.


Cette fonction possède bien évidemment les mêmes propriétés que la précé-
dente à un facteur d’échelle près. Les zéros de la fonction Sa sont aux
multiples non nuls de π.
3
Remarquer la méthode d’écriture pour discriminer les valeurs paires des valeurs im-
paires.
14 CHAPITRE 2. SÉRIES DE FOURIER

Figure 2.3 La fonction sinus cardinal, Sinc(x).

Figure 2.4 La fonction Sinc(n/2).


2.2. PROPRIÉTÉS DE LA SÉRIE DE FOURIER 15

Exemple Si on reprend l’exemple précédent nous aurons:

1 sin(nπ/2) 1
F (n) = = Sinc(n/2).
2 nπ/2 2

Les coefficients F (n) représentent en fait un échantillonnage de la fonc-


tion Sinc(x) et la fonction Sinc(x) est l’enveloppe des coefficients F (n).

2.2 Propriétés de la série de Fourier


2.2.1 Notations et Définitions
Nous allons introduire ici les notations polaire et cartésienne utilisées pour
les coefficients F (n).

• Représentation cartésienne: F (n) = A(n) + jB(n).

• Représentation polaire: F (n) = |F (n)| ejθ(n) .

Les relations entre les représentations polaire et cartésienne sont données


dans le chapitre 1.
Pour visualiser les coefficients de Fourier on utilise la forme polaire qui
nous permet de représenter l’amplitude et la phase dans un graphique en
fonction de n. La représentation de l’amplitude en fonction de n est le
spectre d’amplitude et celle de la phase est le spectre de phase Comme
n est une variable discrète on dit que le spectre est discret.

Exemple Nous allons encore reprendre l’exemple du signal de la porte


périodisée. Nous avions:
1
F (n) = Sinc(n/2).
2

F (0) = 1/2
, F (1) = F (−1) = 1/π,
F (2) = F (−2) = 0,
F (3) = F (−3) = −1/3π, . . .

Ainsi, comme F (n) est réelle, le spectre d’amplitude correspond à la


représentation de la valeur absolue des coefficients F (n) en fonction de n.
16 CHAPITRE 2. SÉRIES DE FOURIER

Figure 2.5 Spectre d’amplitude de la porte périodisée.

Figure 2.6 Spectre de phase de la porte périodisée.


2.2. PROPRIÉTÉS DE LA SÉRIE DE FOURIER 17

Cherchons à présent le spectre de phase. Rappelons tout d’abord que


la phase d’un nombre réel vaut 0 si le nombre est positif et vaut π ou −π
s’il est négatif. Un problème se pose pour le choix entre π et −π lorsque
le nombre est négatif. Le choix se fera de manière à ce que la phase soit
impaire. Donc:

θ(0) = 0,
θ(1) = θ(−1) = 0,
θ(2) = θ(−2) = 0,
θ(3) = π (ce qui est un choix arbitraire) et
θ(−3) = −θ(3) = −π (pour que la phase soit impaire) .

Nous verrons plus loin pourquoi on fait ce choix.

2.2.2 Propriétés
On suppose que fp (t) est réelle et que fp (t) admet un développement en
série de Fourier F (n).

1. Si fp (t) réelle ⇔ F ∗ (n) = F (−n).

2. A(n) et |F (n)| sont paires. B(n) et θ(n) sont impaires.

3. fev (t) admet un développement en série de Fourier dont les coefficients


sont A(n) et fod (t) admet un développement en série de Fourier dont
les coefficients sont jB(n).

4. F (n) est réel et pair si et seulement si fp est paire.

5. F (n) est imaginaire pur et impair si et seulement si fp est impaire.

Démonstration Propriété 1.
Il faut démontrer les deux sens:
 ∗
T
Z0 /2 T
Z0 /2
∗ 1 −jnω0 t  1 ∗
fp∗ (t) e−jnω0 t dt,

F (n) =  fp (t)e dt =
T0 T0
−T0 /2 −T0 /2
18 CHAPITRE 2. SÉRIES DE FOURIER

∗
or e−jnω0 t = ejnω0 t et fp∗ (t) = fp (t) car fp (t) est réelle, d’où:


T
Z0 /2
∗ 1
F (n) = fp (t)e−j(−n)ω0 t dt = F (−n).
T0
−T0 /2

Pour l’autre sens, on suppose que F ∗ (n) = F (−n) donc:


T
Z0 /2 T
Z0 /2
1 1
F ∗ (n) − F (−n) = fp∗ (t)ejnω0 t dt − fp (t)ejnω0 t dt = 0,
T0 T0
−T0 /2 −T0 /2

d’où:
T
Z0 /2
1
fp∗ (t) − fp (t) ejnω0 t dt = 0 pour tout n entier naturel.
 
T0
−T0 /2

Cette équation signifie que la fonctionfp∗ (t) − fp (t) admet un dévelop-


pement en série de Fourier dont tous les coefficients sont nuls. Or la seule
fonction dont les coefficients de la série de Fourier sont tous nuls est la
fonction identiquement nulle. Ainsi: fp∗ (t) − fp (t) = 0 pour tout t réel ou
encore: fp∗ (t) = fp (t) ce qui signifie que fp (t) est réelle.

Démonstration Propriété 2.
Ces propriétés sont une conséquence directe de la propriété 1.
Nous avons:

F (−n) = A(−n) + jB(−n) et F ∗ (n) = A(n) − jB(n).

Or nous venons de montrer que: F ∗ (n) = F (−n). Par conséquent en iden-


tifiant les parties réelles et imaginaires nous aurons: 4

A(−n) = A(n) et B(−n) = −B(n).

Ce qui signifie tout simplement que A(n) est pair et que B(n) est impair.
Ce qui explique le choix fait un peu plus tôt.
De la même façon nous avons:

F (−n) = |F (−n)| ejθ(−n) et F ∗ (n) = |F (n)| e−jθ(n) .


4
Lorsqu’on a une équation avec des nombres complexes, les parties imaginaires doivent
être égales et les parties réelles doivent être égales ; on a donc, en fait, deux équations.
2.2. PROPRIÉTÉS DE LA SÉRIE DE FOURIER 19

En identifiant le module et l’argument dans F ∗ (n) = F (−n) on obtient:

|F (−n)| = |F (n)| et θ(−n) = −θ(n).

Ce qui signifie tout simplement que |F (n)| est pair et que θ(n) est impaire.

Démonstration Propriété 3
Nous allons montrer que fev (t) = 1/2 [fp (t) + fp (−t)] admet un dévelop-
pement en série de Fourier dont les coefficients sont A(n). Notons provisoire-
ment C(n) les coefficients de la série de Fourier de fev (t). Nous aurons:
T
Z0 /2
1 1
C(n) = [fp (t) + fp (−t)] e−jnω0 t dt = [F (n) + F (−n)] .
2T0 2
−T0 /2

En effet:
T
Z0 /2 −T
Z 0 /2
1 −jnω0 t −1 0
fp (−t)e dt = fp (t0 )ejnω0 t dt0
T0 T0
−T0 /2 T0 /2
T
Z0 /2
1 0
= fp (t0 )e−j(−n)ω0 t dt0
T0
−T0 /2
= F (−n).

Or d’après la propriété 1. F ∗ (n) = F (−n), Donc:


1
C(n) = [F (n) + F ∗ (n)] = Re [F (n)] = A(n).
2
De la même façon on montre que fod (t) = 1/2 [fp (t) − fp (−t)] admet
un développement en série de Fourier dont les coefficients sont jB(n). La
démonstration est laissée en exercice.

Démonstration Propriété 4
Nous allons montrer que F (n) est réel et pair si et seulement si fp (t) est
paire.
F (n) réel et pair est équivalent à B(n) = 0 pour tout n et A(n) paire.
Or, B(n) = 0 pour tout n est équivalent à fod (t) = 1/2 [fp (t) − fp (−t)] = 0
(d’après la propriété 3.) d’où fp (−t) = fp (t) et ainsi fp (t) est paire.
On montre de la même façon que F (n) est imaginaire pur et impair si
et seulement si fp (t) est impaire.
20 CHAPITRE 2. SÉRIES DE FOURIER

Figure 2.7 La fonction porte périodisée.

2.2.3 Exemples d’utilisation des propriétés


Cas d’une fonction paire
Reprenons l’exemple de la fonction porte périodisée.
Nous avons trouvé que:
1
F (n) = Sinc(n/2).
2

Figure 2.8 La fonction rampe périodisée

La fonction fp (t) est réelle et paire. Par conséquent F (n) sera réel et
pair (propriété 4), ce qui se vérifie aisément avec l’expression des coefficients
F(n).
2.2. PROPRIÉTÉS DE LA SÉRIE DE FOURIER 21

Cas d’une fonction impaire


Nous prenons l’exemple de la fonction rampe périodisée. L’expression ana-
lytique de cette fonction sur une période est: fp (t) = t pour −1 ≤ t < 1. La
période est T0 = 2 et ainsi la fréquence fondamentale est ω0 = π.
La fonction fp (t) est réelle et impaire donc avant même de faire le calcul
des coefficients F (n), on peut savoir que:

• F ∗ (n) = F (−n) (propriété 1).


• A(n) et |F (n)| sont pairs. B(n) et θ(n) sont impairs (propriété 2).
• F (n) est imaginaire pur et impair (propriété 4). Par conséquent
A(n) =0 et θ(n) = ±π/2.

Calculons les coefficients:


T
Z0 /2 Z1
1 −jnω0 t 1
F (n) = fp (t)e dt = te−jnπt dt.
T0 2
−T0 /2 −1
R R
On intègre par partie (Rappel: udv = [uv] − vdu) en posant u = t et
dv = e−jnπt . Nous aurons: du = 1 et v = e−jnπt −jnπ (à condition que


n 6= 0). D’où :
1 Z1
1 te−jnπt

1
F (n) = + e−jnπt dt
2 −jnπ −1 2jnπ
−1
−1 1  −jnπt 1
ejnπ + e−jnπ +

= e −1
2jnπ 2(nπ)2
j 1
ejnπ − e−jnπ

= cos (nπ) − 2
nπ 2(nπ)
n
(−1) j
= j − sin (nπ)
nπ (nπ)2 | {z }
→0
(−1)n
= j .

Cette expression est valable pour tout n non nul. Calculons maintenant
F (0).
Z1  1
1 1 t2
F (0) = tdt = = 0.
2 2 2 −1
−1
22 CHAPITRE 2. SÉRIES DE FOURIER

Figure 2.9 Le spectre d’amplitude de la fonction rampe


périodisée.

(
F (0) = 0
En résumé: n .
F (n) = j (−1)
nπ pour n 6= 0

Figure 2.10 Le spectre de phase de la fonction rampe périodisée.

Les propriétés sont bien vérifiées puisque:


n −n
• F ∗ (n) = −j (−1) (−1)
nπ = j −nπ = F (−n).

• A(n) = 0 .
1
• |F (n)| = |n|π est pair.
(−1)n
• B(n) = nπ est impair (B(0) = 0).
2.2. PROPRIÉTÉS DE LA SÉRIE DE FOURIER 23

• θ(n) = π/2 pour n pair et positif ou n impair et négatif, θ(n) = −π/2


pour n impair et positif ou n pair et négatif et enfin θ(0) = 0 donc
θ(n) est impair (propriété 2).

• F (n) est imaginaire pur et impair.

Figure 2.11 Fonction quelconque

Cas d’une fonction réelle quelconque


Prenons la fonction ci-contre. Son expression analytique est:

0 pour −1 ≤ t < 0
fp (t) = .
t pour 0 ≤ t < 1

La période est T0 = 2 et ainsi la fréquence fondamentale est ω0 = π.


La fonction fp (t) est réelle donc avant même de faire le calcul des coef-
ficients F (n), on peut savoir que:

• F ∗ (n) = F (−n) (propriété 1).

• A(n) et |F (n)| sont pairs. B(n) et θ(n) sont impairs (propriété 2).

• fev (t) admet un développement en série de Fourier dont les coefficients


sont A(n)et fod (t) admet un développement en série de Fourier dont
les coefficients sont jB(n). (propriété 3).

fod (t) correspond en fait à la moitié de la fonction de l’exemple précédent.


Nous pouvons donc dire dès maintenant que B(n) = (−1)n /2nπ et B(0) = 0.
On ne peut malheureusement rien dire de A(n) car on n’a pas étudié la
fonction fev (t).
24 CHAPITRE 2. SÉRIES DE FOURIER

L’équation pour fp (t) est



0 pour −1 ≤ t < 0
fp (t) =
t pour 0 ≤ t < 1

Nous pouvons chercher la partie paire et impaire en utilisant les définitions.

1 1
fev (t) = fp (t) + fp (−t),
2 2
 
1 0 −1 ≤ t < 0 1 0 −1 ≤ −t < 0
fev (t) = 2 +2
 t 0≤t<1  −t 0 ≤ −t < 1
1 0 −1 ≤ t < 0 0 1≥t≥0
= 2 + 12
 t 0≤t<1  −t 0 ≥ t > −1
1 0 −1 ≤ t < 0 −t −1 ≤ t < 0
= 2 + 12
 t 0≤t<1 0 0≤t<1
1 −t −1 ≤ t < 0
= 2 t 0≤t<1
et
1 1
fod (t) = fp (t) − fp (−t)
2 2
 
1 0 −1 ≤ t < 0 1 0 −1 ≤ −t < 0
fod (t) = 2 −2
 t 0≤t<1  −t 0 ≤ −t < 1
1 0 −1 ≤ t < 0 0 1≥t≥0
= 2 − 12
 t 0≤t<1  −t 0 ≥ t > −1
1 0 −1 ≤ t < 0 −t −1 ≤ t < 0
= 2 − 12
 t 0≤t<1 0 0≤t<1
1 t −1 ≤ t < 0
= 2 = t/2,
t 0≤t<1

qui est pareille à l’exemple de la section 2.2.3 Figure 2.8, sauf pour le facteur
d’une demie.
Cherchons les coefficients F (n) :

T
Z0 /2 Z1
1 −jnω0 t 1
F (n) = fp (t)e dt = te−jnπt dt.
T0 2
−T0 /2 0

Comme dans l’exemple précédent on intègre par partie:


2.3. THÉORÈME DE PARSEVAL 25

1 Z1
1 te−jnπt

1
F (n) = + e−jnπt dt
2 −jnπ 0 2jnπ
0
−e−jnπ 1  −jnπt 1
= + e 0
2jnπ 2(nπ)2
(−1)n 1
e−jnπ − 1

= j + 2
2nπ 2(nπ)
n
(−1) − 1 (−1)n
= +j .
2(nπ)2 2nπ

Comme précédemment il faut faire le calcul de F(0) séparément:

Z1  1
1 1 t2 1
F (0) = tdt = = .
2 2 2 0 4
0

En résumé:

 F (0) = 1/4
j
F (n) = F (n) = 2nπ pour n pair .
−1 1
F (n) = n2 π2 − j 2nπ pour n impair

On remarque que l’ensemble des propriétés est vérifié et en particulier l’ex-


pression de B(n) est bien celle attendue.

2.3 Théorème de Parseval


2.3.1 Introduction à la notion de puissance d’un signal
On définit la puissance moyenne dans une période d’un signal périodi-
que fp (t) par :
T
Z0 /2
1
P= |fp (t)|2 dt.
T0
−T0 /2

on peut aussi dire que P = kfp (t)k2 .


Nous avons travaillé avec des fonctions de carré intégrable jusqu’ici. Nous
voyons ici une interprétation physique de cette notion. En effet, si une fonc-
tion est de carré intégrable alors elle est aussi de puissance finie. Les signaux
26 CHAPITRE 2. SÉRIES DE FOURIER

de puissance sont donc des fonctions de carré intégrable et on comprend


mieux pourquoi cette notion mathématique nous intéresse.
Prenons le cas d’un circuit avec une seule résistance de 1 Ohm auquel on
applique une tension v(t) périodique. La puissance instantanée sera donnée
par:
v 2 (t)
P (t) = v(t)i(t) = = v 2 (t).
R
Si on cherche maintenant à calculer la puissance moyenne sur une période
nous aurons:
T
Z0 /2 T
Z0 /2
1 1
P = P (t)dt = v 2 (t)dt.
T0 T0
−T0 /2 −T0 /2

La définition que nous avons introduite a donc bien un sens physique. Il est
important de se rappeler que le module au carré d’un signal est proportionel
à la puissance du signal. En pratique, on ignore souvent la constante de
proportionalité (l’impédance) et on associe le module au carré à la puissance.

2.3.2 Théorème de Parseval


Soit fp (t) une fonction de L2 [0, T0 ] (c’est à dire une fonction de puissance
finie) qui admet un développement en série de Fourier F (n). La puissance
moyenne peut aussi s’exprimer en fonction des coefficients de Fourier:
T
Z0 /2 +∞
1 2
X
P = |fp (t)| dt = |F (n)|2 .
T0 n=−∞
−T0 /2

Nous allons donner deux démonstrations. La première est basée sur le fait
que la famille des exponentielles complexes est une base de L2 [0, T0 ]. La
seconde est une manipulation de sommes infinies et d’intégrales.

Démonstration Première façon


Nous avions vu pour les vecteurs en deux dimensions (cf. paragraphe
1.1.2) que la norme pouvait s’écrire k~v k2 = x2 + y 2 , où x et y sont les
coordonnées du vecteur dans une base orthonormée.
L’ensemble L2 [0, T0 ] possède les mêmes propriétés que l’ensemble des
vecteurs en deux dimensions . Par conséquent, la norme d’une fonction peut
être calculée à partir des coordonnées de cette fonction dans une base or-
thonormale. Comme la famille des exponentielles complexes forme une base
orthonormale de L2 [0, T0 ], toute fonction fp (t) qui admet un développement
2.3. THÉORÈME DE PARSEVAL 27

+∞
en série de Fourier F (n) vérifiera kfp (t)k2 = |F (n)|2 (on prend le mod-
P
n=−∞
ule de F (n) parce que F (n) est en général complexe).
Comme nous avons vu que P = kfp (t)k2 , le théorème est démontré.

Démonstration Seconde façon

+∞ +∞
( )( )
X X
fp (t)fp∗ (t) = F (n)ejnω0 t F ∗ (m)e−jmω0 t
n=−∞ m=−∞
+∞
X X +∞
= F (n)F ∗ (m)ejnω0 t e−jmω0 t .
m=−∞ n=−∞

Or:
T
Z0 /2
1 2
P = kfp (t)k = fp (t)fp∗ (t)dt.
T0
−T0 /2

Donc:
T
Z0 /2 +∞ +∞
( )
1 X X
P = F (n)F ∗ (m)ejnω0 t e−jmω0 t dt.
T0 n=−∞ m=−∞
−T0 /2

On peut intervertir l’intégration et la double sommation (à cause de


l’hypothèse de puissance finie)5 et, en constatant que F (n) ne dépend pas
de t, on aura:
T
Z0 /2
+∞ +∞
X X 1
P = F (n)F ∗ (m) ejnω0 t e−jmω0 t dt
n=−∞ m=−∞
T0
−T0 /2
+∞
X +∞
X
= F (n)F ∗ (m) ejnω0 t , ejmω0 t .
n=−∞ m=−∞

Or: ejnω0 t , ejmω0 t = 1 seulement si n = m et 0 sinon. La somme double


devient donc une somme simple et
+∞
X +∞
X
P = ∗
F (n)F (n) = |F (n)|2 .
n=−∞ n=−∞
5
On peut faire l’inversion lorsque les sommes (discrètes et continues) convergent.
28 CHAPITRE 2. SÉRIES DE FOURIER

2.4 Spectre de Puissance


Ce théorème nous permet de calculer la puissance moyenne sur une période
à partir de son analyse fréquentielle (c’est à dire grâce à ses coefficients de
Fourier). On peut ainsi déterminer la puissance P (n) présente à chaque
fréquence. On aura P (n) = |F (n)|2 . À partir de cette notion, on peut
représenter la puissance en fonction de la variable n; cette représentation
s’appelle le spectre de puissance. Comme les spectres d’amplitude ou de
phase, ce spectre est discret car la fonction est périodique.

Exemple En gardant toujours l’exemple du signal porte nous aurons le


spectre de puissance de la Figure 2.12.

Figure 2.12 Spectre de puissance.

• On peut aussi connaı̂tre la puissance présente dans chaque harmonique.


Par exemple, la puissance présente dans la troisième harmonique sera:

P (3eme harmonique) = |F (3)|2 + |F (−3)|2 .

• Pour une fonction réelle le spectre de puissance P(n) est pair.

• Le spectre de puissance est simplement le carré du spectre d’amplitude.

2.4.1 Exemples
Exemple 1
Soit fp (t) = 4 + 2 cos(3t).
2.4. SPECTRE DE PUISSANCE 29

On peut trouver directement les coefficients de Fourier en utilisant la


formule de passage du cosinus à l’exponentielle:

fp (t) = e−3jt + 4 + e3jt .

D’où

F(0) = 4, F(-3) = F(3) = 1 et F(n) = 0 autrement.

Comme on a pris comme convention6 que F(3) = 1, nous avons ω0 = 1 et


ainsi la période est T0 = 2π. On peut donc dire directement que la puissance
moyenne est:
P = 1 + 42 + 1 = 18
Vérifions ce résultat par le calcul:
T
Z0 /2 Zπ
1 2 1
P = |fp (t)| dt = (4 + 2 cos(3t))2 dt
T0 2π
−T0 /2 −π

1
16 + 16 cos(3t) + 4 cos2 (3t) dt.

=

−π

L’intégrale d’un cosinus sur un multiple de la période est nulle, donc:


Zπ Zπ
16 4
P = dt + cos2 (3t)dt
2π 2π
−π −π

4 1 + cos(6t)
= 16 + dt
2π 2
−π

4 dt
= 16 + = 16 + 2 = 18.
2π 2
−π

Exemple 2
Reprenons la fonction du paragraphe 2.2.3. L’expression analytique de
cette fonction sur une période est: fp (t) = t pour −1 ≤ t < 1. La période
est T0 = 2 et ainsi la fréquence fondamentale est ω0 = π.
6
En pratique il est préférable de choisir que la fréquence fondamentale de notre signal
est à F (1). Dans cet exemple, on pourrait vouloir considérer simultanément à fp (t) un
autre signal qui serait tel que ωo = 1.
30 CHAPITRE 2. SÉRIES DE FOURIER

Les coefficients de Fourier sont:


(
F (0) = 0
n
F (n) = j (−1)
nπ pour n 6= 0.

Calculons la puissance directement:


T
Z0 /2 Z1 1
t3

1 2 1 2 1
P = |fp (t)| dt = t dt = = .
T0 2 6 −1 3
−T0 /2 −1

La puissance peut aussi se calculer par le théorème de Parseval, d’où:


+∞ +∞
X 1 2 X 1 1
P = 2 2
= 2 2
= .
n π π n 3
n=1
n = −∞
n 6= 0

On en déduit un résultat bien connu:


+∞
X 1 π2
= .
n2 6
n=1

2.4.2 La série de Fourier réelle


Nous avons vu que toute fonction fp (t) ε L2 [0, T0 ] pouvait se mettre sous la
forme d’une série de Fourier complexe. Quand de plus fp (t) est réelle, on
peut aussi mettre cette fonction sous la forme d’une série de Fourier réelle:
∞ ∞
a0 X X
fp (t) = + a(n) cos(nω0 t) + b(n) sin(nω0 t).
2
n=1 n=1

Nous allons montrer que les formes complexe et réelle de la série de Fourier
sont équivalentes dans le cas des fonctions réelles. Cependant, seule la série
de Fourier complexe peut représenter un signal temporel complexe. De
plus, il est généralement plus facile mathématiquement de manipuler les
exponentielles complexes plutôt que les fonction trigonométriques.
Partons de la série complexe:

X
fp (t) = F (n) exp(njω0 t).
n=−∞
2.4. SPECTRE DE PUISSANCE 31

Introduisons les parties réelle et imaginaire:



X
fp (t) = [A(n) + jB(n)] [cos(nω0 t) + j sin(nω0 t)]
n=−∞
X∞
= [A(n) cos(nω0 t) − B(n) sin(nω0 t)]
n=−∞
X∞
+ j [A(n) sin(nω0 t) + B(n) cos(nω0 t)].
n=−∞

La partie imaginaire ci-dessus est nulle parce que la fonction A(n) sin(nω0 t)+
B(n) cos(nω0 t) est impaire en fonction de n. Comme la somme est symétrique,
la somme des éléments négatifs (n négatifs) s’annule parfaitement avec la
somme des éléments positifs (n positifs).
En effet, comme fp (t) est réelle nous aurons A(-n) = A(n) et B(-n) =
-B(n) . Il viendra donc:


X
fp (t) = [A(n) cos(nω0 t) − B(n) sin(nω0 t)]
n=−∞

X
= A(0) + 2 [A(n) cos(nω0 t) − B(n) sin(nω0 t)].
n=1

On peut alors en déduire que:

a(n) = 2A(n) = 2Re [F (n)] = F (n) + F ∗ (n)


b(n) = −2B(n) = −2Im [F (n)] = 1/j [F ∗ (n) − F (n)] .

On peut en déduire les formules de calcul direct de a(n) et b(n).

T
Z0 /2
2
a(n) = fp (t) cos(nω0 t)dt
T0
−T0 /2
T
Z0 /2
2
b(n) = fp (t) sin(nω0 t)dt.
T0
−T0 /2
32 CHAPITRE 2. SÉRIES DE FOURIER

2.5 Aspects Mathématiques


Nous avons précédemment que toute fonction de L2 [0, T0 ] pouvait se mettre
sous la forme:
+∞
X
fp (t) = F (n)ejnω0 t (équation 2.1)
n=−∞

et que:

T
Z0 /2
1
F (n) = fp (t)e−jnω0 t dt (équation 2.2).
T0
−T0 /2

L’équation 2.2 est toujours valide; il est donc toujours possible d’analyser
un signal de l’ensemble L2 [0, T0 ]. Par contre, d’un point de vue rigoureuse-
ment mathématique, l’équation 2.1 n’est pas toujours valide. Si on calcule
les coefficients F (n) à partir d’une fonction fp (t), on n’est pas assuré que la
+∞
F (n)ejnω0 t converge bien en tout point vers fp (t).
P
série Φ(t) =
n=−∞

Exemple Dans la paragraphe 2.1.2 nous avons trouvé les coefficients de la


série de Fourier pour la porte périodisée. Ces coefficients sont:

1 (−1)k π
F (0) = ; F (2k) = 0 ; F (2k + 1) = ; ω0 = .
2 (2k + 1) π 2

Posons


X
Φ (t) = F (n) ejnω0 t .
n=−∞

Avec cette définition et en utilisant les valeurs de F (n) et ω0 dans l’exemple


de paragraphe 2.1.2, nous avons:
∞ ∞
X
j(2k+1) π2 t 1 X (−1)k π
Φ (t) = F (0) + F (2k + 1) e = + ej(2k+1) 2 t .
2 (2k + 1) π
k=−∞ k=−∞

Nous examinons la valeur pour t=1, un point de discontinuité



1 X (−1)k π
Φ (t = 1) = + ej(2k+1) 2 .
2 (2k + 1) π
k=−∞
2.5. ASPECTS MATHÉMATIQUES 33

Pour simplifier l’expression, nous écrivons l’exponentielle complexe dans la


forme trigonométrique :

1 X (−1)k h  π  π i
Φ (t = 1) = + cos (2k + 1) + j sin (2k + 1)
2 (2k + 1) π 2 2
k=−∞

1 X (−1)k h  π i
= + j sin (2k + 1) .
2 (2k + 1) π 2
k=−∞

comme l’argument du cosinus est un multiple impair de π/2, ce terme est


nul, donc

1 X (−1)k j  π
Φ (t = 1) = + sin (2k + 1)
2 (2k + 1) π 2
k=−∞

1 X (−1)k j
= + (−1)k
2 (2k + 1) π
k=−∞

1 X j
= + .
2 (2k + 1) π
k=−∞

Nous avons aussi utilisé que l’argument du sinus est un multiple impair π/2,
ce terme est ±1. La somme infinie est nulle, comme nous le voyons ici.
 
1 j 1 1 1 1 1 1
Φ (t = 1) = + + + + ··· + + + + ···
2 π 1 3 5 −1 −3 −5
1 1
= +0= .
2 2
Nous allons chercher des conditions suffisantes sur la fonction fp (t)
pour que cette convergence soit assurée en tout point.
Les conditions que nous allons trouver ne sont toutefois pas nécessaires,
c’est-à-dire qu’il existe des fonctions qui ne satisfont pas à la condition
suffisante et qui convergent tout de même. La recherche de conditions
nécessaires et suffisantes reste encore aujourd’hui un problème ouvert en
mathématique.

2.5.1 Deux conditions suffisantes de convergence de la série


de Fourier
Théorème du carré integrable
Toute fonction fp (t) de L2 [0, T0 ] possède une décomposition en coefficients
de série complexe de Fourier (c’est-à-dire que les coefficients F (n) existent
34 CHAPITRE 2. SÉRIES DE FOURIER

quel que soit n) et, de plus, l’égalité



X
fp (t) = F (n)ejnω0 t ,
n=−∞

est vérifiée partout sauf pour un ensemble discret de valeurs de t.


Ce théorème confirme bien ce que nous avons vu jusqu’à présent et les
valeurs de t pour lesquelles la convergence n’a pas lieu sont des points de
discontinuité de la fonction fp (t).

Exemple Dans le paragraphe 2.1.2, nous avons vu la fonction porte péri-


odisée qui avait des points de discontinuité pour t impair (t = ±1, t = ±3,
etc...). Or, on constate que lorsqu’on calcule la série de Fourier en ces points,
on obtient un résultat différent de celui de la fonction fp (1) = 0 alors que
+∞
X
Φ(1) = F (n)ejnω0 = 0.5.
n=−∞

Théorème de Fourier
Nous allons voir une seconde condition suffisante intéressante basée sur le
critère de Dirichlet.
Critère de Dirichlet
Une fonction fp (t) vérifie le critère de Dirichlet si et seulement si

• fp (t) est bornée et


• sur chaque intervalle de longueur d’une période, fp (t) possède un nom-
bre fini de discontinuités et d’extréma locaux.

Dans la pratique, les signaux dans la nature satisfont le critère de Dirich-


let.
Théorème de Fourier :
Toute fonction périodique fp (t) vérifiant le critère de Dirichlet possède
une décomposition en coefficients de série complexe de Fourier (c’est-à-dire
que les coefficients F (n) existent quel que soit n) et, de plus, la série converge
vers fp (t) en tout point t où fp (t) est continue et vers 1/2 [fp (t− ) + fp (t+ )]
aux points de discontinuité.

Exemple La fonction du paragraphe précédent satisfait le critère de Dirich-


let; on peut donc appliquer le théorème ci-dessus au point t = 1:
fp (1− ) = 1, fp (1+ ) = 0 et Φ(1) = 0.5.
2.5. ASPECTS MATHÉMATIQUES 35

Nous avons donc bien:

Φ(1) = 1/2 fp (1− ) + fp (1+ ) .


 

• D’un point de vue ensembliste, les fonctions périodiques qui satisfont


le critère de Dirichlet forment un sous-ensemble de l’espace L2 [0, T0 ].

• Le critère de Dirichlet peut être remplacé par un autre critère un peu


plus restrictif mais plus facile à vérifier. Le théorème de Fourier sera
valable pour toute fonction fp (t) qui vérifie que

– fp (t) est continue sauf peut-être en un nombre fini de points et


que
– fp (t) possède une dérivée continue sauf peut-être en un nombre
fini de points.

1/n

1/n2

Figure 2.13 Deux taux de convergence.

2.5.2 Vitesse de convergence de la série de Fourier


Dans la pratique, lorsqu’on synthétise un signal à partir des coefficients
F (n),on utilise un ordinateur dont les capacités numériques sont limitées.
+∞
F (n)ejnω0 t , calculons ΦN (t) =
P
Au lieu de calculer la somme Φ(t) =
n=−∞
+N
F (n)ejnω0 t . Le problème qui se pose alors est de savoir comment la
P
n=−N
différence eN (t) = fp (t) − ΦN (t) évolue en fonction de N . Dans la suite,
nous allons donner des indications sur la vitesse de convergence de la suite
ΦN (t) en fonction de fp (t).
36 CHAPITRE 2. SÉRIES DE FOURIER

Comparaison des taux (vitesses) de convergence


On compare la vitesse de convergence par rapport à des puissances de 1/n.
2
1/n tend moinsvite vers zéro que 1 n ; par conséquent, une série qui con-
verge comme 1 n2 convergera plus rapidement qu’une série qui converge
comme 1/n.

Comment trouver la vitesse de convergence?


Pour une fonction fp (t) réelle on peut mettre la série de Fourier sous la
forme (cf. para 2.4.2):
+∞
X +∞
X +∞
X
jnω0 t
Φ(t) = F (n)e = A(n) cos(nω0 t)− B(n) sin(nω0 t).
n=−∞ n=−∞ n=−∞

Si on arrive à montrer que |A(n)| < K ni et |B(n)| < K 0 ni pour n suff-


 

isamment grand, alors on dira que Φ(t) converge comme 1 ni .

• Si |A(n)| < K ni , |B(n)| < K 0 nk pour n suffisamment grand, alors


 

on dira que Φ(t) converge comme 1 nl avec l = min(i, k).

• Les mêmes résultats sont valables pour a(n) et b(n).

Vitesse de convergence en fonction de la régularité de fp (t)


• Si fp (t) n’est pas continue, alors la convergence se fait comme pour
1/n.
En effet, dans ce cas on peut montrer que |A(n)| < K/n et |B(n)| <
K 0 /n.

• Si fp (t) est continue et fp0 (t) n’est pas continue alors la conver-
gence se fait comme 1 n2 .

• Si fp (t)et fp0 (t) sont continues 00


 3 et fp (t) n’est pas continue, la
convergence se fait comme 1 n .

Résumé
Dans la pratique, il y a deux façon d’évaluer la vitesse de convergence:

• Soit en regardant la régularité de la fonction fp (t).

• Soit en regardant les coefficients A(n) et B(n) ( ou a(n) et b(n) ).


2.5. ASPECTS MATHÉMATIQUES 37

φ3(t) φ11(t)
1

Rect(t)

t
-1 0 1

Figure 2.14 Exemple de vitesse de convergence de la série de


Fourier.

Exemple Nous allons reprendre l’exemple du signal porte périodisée. Nous


savons que cette fonction possède des discontinuités aux points (t=-1, t=1,
t=3, etc...). Ainsi la convergence de la série se fait comme pour 1/n.
On peut aussi montrer ceci avec les coefficients F (n). En effet :
1
F (n) = A(n) = sinc(n/2).
2
et
|sin(nπ/2)| 1/π
|A(n)| = < .
|nπ| |n|
L’influence de la vitesse de convergence au niveau des points de disconti-
nuité peut se voir sur ce graphique où on a représenté la série ΦN (t) pour
différentes valeurs de N. (N=3 et N=11).
38 CHAPITRE 2. SÉRIES DE FOURIER
Chapitre 3

Transformée de Fourier

3.1 De la série de Fourier à l’intégrale de Fourier


Jusqu’à présent, nous avons vu uniquement les fonctions périodiques. Nous
ne pouvons toutefois pas nous contenter d’un outil qui ne traite que ces
fonctions. Nous allons voir, de manière heuristique, comment on peut passer
de l’analyse que nous avons faite sur les fonctions périodiques à une analyse
qui s’applique à toutes les fonctions.
Prenons une fonction f (t) de carré intégrable qui a la propriété suivante:
Z ∞
|f (t)|2 dt < ∞.
−∞

Nous allons définir la restriction de f (t) sur l’intervalle [−T0 /2, T0 /2] de la
manière suivante:

f (t) si t ∈ [−T0 /2, T0 /2]
fr (t) =
0 sinon.

Dans la Figure 3.1, on peut voir que si on fait tendre T0 vers l’infini, alors
fr (t) tend vers f (t). De plus, on peut rendre la fonction fr (t) périodique de
période T0 . Notons fp (t) la fonction périodisée de fr (t).
La fonction fp (t), que nous avons définie, peut se décomposer en série
de Fourier puisqu’elle est périodique et de carré intégrable. Nous pouvons
donc écrire les deux relations suivantes:
T
Z0 /2
+∞
X 1
fp (t) = F (n)e jnω0 t
et F (n) = fp (t)e−jnω0 t dt.
n=−∞
T0
−T0 /2

39
40 CHAPITRE 3. TRANSFORMÉE DE FOURIER

f(t)

0 t

Figure 3.1 Fonction non-périodique.

Comme fp (t) est la fonction périodisée de fr (t), nous aurons aussi:


+∞
X
fr (t) = F (n)ejnω0 t pour − T0 /2 ≤ t ≤T0 /2.
n=−∞

et
T
Z0 /2
1
F (n) = fr (t)e−jnω0 t dt.
T0
−T0 /2

Si on fait tendre T0 vers l’infini, on aura une analyse de Fourier pour une
fonction f (t) non périodique et de carré intégrable puisque lim fr (t) =
T0 →∞
f (t).
Nous allons commencer en nous intéressant tout d’abord à la seconde
équation:
T
Z0 /2
1
F (n) = fr (t)e−jnω0 t dt.
T0
−T0 /2

Le problème à ce niveau-ci est que, si on fait tendre T0 vers l’infini, les


coefficients vont tendre vers zéro. Ceci ne nous intéresse pas. Nous allons
donc prendre uniquement l’intégrale sans le facteur 1/T0 :
T
Z0 /2
fr (t)e−jnω0 t dt.
−T0 /2
3.1. DE LA SÉRIE DE FOURIER À L’INTÉGRALE DE FOURIER 41

fp(t)

fr(t) T0=1

-T0/2 T0/2 -T0/2 T0/2


0 t 0 t
fp(t)

T0=2
fr(t)

-T0/2 T0/2 -T0/2 T0/2


0 t 0 t

fp(t)

fr(t) T0=3

-T0/2 T0/2
0 t -T0/2 0 T0/2 t

restriction de la fonction périodisation de la fonction

Figure 3.2 Restriction et périodisation d’une fonction non-


périodique.
42 CHAPITRE 3. TRANSFORMÉE DE FOURIER

ω0=1

ω0=1/2

ω0=1/5

Figure 3.3 Suite ωn pour différentes valeurs de ωo .

On peut constater que T0 apparaı̂t à trois endroits dans l’intégrale: deux


fois dans les bornes d’intégration (où le passage à la limite ne pose pas
de problème) et une fois sous la forme nω0 = 2πn/T0 . Ce dernier terme
correspond à une suite discrète de termes que l’on peut noter ωn = nω0 .
Pour un ω0 fixé on va donc atteindre un certain ensemble de valeurs. Mais
plus T0 devient grand, plus ω0 devient petit et plus on peut atteindre de
valeurs. Comme le montre la Figure 3.3.
Par conséquent, on voit intuitivement que, quand on passe à la limite
sur T0 , la suite ωn va atteindre toutes les valeurs réelles et ainsi devenir une
variable continue que nous allons noter ω.
On peut alors calculer la limite de l’intégrale:
Z To /2 Z ∞ −jωt
−jnωo t
lim fr (t) e dt = f (t) e dt.
To →∞ −To /2 −∞

Cette intégrale dépend de ω qui est une variable continue; c’est donc une
fonction que nous allons noter F (ω). Ainsi,
+∞
Z
F (ω) = f (t) e−jωt dt.
−∞

Intéressons-nous à présent à l’autre équation.


+∞
X
fr (t) = F (n)ejnω0 t pour − T0 /2 ≤ t ≤T0 /2.
n=−∞

Nous allons commencer en remplaçant le terme F (n) par son expression:


 
T 0 /2
+∞
X 1 Z
fr (t) = f (t)e−jnω0 t dt ejnω0 t pour − T0 /2 ≤ t ≤T0 /2.

T

n=−∞ 0
−T0 /2
3.2. LA TRANSFORMÉE DE FOURIER 43

On peut remplacer 1/T0 par ω0 /2π.


 
T
Z0 /2
+∞
1 X
fr (t) = ω0  f (t)e−jnω0 t dt ejnω0 t pour − T0 /2 ≤ t ≤T0 /2.
 
2π n=−∞
−T0 /2

De plus, intuitivement, quand on fait tendre T0 vers l’infini, ω0 devient


infiniment petit et, par conséquent, la somme infinie se transforme en une
intégrale:
   
T
Z0 /2

 1 X +∞ 

−jnω0 t  jnω0 t
lim fr (t) = lim ω0  f (t)e dt e

T0 →∞  2π n=−∞
T0 →∞  

−T0 /2
pour − T0 /2 ≤ t < T0 /2.
+∞
 +∞ 
Z Z
1
= dω  f (t)e−jωt dt ejωt ∀t ∈ Re.

−∞ −∞

+∞
f (t)e−jωt dt
R
Nous avons, de plus, f (t) = lim fr (t). En remplaçant
T0 →∞ −∞
par F (ω), on obtient finalement:

+
Z∞
1
f (t) = F (ω) ejωt dω.

-∞

Nous avons donc introduit, de manière très naturelle, les deux équations fon-
damentales de l’analyse de Fourier pour les fonctions non-périodiques. Ces
équations sont tout simplement une prolongation des équations de l’analyse
en série de Fourier.

3.2 La transformée de Fourier


3.2.1 Généralités
Nous venons de voir, de façon intuitive, que les équations de la série de
Fourier pour les fonctions périodiques pouvaient être étendues aux fonctions
non périodiques. Nous allons donc admettre le théorème suivant (théorème
de Plancherel):
44 CHAPITRE 3. TRANSFORMÉE DE FOURIER

Toute fonctionf (t) de carré intégrable admet une transformée de Fou-


rier F (ω) appelée aussi spectre complexe. La relation de transformation
directe ou l’équation de synthèse est:
+
Z∞
1
f (t) = F (ω) ejωt dω.

-∞
et la relation de transformation inverse ou l’équation d’analyse est:
+∞
Z
F (ω) = f (t) e−jωt dt.
−∞

Dans la suite, nous adopterons la notation suivante: f (t) ⇔ F (ω) pour dire
que F (ω) est la transformée de Fourier de f (t). Nous dirons aussi que f (t)
est la transformée inverse de F (ω) .

3.2.2 Remarques importantes


• Nous avions vu que la série de Fourier correspondait en fait à la décom-
position des fonctions périodiques dans une base orthonormale. Cette
interprétation est encore valable, mais, cette fois-ci, au lieu d’avoir une
base discrète, nous avons une base continue. Ceci nous permet donc de
décomposer n’importe quel signal (de carré intégrable) en une somme
continue d’exponentielles complexes.
• La fonction F (ω) nous permet de visualiser le contenu fréquentiel de
la fonction de départ f (t). Nous avons donc un outil de passage entre
le domaine temporel et le domaine fréquentiel.
• Nous avons uniquement parlé de fonctions de carré intégrable. Nous
verrons dans la section 3.5 que d’autres fonctions possèdent aussi une
transformée de Fourier bien définie.
• Nous verrons un peu plus tard, grâce à la notion de distribution, que
la transformée de Fourier d’une fonction périodique existe et qu’elle
est presque identique à la série de Fourier.
• Il est intéressant de constater qu’à la fréquence nulle(dc), on a:
+∞
Z
F (0) = f (t)dt.
−∞
3.2. LA TRANSFORMÉE DE FOURIER 45

• et qu’à l’instant t=0, on a:


+∞
Z
1
f (0) = F (ω)dω.

−∞

Attention ! Pour la série de Fourier, la valeur à zéro était liée à la valeur


moyenne du signal temporel. Pour la transformation de Fourier, la valeur à
zéro du spectre est égale à l’aire totale sous la courbe du signal temporel. Il
est important de comprendre cette distinction. Elle est liée à l’absence de
normalisation par la durée d’intégration qui devient infinie dans le cas de la
transformation.

Définitions équivalentes
.
Dans la littérature, on peut trouver d’autres façons équivalentes de
définir la transformée de Fourier.
Tout d’abord, on peut utiliser une variable f qui soit une fréquence (nous,
nous utilisons plutôt une pulsation). Pour éviter des confusions de notation
on appelle alors traditionnellement x (t) le signal et X (f ) sa transformée de
Fourier. Les relations sont alors:

+
Z∞ +∞
Z
x (t) = X (f ) e j2πf t
df et X (f ) = x (t) e−j2πf t dt.
-∞ −∞

On peut constater que le terme 1/2π a disparu. L’analyse est cependant


exactement la même qu’avec notre définition. Il s’agit en fait d’un simple
changement de variable.
L’autre façon de définir la transformée de Fourier consiste à répartir le
facteur 1/2π entre l’équation d’analyse et de synthèse. Les relations sont
alors:
+
Z∞ +∞
Z
1 1
f (t) = √ jωt
F (ω) e dω et F (ω) = √ f (t) e−jωt dt.
2π 2π
-∞ −∞

3.2.3 Exemple - La fonction rectangle


Exemple Nous allons reprendre l’exemple du signal porte mais non pério-
disé cette fois-ci. Ce signal est en général appelé rectangle avec l’expression
46 CHAPITRE 3. TRANSFORMÉE DE FOURIER

Rect(t/τ)
1

0
−τ/2 τ/2 t

Figure 3.4 La fonction rectangle.

F(ω) τ

−2π/τ 2π/τ
0 ω

Figure 3.5 Transformée de Fourier de la fonction rectangle.

analytique
  
1 si t ∈ [−τ /2, τ /2] t
f (t) = = Rect .
0 sinon τ

Nous allons utiliser la notation:


 
t − centre
Rect .
largeur

pour un rectangle centré sur “t=centre”, de hauteur un et d’une largeur


donnée par “largeur”. Pour trouver la transformée de Fourier nous faisons:
3.3. PROPRIÉTÉS DE LA TRANSFORMÉE DE FOURIER 47

+∞
Z Zτ /2
−jωt
F (ω) = f (t)e dt = e−jωt dt
−∞ −τ /2
τ /2
e−jωt 1  jωτ /2 
= = e − e−jωτ /2
−jω −τ /2 jω
2 sin (ωτ /2)
= sin (ωτ /2) = τ
ω ωτ /2
= τ Sa (ωτ /2) .

Si on regarde le spectre de cette fonction (Figure 3.5) on constate que


plus τ est petit, plus la bande centrale du spectre va s’étaler (ce qui signifie
qu’il y aura plus de fréquences présentes dans le signal). Ceci nous montre
un peu la dualité entre temps et fréquence.

3.3 Propriétés de la transformée de Fourier


3.3.1 Notations et Définitions
Comme pour les séries de Fourier, nous allons introduire les notations polaire
et cartésienne.

• représentation cartésienne: F (ω) = A (ω) + jB (ω)

• représentation polaire: F (ω) = |F (ω)| ejθ(ω)

Pour visualiser la transformée de Fourier, on utilise la forme polaire qui


nous permet de représenter l’amplitude et la phase dans un graphique en
fonction de ω. La représentation de l’amplitude est le spectre d’amplitude
et celle de la phase est le spectre de phase. Comme ω est une variable
continue, on dit que le spectre est continu.
Nous allons reprendre l’exemple du signal rectangle. Nous avions:

sin (ωτ /2)


F (ω) = τ = τ Sa (ωτ /2) .
ωτ /2

Comme ici F (ω) est réelle, le spectre d’amplitude correspond à la représenta-


tion de la valeur absolue de F (ω).
48 CHAPITRE 3. TRANSFORMÉE DE FOURIER

τ F(ω)

−2π/τ 2π/τ

0 ω

Figure 3.6 Spectre complexe F(ω) de la fonction rectangle


Rect(t/τ )

Cherchons à présent le spectre de phase. En principe, on trouve la phase


grâce à la formule suivante:
 
B (ω)
θ (ω) = tan−1
A (ω)

Par contre, ici on peut trouver la phase plus facilement parce que les coef-
ficients sont réels. La phase d’un nombre réel peut-être seulement −π, 0 ou
π. Pour les valeurs positives et réelles, la phase est zéro. Quand la valeur
est réelle et négative, la phase peut être −π ou π. On va choisir ces valeurs
de phase pour s’assurer que θ(ω) est une fonction impaire, comme on l’a fait
pour la série de Fourier au chapitre 2.

3.3.2 Propriétés pour les fonctions réelles


On suppose que f (t) est réelle et que f (t) ⇔ F (ω) .

1. f (t) réelle ⇔ F ∗ (ω) = F (−ω). C’est une symétrie hermitienne.

2. A (ω) et |F (ω)| sont pairs. B (ω) et θ (ω) sont impairs.

3. La transformée de Fourier de fev (t) est A (ω) et celle de fod (t) est
jB (ω) .

4. F (ω) est réelle et paire si et seulement si f (t) est paire.

5. F (ω) est imaginaire pure et impaire si et seulement si f (t) est impaire.


3.3. PROPRIÉTÉS DE LA TRANSFORMÉE DE FOURIER 49

τ |F(ω)|

−2π/τ 0 2π/τ ω

Figure 3.7 Spectre d’amplitude |F (ω)| de la fonction rectangle.

θ (ω ) π

−2π/τ
0 2π/τ ω

−π

Figure 3.8 Spectre de phase θ(ω) de la fonction rectangle.


50 CHAPITRE 3. TRANSFORMÉE DE FOURIER

Démonstration Propriété 1
Il faut démontrer les deux sens:

 +∞ ∗ +∞
Z Z
∗ −jωt 
F (ω) =  f (t)e dt = f ∗ (t)ejωt dt
−∞ −∞
+∞
Z
= f (t)e−j(−ω)t dt = F (−ω) .
−∞

Seconde direction:
On suppose que F ∗ (ω) = F (−ω) donc:
+∞
Z

F (ω) − F (−ω) = (f ∗ (t) − f (t)) ejωt dt = 0 pour tout ω ∈ Re.
−∞

Ainsi: f ∗ (t)−f (t) = 0 pour tout t réel ou encore: f ∗ (t) = f (t) ce qui signifie
que fp (t) est réelle.

Toutes les autres propriétés se démontrent exactement de la même façon


que pour les séries de Fourier.

Pour un signal réel il est possible de représenter les spectres d’amplitude


et de phase que pour ω > 0 puisqu’on sait que l’amplitude est paire et que
la phase est impaire.

3.3.3 Exemple: La fonction triangle


Nous allons traiter ensemble l’exemple de la fonction triangle définie par le
graphique de la Figure 3.9. L’expression analytique de ce signal est:

 1 + t si −1 ≤ t < 0
f (t) = Tri (t) = 1 − t si 0 ≤ t < 1 .
0 sinon

La fonction triangle est une fonction réelle paire. Nous aurons donc les
propriétés suivantes:

1. F ∗ (ω) = F (−ω) .
3.3. PROPRIÉTÉS DE LA TRANSFORMÉE DE FOURIER 51

Tri(t)
1

0
-1 1 t

Figure 3.9 La fonction triangle.

1
F(ω)

−2π 0 2π ω

Figure 3.10 Spectre d’amplitude dela fonction triangle.


52 CHAPITRE 3. TRANSFORMÉE DE FOURIER

2. A (ω) et |F (ω)| sont pairs, B (ω) et θ (ω) sont impairs.

3. fev (t) = f (t) et fod (t) = 0 donc, F (ω) = A (ω)et B (ω) = 0.

Calculons la transformée de Fourier pour vérifier ces propriétés:


+∞
Z Z0 Z1
F (ω) = f (t)e−jωt dt = (1 + t)e−jωt dt + (1 − t)e−jωt dt
−∞ −1 0
Z1 Z0 Z1
= e−jωt dt + te−jωt dt − te−jωt dt.
−1 −1 0

En évaluant les intégrales on arrive à :

F (ω) =
1 0 Z0 1 Z1
e−jωt te−jωt 1 −jωt te−jωt 1
+ + e dt − − e−jωt dt
−jω −1 −jω −1 jω −jω 0 jω
−1 0
−jωt 0 1
1 ejω e e−jω e−jωt
ejω − e−jω −

= + + −
jω jω ω2 −1 jω ω2 0
1 − ejω e−jω − 1 2 − (ejω + e−jω ) 2 (1 − cos (ω))
= 2
− 2
= 2
=
ω ω ω ω2
2 2
2 2 sin (ω/2) sin (ω/2)
= 2
= 2 = Sa2 (ω/2) .
ω (ω/2)

En résumé: F (ω) = Sa2 (ω/2).


Les propriétés sont bien vérifiées puisque F (ω) est réelle et paire. On
peut noter que la phase vaut toujours zéro car F (ω) ≥ 0 ∀ ω.
Le spectre d’amplitude est donné dans le graphique de la Figure 3.10.

3.3.4 Dualité, dilatation et translation en temps et fréquence


f (t) ⇔ F (ω)
1 F (t) ⇔ (2π) f (−ω) Dualité
2 f (t + a) ⇔ ejωa F (ω) Translation en temps
3 ejbt f (t) ⇔ F (ω − b) Translation en fréquence
1
4 f (at) ⇔ |a| F ωa Effet d’échelle (dilatation)
3.3. PROPRIÉTÉS DE LA TRANSFORMÉE DE FOURIER 53

Démonstration Dualité
+∞
Z +∞
Z
−jωt 1
F (t)e dt = (2π) F (t)ej(−ω)t dt = (2π) f (−ω) .

−∞ −∞

où nous avons reconnu l’équation d’analyse pour la fonction F (t) dans le
temps.

Démonstration Translation en temps

+∞
Z +∞
Z
0
f (t + a)e−jωt dt = f (t0 )e−jω(t −a) dt0 en ayant posé t0 =t+a
−∞ −∞
+∞
Z
0
= e jωa
f (t0 )e−jωt dt0 = ejωa F (ω) .
−∞

où nous avons reconnu l’équation d’analyse dans l’intégrale finale.

Démonstration Translation en fréquence


+∞
Z +∞
Z
 
e jbt
f (t) e−jωt dt = f (t)e−j(ω−b)t dt
−∞ −∞
= F (ω − b) .

Démonstration Effet d’échelle


Pour la quatrième propriété, il faut séparer a > 0 et a < 0.

1. Commençons par a > 0:

+∞ +∞
Z Z
jωt0 dt
0
f (at)e−jωt dt = f (t0 )e− a en posant t0 = at
a
−∞ −∞
+∞
Z
1 0 1 ω 
= f (t0 )e−j(ω/a)t dt0 = F .
a a a
−∞
54 CHAPITRE 3. TRANSFORMÉE DE FOURIER

2. Pour a < 0 nous aurons:

+∞ −∞
Z Z
jωt0 dt
0
f (at)e−jωt dt = f (t0 )e− a en posant t0 = at
a
−∞ +∞
+∞
−1 −1  ω 
Z
0
= f (t0 )e−j(ω/a)t dt0 = F .
a a a
−∞

(les bornes se sont inversées car a < 0.)

• La troisième propriété présente un grand intérêt pour la modulation


des signaux puisqu’en multipliant un signal par une exponentielle com-
plexe on se trouve à décaler son spectre.
• Avec la quatrième propriété, on constate qu’une dilatation temporelle
(a > 1) correspond à une contraction du spectre complexe. Et récipro-
quement une contraction temporelle correspond à une dilatation du
spectre complexe. Ainsi, si nous écoutons un disque 45t et qu’on le lit
à 78t (c’est à dire qu’on fait une contraction temporelle: a = 45/78 ∼=
0.58), nous aurons une tonalité beaucoup plus aiguë (étalement du
spectre vers les hautes fréquences). Par contre, si maintenant on le lit
à 33t (dilatation: a = 45/33 ∼ = 1.36), la tonalité sera beaucoup plus
grave (contraction du spectre vers les basses fréquences).
• La transformée de Fourier de f (t) = Sa2 (t/2) sera:

F (ω) = (2π) T ri (−ω) = (2π) T ri (ω) .

• La transformée de Fourier de la fonction triangle déplacée dans le


temps, f (t) = Tri (t − 1) sera:

F (ω) = e−jω Sa2 (ω/2)

On peut constater que le spectre d’amplitude (Figure 3.12) n’a pas


été modifié; le spectre de phase (Figure 3.13) par contre, ne sera plus
identiquement nul puisque Θ(ω) = −ω (modulo 2π).

• Prenons maintenant la fonction f (t) = sin (5πt) Tri (t), c’est la fonc-
tion triangle modulée (Figure 3.9). La transformée de Fourier de f (t)
sera:
3.3. PROPRIÉTÉS DE LA TRANSFORMÉE DE FOURIER 55

Tri(t-1) 1

0 2 t

Figure 3.11 La fonction triangle déplacée dans le temps, Tri(t −


1).

1
F(ω)

−2π 0 2π ω

Figure 3.12 Spectre d’amplitude de Tri(t − 1).


56 CHAPITRE 3. TRANSFORMÉE DE FOURIER

0 ω

−π

Figure 3.13 Spectre de phase de Tri(t − 1).

-1 1 t

-1

Figure 3.14 La fonction triangle modulée.

1
Sa2 ((ω − 5π)/2) − Sa2 ((ω + 5π)/2) .

F (ω) =
2j
En effet, il suffit d’écrire le sinus comme une somme d’exponentielles com-
plexes.
On peut voir que le spectre d’amplitude du triangle a été dédoublé et
déplacé en +5π et -5π. Les raies du spectre de phase correspondent aux
fréquences pour lesquelles F (ω) = 0. En effet pour ces fréquences la phase
vaut zéro.

• La transformée de Fourier de la fonction f (t) = a1 T ri at avec a > 0




sera:
3.3. PROPRIÉTÉS DE LA TRANSFORMÉE DE FOURIER 57

|F(ω)|
1

−5π 0 5π ω

Figure 3.15 Spectre d’amplitude de la fonction triangle


modulée.

π/2

-π/2

Figure 3.16 Spectre de phase de la fonction triangle modulée.


58 CHAPITRE 3. TRANSFORMÉE DE FOURIER

1/a Tri(t/a)
1/a

-a 0 a t

Figure 3.17 La fonction triangle dilatée.

F(ω) 1

−2π/a 2π/a ω

Figure 3.18 Spectre d’amplitude de la fonction triangle dilatée.

|a| 2
F (ω) = Sa (ωa/2) = Sa2 (ωa/2)
a

On peut voir sur les figures 3.17 et 3.18 que “l’étalement temporel”
correspond bien à une “contraction en fréquence”. Le spectre de phase est
toujours nul puisque F (ω) ≥ 0 ∀ω.

3.3.5 Notion de fréquence


Dans la définition de la transformée de Fourier, nous avons utilisé la variable
ω, qui n’est pas à proprement parlé une fréquence, mais une pulsation. De
plus, cette pulsation peut être négative et ne correspond donc pas à quelque
chose de physique.
Toutefois, par abus de langage, on parle tout de même de fréquence. On
3.4. THÉORÈME DE PARSEVAL 59

dira par exemple qu’on “coupe les hautes fréquences d’un signal” pour dire
qu’on supprime les composantes ejωt pour de grandes valeurs de |ω|.

3.4 Théorème de Parseval


3.4.1 Introduction à la notion d’énergie d’un signal
Pour les séries de Fourier, nous avions introduit la notion de puissance
moyenne du signal sur une période. Comme ici nous n’avons plus des fonc-
tions périodiques, il n’y a aucun intérêt à prendre une puissance moyenne.
Nous allons donc tout simplement prendre l’intégrale du module carré du
signal, c’est à dire son énergie. On définit donc l’énergie d’un signal f (t)
par:
+∞
Z
E= |f (t)|2 dt.
−∞

La notion de carré intégrable prend ici tout simplement le sens d’énergie


finie. Un signal d’énergie finie est parfois appelé signal d’énergie.
Cette définition correspond bien à la notion physique de l’énergie. En
effet, reprenons le cas d’un circuit avec une seule résistance de 1 ohm auquel
on applique une tension v (t). La puissance instantanée sera donnée par:

v 2 (t)
P (t) = v(t)i(t) = = v 2 (t).
R
Si on cherche maintenant à calculer l’énergie totale nous aurons:
+∞
Z +∞
Z
E= P (t)dt = v 2 (t)dt.
−∞ −∞

3.4.2 Théorème de Parseval


Soit f (t) une fonction de L2 [ Re] (c’est à dire une fonction d’énergie)
dont la transformée de Fourier est F (ω). L’énergie peut s’exprimer soit à
l’aide d’une intégrale dans le domaine temporel, soit à l’aide d’une intégrale
dans le domaine fréquentiel:
+∞
Z +∞
Z Z ∞
2 1 2
E= |f (t)| dt = |F (ω)| dω = E (ω)dω.
2π −∞
−∞ −∞
60 CHAPITRE 3. TRANSFORMÉE DE FOURIER

Notons que le facteur de 2π a été absorbé dans la définition du spectre


d’énergie.

Démonstration Nous allons démontrer un résultat un peu plus général


dont le corollaire direct est le théorème de Parseval. Prenons deux fonctions
f (t) et g (t) toutes deux de carré intégrable. Soient F (ω) et G (ω) leurs
transformées de Fourier respectives. Dans ce cas:
+∞
Z +∞
Z
∗ 1
f (t)g (t) dt = F (ω)G∗ (ω) dω.

−∞ −∞

Pour démontrer ce résultat partons de la première partie de l’égalité:


+∞ +∞
 +∞
∗
Z Z  1 Z 
f (t)g ∗ (t) dt = f (t) G (ω) ejωt dω dt.
 2π 
−∞ −∞ −∞

On peut intervertir l’ordre d’intégration grâce au théorème de Fubini,


+∞
Z +∞ Z
Z +∞
1
f (t)g ∗ (t) dt = f (t)G∗ (ω) e−jωt dωdt

−∞ −∞ −∞
+∞
 +∞

Z  1 Z 
= G∗ (ω) f (t)e−jωt dt dω
 2π 
−∞ −∞
+∞
Z
1
= F (ω) G∗ (ω) dω.

−∞

Pour démontrer notre théorème, il suffit de prendre g (t) = f (t).

3.4.3 Spectre d’énergie


On introduit le spectre d’énergie en posant: E (ω) = 2π 1
|F (ω)|2 qui a la
forme d’une densité d’énergie.
À partir de cette notion, on peut représenter l’énergie en fonction de
la fréquence. Comme les spectres d’amplitude ou de phase, ce spectre est
continu (contrairement au spectre de puissance des fonctions périodiques
qui, lui, est discret). Nous pouvons alors aussi définir l’énergie contenue dans
3.4. THÉORÈME DE PARSEVAL 61

t 1
e-b

0 1

Figure 3.19 L’exponentielle décroissante des deux côtés.

une certaine bande de fréquence comme l’intégrale de la densité d’énergie.


En effet, l’énergie présente entre ω1 et ω2 sera donnée par:
Zω2 Zω2
1
E(ω1 ≤ ω ≤ ω2 ) = E (ω) dω = |F (ω)|2 dω.

ω1 ω1

Pour une fonction réelle le spectre d’énergie est pair.

3.4.4 Exemple: L’exponentielle décroissante des deux côtés


Cherchons la transformée de Fourier de la fonction exponentielle décroissante
des deux côtés:
f (t) = e−b|t| avec b > 0.
Afin de pouvoir calculer la transformée de Fourier, nous allons tout d’abord
calculer deux intégrales. On écrit :

f (t) = i1 (t) + i2 (t)


= e−bt U (t) + ebt U (−t) .

Donc

F (ω) = I1 (ω) + I2 (ω)


n o n o
= T F e−bt U (t) + T F ebt U (−t) .
62 CHAPITRE 3. TRANSFORMÉE DE FOURIER

F(ω)
4/b2

-b 0 b ω

Figure 3.20 Spectre de la fonction exponentielle décroissante


des deux côtés.

• La première intégrale concerne la partie positive de la fonction:

+∞
Z
I1 (b, ω) = e−bt e−jωt dt
0
+∞ +∞
e−bt e−jωt
Z
b
= − e−bt e−jωt dt
−jω 0 jω
0
1 b
= − I1 (b, ω) .
jω jω

Utilisons l’intégration par parties1 (u = e−bt ; dv = e−jωt dt), nous en


déduisons donc:
1
I1 (b, ω) = .
b + jω

• La seconde concerne la partie négative de la fonction et se déduit de


la première:
1
Cette intégration peut plus facilement être réalisée directement en combinant les deux
exponentielles en une seule.
3.4. THÉORÈME DE PARSEVAL 63

Z0
I2 (b, ω) = ebt e−jωt dt
−∞
+∞
Z
= e−bt ejωt dt
0
1
= I1∗ (b, ω) = .
b − jω

Nous pouvons à présent calculer la transformée de Fourier de notre fonction:

F (ω) = I1 (b, ω) + I2 (b, ω)


1 1 2b
= + = 2 .
b + jω b − jω b + ω2

Le spectre d’énergie sera donc:

1 4b2
E (ω) = .
2π (b2 + ω 2 )2

Cherchons l’énergie totale de ce signal:


+∞ +∞ +∞
−e−2bt
Z Z
2 1
E= |f (t)| dt = 2 e−2bt dt = = .
b 0 b
−∞ 0

On peut calculer l’énergie contenue dans la bande de fréquences −3b ≤ ω ≤


3b:

Z3b Z3b
1 4b2 2 dω
E (−3b ≤ ω ≤ 3b) = 2 dω = πb2 2 .
2π 2 2

(b + ω ) 1 + (ω/b)2
−3b −3b

Nous allons poser: tan (θ) = ω/b. Nous aurons donc:

dω dω
1 + tan2 (θ) dθ =

ou encore: dθ =  .
b b 1 + (ω/b)2
64 CHAPITRE 3. TRANSFORMÉE DE FOURIER

De plus, nous avons la relation suivante:


1 1 2
2 = 1 + tan2 (θ) = cos (θ) .
1 + (ω/b)
L’énergie cherchée sera ainsi:
Z3b
2 1 dω
E (−3b ≤ ω ≤ 3b) =    
πb 1 + (ω/b) b 1 + (ω/b)2
2
−3b
arctan
Z 3
2
= cos2 (θ) dθ
πb
− arctan 3
arctan(3)
Z
2 cos (2θ) + 1
= dθ
πb 2
− arctan(3)
( )
arctan(3)
1 arctan(3) sin (2θ)
= θ|− arctan(3) +
πb 2 − arctan(3)
1
= {2 arctan (3) + sin [2 arctan (3)]}
πb  
1 2∗3
= 2 arctan (3) + ,
πb 1+9

2u
sachant que sin [2 arctan (u)] = 1+u 2.
On peut enfin en déduire le pourcentage d’énergie présente dans la bande
de fréquences −3b ≤ ω ≤ 3b:
E(−3b ≤ ω ≤ 3b) 2 arctan (3) + 0.6 ∼
%E = = = 98.6%.
E π
On peut donc en déduire que, si on filtre notre signal avec un filtre passe-
bas dont la fréquence de coupure est 3b (c’est-à-dire si on coupe toutes les
fréquences supérieures à 3b), la quasi-totalité de l’énergie de notre signal
sera conservée.

3.5 Aspects mathématiques


3.5.1 Transformée de Fourier dans L2 ( Re)
Pour les séries de Fourier, nous avions défini l’ensemble des fonctions périodi-
ques de carré intégrable sur une période. Jusqu’à présent, dans ce chapitre,
3.5. ASPECTS MATHÉMATIQUES 65

nous avons travaillé avec des fonctions non périodiques de carré intégrable.
L’ensemble de ces fonctions est noté L2 ( Re). Rappelons encore une fois la
définition d’une fonction de carré intégrable:
+∞
Z
|f (t)|2 dt < ∞.
−∞

Pour les fonctions périodiques, la définition n’était pas tout à fait la même
puisqu’on se contentait de vérifier l’intégrabilité sur une période, alors que,
maintenant, c’est sur l’ensemble des réels tout entier.
Nous avons vu que toute fonction de carré intégrable admettait une
transformée de Fourier F (ω) qui est donnée par l’équation:
+∞
Z
F (ω) = f (t)e−jωt dt.
−∞

de plus, nous avons admis que:


+∞
Z
1
f (t) = F (ω)ejωt dω.

−∞

La première équation a toujours un sens lorsque f (t) est une fonction de


L2 ( Re). Par contre, d’un point de vue rigoureusement mathématique, la
seconde équation n’est pas toujours valide. En fait, comme dans le cas des
séries de Fourier, l’égalité:
+∞
Z
1
f (t) = F (ω)ejωt dω

−∞

est valide presque partout, c’est-à-dire sur tout l’ensemble des réels sauf
éventuellement en un nombre fini de points.
La notion “d’égalité presque partout” a un sens mathématique très
précis. En effet, dans notre cas nous aurons:
+∞
 +∞

Z Z
 1 
f (t) − F (ω)ejωt dω dt = 0.
 2π 
−∞ −∞

D’un point de vue physique, ceci peut être vu comme une égalité partout
sauf sur un ensemble de mesure nul. Par exemple, lorsqu’on mesure une
66 CHAPITRE 3. TRANSFORMÉE DE FOURIER

tension électrique avec un voltmètre, on ne pourra pas connaı̂tre la tension


à tout les instants t à cause de l’inertie de l’appareil. Par conséquent, on
pourra mesurer deux signaux et trouver qu’ils sont égaux avec le voltmètre
alors qu’en réalité ils diffèrent. Seulement, comme leur différence existe
seulement sur une durée que l’on ne peut pas mesurer (avec le voltmètre),
on dit tout de même qu’ils sont égaux2 .

3.5.2 Transformée de Fourier pour des fonctions autres que


celles de L2 ( Re)
Tout comme pour les séries de Fourier, il n’est pas nécessaire qu’une fonction
soit dans L2 ( Re) pour que la transformée de Fourier existe. La condition
de carré intégrable est une condition suffisante mais non nécessaire.
Prenons par exemple une fonction intégrable qui vérifie la condition:
+∞
Z
|f (t)| dt < +∞.
−∞

(L’ensemble des fonctions vérifiant cette condition est noté L1 ( Re).) Pour
cette fonction on pourra calculer la transformée de Fourier sans aucun
problème. Par contre, on ne peut pas assurer que la fonction φ(t) =
+∞
1
F (ω) e−jωt dω sera égale à la fonction f (t).
R

−∞
Nous allons donc introduire une condition suffisante pour avoir l’égalité.
Nous aurons, comme dans le cas des séries de Fourier, deux conditions suff-
isantes pour assurer l’égalité entre f (t) et φ (t).

Critère de Dirichlet-Jordan: Une fonction fp (t) vérifie le critère de Di-


richlet-Jordan si et seulement si:

• f (t) est bornée,

• f (t) possède un nombre fini de discontinuités et d’extréma locaux sur


tout intervalle borné et,
+∞
• f (t) est dans L1 ( Re), c’est-à-dire
R
|f (t)| dt < +∞.
−∞

2
En pratique, cela signifie que les signaux sont égaux dans une certaine bande spectrale
limitée par l’instrument de mesure. L’inertie du voltmètre correspond en fait à un filtre
passe-bas appliqué sur le signal mesuré.
3.5. ASPECTS MATHÉMATIQUES 67

Dans la pratique, l’ensemble des signaux que l’on rencontre dans la na-
ture satisfont le critère de Dirichlet-Jordan.
Théorème de Fourier : Toute fonction f (t) vérifiant le critère de
Dirichlet-Jordan possède une transformée de Fourier et, de plus,
+∞
Z
1
f (t) = F (ω) ejωt dω

−∞

en tout point t où f (t) est continue et


+∞
Z
1 1
f (t+ ) + f (t− ) = F (ω) ejωt dω

2 2π
−∞

aux points de discontinuité.


Le critère de Dirichlet peut être remplacé par un autre critère un peu
plus restrictif mais plus facile à vérifier. Le théorème sera valable pour toute
fonction f (t) qui vérifie que

• f (t) est continue sauf peut-être en un nombre fini de points,


• f (t) possède une dérivée continue sauf peut-être en un nombre fini de
points et,
+∞
• f (t) est une fonction de L1 ( Re) c’est-à-dire
R
|f (t)| dt < +∞.
−∞

3.5.3 Bornes asymptotiques


Pour les séries de Fourier, il était intéressant de savoir à quelle “vitesse” les
coefficients F (n) tendaient vers zéro. Il en va de même pour la transformée
de Fourier. En effet, il est important de savoir à quelle “vitesse” l’amplitude
tend vers zéro. La comparaison se fait par rapport à des puissances entières
de 1/ω. Au lieu de parler de “vitesse pour tendre vers zéro” on parlera de
convergence asymptotique.
On peut relier la régularité d’une fonction et sa convergence asympto-
tique.

Si f (t) et ses m premières dérivées sont continues,


mais sa (m+1)ième dérivée ne l’est pas
la convergence asymptotique se fera comme 1 ω m+2

alors
et nous aurons |F (ω)| < |ω|Km+2 pour ω assez grand et K > 0
68 CHAPITRE 3. TRANSFORMÉE DE FOURIER

F(ω)
1

−2π 0 2π ω

Figure 3.21 Spectre d’amplitude de Tri(t).

|F(ω)| τ

−2π/τ 0 2π/τ ω

Figure 3.22 Spectre d’amplitude de Rect(t/τ ).

Pour connaı̂tre la convergence asymptotique, on peut procéder de deux


façons:

• soit on regarde la régularité de la fonctionf (t) ,

• soit on cherche à majorer |F (ω)| par une puissance entière de 1/ω.

Exemple La transformée de Fourier de la fonction triangle est FT ri (ω) =


Sa2 (ω/2) et celle de la fonction rectangle est FRect (ω) = Sa (ω/2) (si on
prend τ = 1).

• La fonction triangle est continue, mais sa dérivée ne l’est pas


 2(donc
m = 0), FT ri (ω) converge donc asymptotiquement comme 1 ω . On
aurait aussi pu arriver à ce résultat en regardant l’amplitude:
3.6. ETUDE DE QUELQUES FONCTIONS INTÉRESSANTES 69

Rect(t/τ)
1

0
−τ/2 τ/2 t

Figure 3.23 La fonction rectangle, Rect(t/τ ).

 2
2 sin (ω/2) 4
|FT ri (ω)| = Sa (ω/2) = ≤
ω/2 |ω|2

• De la même manière, la fonction rectangle est discontinue (donc m=


-1), et FRect (ω) converge asymptotiquement comme 1/ω. Quand on
regarde l’amplitude, on voit que le résultat se confirme:

sin (ω/2) 2
|FRect (ω)| = |Sa (ω/2)| = ≤ .
ω/2 |ω|
• D’un point de vu graphique, on peut voir que le spectre d’amplitude du
triangle (Figure 3.10) décroı̂t beaucoup plus vite que celui du rectangle.

3.6 Etude de quelques fonctions intéressantes


3.6.1 Le rectangle
• L’expression analytique est:

1 si t ∈ [−τ /2, τ /2]
Rect (t/τ ) = .
0 sinon

• Sa transformée de Fourier est:

F (ω) = τ Sa (ωτ /2) .


70 CHAPITRE 3. TRANSFORMÉE DE FOURIER

τ |F(ω)|

−2π/τ 0 2π/τ ω

Figure 3.24 Spectre d’amplitude de Rect(t/τ ).

θ (ω ) π

−2π/τ
0 2π/τ ω

−π

Figure 3.25 Spectre de phase de Rect(t/τ ).

• L’énergie du signal est:


+∞
Z Zτ /2
2
E= |f (t)| dt = dt = τ.
−∞ −τ /2

• Par le théorème de Parseval, on peut en déduire que:


+∞ +∞
τ2
Z Z
1 2
|F (ω)| dω = Sa2 (ωτ /2) dω = τ
2π 2π
−∞ −∞
+∞
Sa2 (x)dx = π.
R
d’où:
−∞
3.6. ETUDE DE QUELQUES FONCTIONS INTÉRESSANTES 71

Tri(t)
1

0
-1 1 t

Figure 3.26 La fonction triangle.

+∞
1
R
• En utilisant le fait que f (0) = 2π F (ω) dω nous aurons:
−∞

+∞
Z +∞
Z
1 1
τ Sa (ωτ /2) dω = Sa (x) dx = 1,
2π π
−∞ −∞

+∞
R
soit: Sa (x) dx = π.
−∞

• Comme la fonction est discontinue la convergence asymptotique se fait


comme 1/ω.

3.6.2 Le triangle
• L’expression analytique est:

1 − |t| si t ∈ [−1, 1]
Tri (t) = .
0 sinon

• Sa transformée de Fourier est:

F (ω) = Sa2 (ω/2) .

• L’énergie du signal est:


+∞
Z
2
E= |f (t)|2 dt = .
3
−∞
72 CHAPITRE 3. TRANSFORMÉE DE FOURIER

F(ω)
1

−2π 0 2π ω

Figure 3.27 Spectre d’amplitude de la fonction triangle.

• Par le théorème de Parseval, on peut en déduire que:

+∞
Z +∞
Z
1 2 1 2
|F (ω)| dω = Sa4 (ω/2) dω = .
2π 2π 3
−∞ −∞

+∞
Sa4 (x)dx = 2π
R
d’où: 3 .
−∞

• Comme la fonction est continue mais que sa dérivée ne l’est pas, la
convergence asymptotique se fait comme 1 ω 2 .

• La phase est toujours nulle.

3.6.3 L’exponentielle décroissante d’un coté

• L’expression analytique est:


 0 si t < 0
f (t) = 1/2 si t = 0 .
 −βt
e si t > 0
3.6. ETUDE DE QUELQUES FONCTIONS INTÉRESSANTES 73

1
f(t)

1/2

0 t

Figure 3.28 L’exponentielle décroissante d’un côté.

F(ω)

0 ω

Figure 3.29 Spectre d’amplitude de l’exponentielle décroissante


d’un côté.

• Sa transformée de Fourier est:

+∞
Z +∞
Z
−jωt
F (ω) = f (t)e dt = e−(jω+β)t dt
−∞ 0
+∞
e−(jω+β)t 1
= = .
−(jω + β) β + jω
0

On en déduit:
74 CHAPITRE 3. TRANSFORMÉE DE FOURIER

θ(ω)

π/2

0
ω

−π/2

Figure 3.30 Spectre de phase de l’exponentielle décroissante


d’un côté.

β −ω
A (ω) = , B (ω) = 2
β2 +ω 2 β + ω2
1
et |F (ω)| = p
β 2 + ω2

• Le spectre de phase sera:


 
−ω
θ (ω) = arctan .
β

• L’énergie du signal est:


+∞ +∞ +∞
e−2βt
Z Z
2 1
E= |f (t)| dt = e−2βt dt = = .
−2β 0 2β
−∞ 0

• Par le théorème de Parseval, on peut en déduire que:


+∞
Z +∞
Z
1 2 1 dω 1
|F (ω)| dω = 2 2
= ,
2π 2π β +ω 2β
−∞ −∞

d’où:
+∞
Z
dx π
= .
β2 +x 2 β
−∞
3.6. ETUDE DE QUELQUES FONCTIONS INTÉRESSANTES 75

fev(t)

1/2

0
t

Figure 3.31 Partie paire.

• Comme la fonction n’est pas continue, la convergence asymptotique se


fait en 1/ω.
• Les parties paire et impaire de cette fonction peuvent être intéressantes
aussi. La partie paire est donnée par:
1
fev (t) = e−β|t| .
2
et elle s’appelle l’exponentielle décroissante de deux côtés (si nous en-
levons le facteur un demi). La partie impaire est donnée par:
 1 −βt
 2e t>0
fod (t) = 0 t=0 .
 1 βt
−2e t<0
Les transformées de Fourier des parties paire et impaire se calculent
aisément:
β
fev (t) ⇔ A (ω) = 2
β + ω2
−jω
fod (t) ⇔ jB (ω) = 2 .
β + ω2
• La transformée de Fourier de la partie paire converge comme 1 ω 2 car


la fonction est continue (mais pas sa dérivée). Par contre, la trans-


formée de Fourier de la partie impaire converge comme 1/ω car la
fonction n’est pas continue.
• La phase de la partie paire est toujours nulle. Celle de la partie impaire
vaut π/2 pour ω < 0 et −π/2 pour ω > 0.
76 CHAPITRE 3. TRANSFORMÉE DE FOURIER

fod(t)

1/2

0
t

-1/2

Figure 3.32 Partie impaire

|Fev(ω)|

0 ω

Figure 3.33 Spectre d’amplitude de la partie paire.


3.6. ETUDE DE QUELQUES FONCTIONS INTÉRESSANTES 77

|Fod(ω)|

0 ω

Figure 3.34 Spectre d’amplitude de la partie impaire.

3.6.4 Résumé des résultats


Fonction Transformée de Fourier
Rect(t/τ ) τ Sa(ωτ /2)
Tri(t/τ ) τ Sa2 (ωτ /2)
e−βt u(t) β+jω
1

e−β|t| β 2 +ω 2
f (t) F (ω)
F (t) 2πf (−ω)
af (t) a F (ω)
f (t + a) jaω
e F (ω)
1
f (at) |a| F (ω/a)
jbt
e f (t) F (ω − b)

Rectangle:

 0 t < −τ /2
Rect(t/τ ) = 1 −τ /2 < t < τ /2 .
0 t > −τ /2

Triangle:

 1 − t/τ 0≤t<τ
Tri(t/τ ) = 1 + t/τ −τ ≤ t ≤ 0 .
0 autrement

78 CHAPITRE 3. TRANSFORMÉE DE FOURIER

Échelon Unitaire:

 0 si t < 0
u(t) = 0.5 si t = 0 .
1 si t > 1

Chapitre 4

Introduction à la notion de
distribution

4.1 Introduction
Dans le dernier chapitre nous nous sommes intéressés aux fonctions ayant
une énergie finie. Ces fonctions ont un sens physique. Nous allons voir ici
que, pour modéliser certaines réalités physiques, il est intéressant d’introdui-
re des “fonctions généralisées” appelées distributions qui n’ont pas né-
cessairement une énergie finie. La notion de distribution est un concept pure-
ment mathématique, mais il permet de traiter des problèmes de physique
avec beaucoup de rigueur.
La théorie des distributions a été introduite par Laurent Schwartz en
1950. Dans son livre Théorie des distributions, il explique que “cette théorie
n’est pas absolument une nouveauté révolutionnaire et qu’elle englobe, de
façon à la fois simple et correcte, des procédés très hétérogènes et souvent
incorrects utilisés dans des domaines très divers; c’est une synthèse et une
simplification”.

4.1.1 Un exemple d’application


Certains phénomènes physiques sont très complexes d’un point de vue micro-
scopique, mais peuvent être vus comme une simple discontinuité d’un point
de vue macroscopique. Par exemple, une particule chargée électriquement
peut être vue comme une charge ponctuelle si la taille de la particule est
suffisamment petite par rapport aux dimensions de l’ensemble. Un problème
se pose toutefois pour le calcul de la densité de charge par rapport à l’espace.

79
80CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

En effet, cette densité vaut 0 partout sauf au point où se trouve la particule.
Si on note ρ(v) la densité de charge1 , a le point où se trouve la particule et
q la charge positive de celle-ci, nous aurons:

+∞ si v = a
ρ (v) =
0 ailleurs.
Le phénomène physique vu d’un point de vue macroscopique se concrétise
donc par une simple discontinuité de la densité de charge. Cependant, on
peut constater que la charge q n’apparaı̂t pas dans la densité de la charge.
Il faudrait de plus que la charge totale Q soit égale à q. Or, avec la densité
de charge que nous avons définie, nous aurons
ZZZ
Q= ρ(v)dv = 0.
espace

Pour résoudre ce problème, nous allons introduire la distribution de Dirac,


notée δ, qui possède la propriété suivante
ZZZ
δa (v) dv = 1 et δa (v) = 0 ∀ v 6= a.
espace

Par conséquent, la densité de charge sera ρ(v) = qδ(v)

Note: on ne peut pas donner de valeur à la distribution de Dirac en a


puisque l’intégrale vaut 1; en fait, δ n’est pas une vraie fonction.

Nous avons introduit ici de façon très intuitive la notion de distribution.


Nous allons maintenant voir un aspect plus mathématique.

4.1.2 La fonction signe


La fonction signe, Sgn(t), est définie comme le signe de l’argument. Son
graphique est donné dans la Figure 4.1 et son expression analytique est

 −1 si t < 0
Sgn(t) = 0 si t = 0 .
1 si t > 0

1 Q(V )
La densitée de charge est donnée par:ρ(v) = lim V
. V est un volume et Q(V ) est
V →v
la charge contenue dans le volume V .
4.1. INTRODUCTION 81

1
Sgn(t)

0 t
-1

Figure 4.1 Fonction signe.

Nous pouvons facilement appliquer l’équation pour l’énergie d’une fonc-


tion pour confirmer que cette fonction n’est pas de carré intégrable.

Z∞ Z0 Z∞
2 2
E = f (t) dt = f (t) dt + f (t)2 dt
−∞ −∞ 0
Z0 Z∞
= (−1)2 dt + (−1)2 dt = ∞ + ∞.
−∞ 0

Étant donné que la fonction n’est pas de carré intégrable, et en plus qu’elle
ne vérifie pas non plus les critères de Dirichlet-Jordan, on n’a pas d’assurance
que la transformée de Fourier existe. Si nous essayons d’utiliser l’équation
d’analyse nous aurons

Z ∞ Z 0 Z ∞
−jωt −jωt
F (ω) = Sgn (t)e dt = −e dt + e−jωt dt
−∞ −∞ 0
0 ∞
+e−jωt e−jωt 1 − e−jω∞ e−jω∞ − 1
= + = + .
jω −∞ −jω 0 jω −jω

L’exponentielle complexe n’est pas définie à l’infini, donc nous ne sommes


pas capable d’évaluer l’intégrale. Il faut trouver une autre méthode pour
voir si la transformée de Fourier existe et s’il est possible de la calculer.
82CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

4.2 La théorie de fonctions généralisées (distribu-


tions)
4.2.1 Introduction
Pour trouver la transformée de Fourier de la fonction signe, Sgn(t), on va
utiliser les résultats de la théorie des fonctions généralisées (ou distributions).

Définition d’une fonction


Une fonction f (t) est un ensemble de règles qui donne une valeur à f (t) pour
toutes les valeurs de ”t” dans un ensemble de points.
Donc, Sgn(t) est une fonction dans le sens ordinaire.

Définition d’une fonction généralisée


Une fonction généralisée (ou une distribution) est la limite d’une séquen-
ce des fonctions ordinaires, où chaque fonction ordinaire a une transformée
de Fourier.
Dans certains livres, les distributions ne sont pas traitées de la même
façon. Nous allons utiliser une approche plus simple, en considérant qu’une
distribution correspond toujours à la limite d’une suite de fonctions clas-
siques dont nous pouvons calculer les transformées de Fourier. L’ensemble
des propriétés de la transformée de Fourier pour des fonctions est aussi val-
able pour des distributions (excepté le théorème de Parseval).
Pour retourner à notre exemple de la fonction signe, nous pouvons aussi
imaginer la fonction signe comme une fonction généralisée, par exemple:

Sgn (t) = lim fk (t) .


k→0

Les fonctions fk (t) sont une séquence des fonctions de séquence. Un choix
de fk (t) est:
 −kt
 e t>0
fk (t) = 0 t=0 ,
−e+kt t<0

quand k=0 nous avons:



 1 t>0
f0 (t) = 0 t=0 .
−1 t < 0

4.2. THÉORIE DE FONCTIONS GÉNÉRALISÉES 83

Nous avons déjà vu que la fonction fk (t) a une transformée de Fourier pour
k > 0. Donc, selon la définition, Sgn(t) est une distribution, une limite d’une
séquence des fonctions de séquence fk (t).

Sgn (t) = lim fk (t)


k→0+

Les fonctions fk (t) ont une transformée seulement pour k > 0 donc la limite
est pour les valeurs de k qui sont positives. Maintenant nous pouvons écrire
la fonction généralisée Sgn(t) comme une limite des fonctions qui ont des
transformées de Fourier. Nous avons besoin du théorème suivant pour nous
aide à trouver la transformée de Sgn(t).

Propriété fondamentale des distributions


Pour fk (t) ⇔ Fk (ω)
et pour f (t) = lim fk (t)
k
nous avons que f (t) ⇔ lim Fk (ω)
k

Quelques remarques sont importantes à considérer avant de continuer.

1. Ici nous avons la limite pour k qui approche zéro, mais il y a d’autres
possibilités : k → ∞, k → k0 , etc. L’important est que la fonction
de séquence approche la fonction généralisée avec k comme indice.

2. Quand on trouve la transformée Fk (ω) de la fonction de séquence fk (t)


elle sera aussi une fonction de k. Donc pour trouver la transformée de
Fourier pour f (t), on regarde la limite de F (ω) quand k approche sa
limite (zéro, l’infini, etc.)

3. Les fonctions de séquences ne sont pas uniques. C’est possible qu’il y


ait plusieurs séquences qui approchent la fonction d’intérêt.

4. Il faut faire très attention parce que nous n’avons pas toujours2 le
droit d’inverser l’intégration et le passage à la limite, i.e., la limite des
transformées de Fourier n’est pas égale à la transformée de la limite.

Pour l’instant, nous n’allons pas nous en faire avec les conditions pour la
validité de la propriété fondamentale (remarque 4). La propriété est valide
pour les deux exemples que nous allons considérer: la fonction signe et la
fonction Dirac. Un contre-exemple est la fonction échelon unitaire.
2
Lorsque l’intégrale ne converge pas par exemple.
84CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

4.2.2 La transformée de Fourier de la fonction signe


Maintenant, nous pouvons retourner à notre exemple. Nous avons trouvé
précédemment (dans la section 3.6.3) que :

 .5e−kt t > 0

ω
fod (t) = 0 t=0 ⇔ −j .
ω2 + k2
−.5ekt t < 0

Donc,
−2jω
fk (t) = 2fod (t) ⇔ = Fk (ω) .
ω2 + k2
La transformée de Fourier de la fonction Sgn(t) est donc la limite de cette
séquence des transformées, soit:

−2jω −2j
Sgn (t) ⇔ lim Fk (ω) = 2
= .
k→0+ ω +0 ω

L’amplitude de cette fonction est :

−2j 2
= .
ω |ω|

La phase est ±π/2 parce que F (ω) est purement imaginaire. Le signe de la
phase est juste le signe de la partie imaginaire de F (ω).
On a donc réussi à trouver un résultat pour la transformée de Fourier
de la fonction signe, ce qui n’était pas le cas lorsqu’on a essayé d’appliquer
directement l’équation d’analyse. Afin de valider le résultat, il faut vérifier
que l’équation de synthèse converge vers le signal de départ, sauf à la dis-
continuité. Le lecteur pourra s’assurer que c’est le cas en exercice.

4.2.3 La fonction Dirac (ou la fonction delta, ou l’impulsion


unitaire)
Nous allons continuer en trouvant la transformée de Fourier d’une autre
fonction généralisée ayant une énergie infinie: la distribution delta de Dirac,
ou l’impulsion unitaire. Cette distribution n’est pas une fonction dans le
sens de la définition de Dirichlet. La distribution delta est définie par

δR(t) = 0 ∀ t 6= 0

−∞ δ (t) dt = 1
4.2. THÉORIE DE FONCTIONS GÉNÉRALISÉES 85

()
1 t k=1/4
f k (t) Rect
k k

k=1/2

k=1

t
-1/2 0 1/2

Figure 4.2 Distribution de la fonction delta, comme limite de


rectangles.

Nous ne connaissons pas la valeur de la fonction pour t=0, nous savons


seulement que l’aire sous la courbe est égale à un. Nous voulons trouver la
transformée de Fourier en utilisant l’équation d’analyse
Z ∞
F (ω) = δ (t) e−jωt dt,
−∞

mais nous ne savons pour l’instant pas comment évaluer l’intégrale. L’autre
manière de trouver la transformée est d’utiliser la théorie des distributions.
Voici les caractéristiques des fonctions de séquence que nous cherchons
1. les fonctions doivent être zéro sauf pour un petit intervalle autour de
t=0 pour chaque indice k,
2. l’aire sous la courbe doit être un pour chaque indice k.
Nous pouvons imaginer des rectangles qui deviennent de plus en plus étroits
et hauts, avec une aire toujours égale à un, avec un indice k. Les rectangles
vont de −k/2 à k/2. L’aire est donc la hauteur fois k. Donc la hauteur doit
être 1/k pour une aire sous la courbe égale à un. Cette séquence est illustrée
dans la Figure 4.2 et l’expression analytique est:
 
1 t
fk = Rect .
k k
À la limite quand k →0, f (t) est zéro sauf dans un intervalle très petit
autour de zéro, donc:
lim fk (t) = 0 ∀ t 6= 0.
k→0
86CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

Comme l’aire reste constante:


Z ∞
lim fk (t) dt = lim 1 = 1.
k→0 −∞ k→0

Donc
δ (t) = lim fk (t) dt,
k→0
selon la définition de δ(t). Nous avons écrit la distribution delta comme une
limite des fonctions avec une transformée de Fourier, donc la transformée
de δ(t) est égale à la limite des transformées.

 
1 t
T F [δ (t)] = lim T F [fk (t)] = lim T F Rect
k→0 k→0 k k
 
1 t
= lim T F Rect
k→0 k k
   
1 ωk ωk
= lim kSa = lim Sa = 1.
k→0 k 2 k→0 2

δ (t) ⇔ 1.
La transformée de la fonction delta est une constante. L’amplitude est
constante et égale à un. La phase est constante et égale à zéro. Comme la
transformée est réelle, il faut que la fonction delta soit paire.

4.3 Manipulations sur la fonction de Dirac


4.3.1 Propriété d’échantillonnage de la fonction de Dirac
Supposons qu’on veut connaı̂tre la valeur du produit de la fonction delta avec
n’importe quelle autre fonction continue, h(t)δ(t). Nous pouvons retourner
à notre exemple de la séquence des rectangles qui deviennent de plus en plus
étroits. Le produit sera un rectangle mais le haut aura une courbure comme
la fonction continue h(t). Dans la limite, le rectangle devient de plus en
plus étroit (et de plus en plus haut) de telle sorte que seule la valeur de la
fonction h au moment de l’impulsion compte.
1 t
h (t) δ (t) = lim h (t) Rect
k→0 k k
1 t
= h (0) lim Rect = h (0) δ (t) .
k→0 k k
clair que h(t)δ(t)=h(0)δ(t) est valide.

htδ t = b g b g RS b bgg b g
h0δ 0 t=0
b g b g b gRST b g
=h 0δ t =h 0
δ 0 t=0
T
h t ⋅0 t≠0 0 t≠0
Donc quand une fonction est multipliée par la fonction delta, la valeur de la foncti
cherchée. Le produit est cette valeur h(0) multipliée par la fonction delta. C'est
4.3. appelle cetteSUR
MANIPULATIONS caractéristique
LA FONCTION la propriété
DE DIRACd'échantillonnage
87 . On appelle h(0) le po
sion. Nous pouvons maintenant co
grale du produit h(t)δ(t).

z z
δ(t) h(t)δ(t)

−∞
bg bg
h t δ t dt =
−∞
b g bg

h0δ t d

= hb0gz δ bt gd
h(0) ∞

0 0 −∞
t t
donc l'aire sous la courbe du produ
Figure 3 La fonction delta du produit, est h(0). Pour décrire
Figure 4.3 La fonction delta.
delta graphiquement on utilise une
dans la Figure 3. Bien sûr la haute
Une autre manière de voir cette caractéristique est de réaliser que δ(t) est
finie
zéro pour t 6= mais
0, donc on utilise
h(t)δ(t) la flèche
= h(0)δ(t) parcequand même.
que pour t 6=0 ilQuand la fonction a un poids différent
n’importe
le poids
pas qu’on multiplie parà h(0).
côté de la t=0,
Pour flèche.
il est clair que h(t)δ(t) = h(0)δ(t)
est valide.
4.3.2 Autre dérivation de la transformée de Fourier de la fonction delta
Avec cette
δ (0) information sur la fonction delta,
δ (0) ti.e.,
= 0 la propriété d'échantillonnage,
 
h (0) t=0
h (t) δ (t) = = h (0) δ (t) = h (0) .
montrer
h (t) ·une
0 autre
t 6= 0 dérivation de la transformée 0 ten
6= 0utilisant l'équation d'analyse.

ω bg ∞
Donc quand une fonction est multipliée par la fonction delta,
F =
la fonction pour t=0 est cherchée. Le produit est cette valeur −∞ z
h(0)
bg − jωt de
δ lat multipliée
evaleurdt

propriété d’échantillonnage. On appelle h(0) le poids



z bg
par la fonction delta. C’est pour ça qu’on appelle cette caractéristique
= deδ l’impulsion.
−∞
Nous pouvons maintenant considérer l’intégrale du produit h(t)δ(t).
t e 0dt = z
la ∞
−∞
bg
δ t dt =1
Avant,
Z ∞ nous ne savionsZ ∞ pas comment évaluer cette intégrale, mais avec la propr
lonnage
h (t)nous pouvons
δ (t) dt = l'évaluer
h (0) δ (t)facilement.
dt
−∞ −∞
Z ∞
= h (0) δ (t) dt = h (0) ,
−∞

donc l’aire sous 2003 Christophe


la courbe Deutsch,
du produit, ou Leslie A.du
le poids Rusch
produit, est h(0). Pour
décrire les fonctions delta graphiquement on utilise une flèche comme à la
figure 4.3. Bien sûr la hauteur n’est pas définie mais on utilise la flèche
quand même. Quand la fonction a un poids différent de un, on écrit le poids
à côté de la flèche, c’est une convention.

4.3.2 Autre dérivation de la transformée de Fourier de la


fonction delta
Avec cette information sur la fonction delta, i.e., la propriété d’échantillon-
nage, nous pouvons montrer une autre dérivation de la transformée en util-
88CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

isant l’équation d’analyse.


Z ∞
F (ω) = δ (t) e−jωt dt
Z−∞
∞ Z ∞
0
= δ (t) e dt = δ (t) dt = 1.
−∞ −∞

Avant, nous ne savions pas comment évaluer cette intégrale, mais avec la
propriété d’échantillonnage nous pouvons l’évaluer facilement.

4.3.3 Transformée de Fourier de la fonction delta déplacée


en temps
En utilisant la propriété de déplacement en temps, i.e.,

f (t) ⇔ F (ω) ⇒ f (t − a) ⇔ e−jωa F (ω) ,

on peut déterminer la transformée de Fourier d’une fonction delta centrée


sur t = a.
δ (t) ⇔ 1 ⇒ δ (t − a) ⇔ e−jωa .
Pour a=0 nous avons l’exponentielle égale à un, donc nous arrivons au
résultat précédent. Nous savons que l’amplitude de la transformée de Fourier
ne change pas avec un déplacement en temps, ce qui est confirmé par:

|F (ω)| = e−jωτ = 1.

Par contre, la phase changera avec un déplacement en temps. Comme


F (ω) est déjà dans la forme polaire on peut lire directement la phase dans
l’exposant.
F (ω) = e−jωa ⇒ θ (ω) = −ωa.
Nous avons défini la phase dans l’intervalle -π à π, i.e., -π < θ (ω) < π, donc
π π
− <ω< ⇒ θ (ω) = −ωa
a a
3π π
− <ω<− ⇒ θ (ω) = −ωa + 2π
a a
π 3π
<ω< ⇒ θ (ω) = −ωa − 2π.
a a
On peut observer que la phase est en effet une fonction impaire, et sa pente
est toujours −a.
3π π
a a
<ω <
⇒ θ ω = −ωa − 2π bg
On peut observer que la phase est en effet une fonction impaire, et sa pente e
Exemple: Supposons qu'on considère la somme de trois fonctions delta
4.3. MANIPULATIONS SUR LA FONCTION DE DIRAC
bg b g bg b g
f t = −δ t + τ + 2δ t − δ t − τ
89
Le graphique de cette fonction
Figure 4. Pour trouver la transfo
f(t) utilise
2 bg b g bg
F f t = TF −δ t + τ + 2δ t
TF f bt g = − TF δ bt + τ g + 2TF
−τ τ
t = − e jωτ + 2 − e − jωτ = 2

-1 -1
b g
= 2 − 2 cos ωτ = 2 ⋅ 2 ⋅
2
Figure 4 Fonction delta déplacée 2F ωτ I
= 4 sin G J
Figure 4.4Fonctions delta déplacées en temps.
en temps H2K
Exemple Supposons qu’on considère la somme de trois fonctions La transformée
delta est une fonction r
ble étant donné que la fonction f(t) est paire.
f (t) = −δ (t + τ ) + 2δ (t) − δ (t − τ ) .

Le graphique4.3.4 Lafonction
de cette transformée
est donnéde Fourier
à la d'un
figure 4.4. constant
Pour trouver la
LaFourier
transformée de propriété de dualité peut être appliquée à la fonction
on utilise: delta.
T F [f (t)] = T F [−δ (t + τ ) + 2δ (t) − δ (t − τ )]
T F [f (t)] = −T F [δ (t + τ )] + 2T F [δ (t)] − T F [δ (t − τ )]
58 1
 2003 Christophe D
= −ejωτ + 2 − e−jωτ = 2 − 2 ejωτ + e−jωτ

2
1
= 2 − 2 cos (ωτ ) = 2 · 2 · (1 − cos (ωτ ))
2
2 ωτ
 
= 4 sin .
2

La transformée est une fonction réelle qui est prévisible étant donné que la
fonction f (t) est paire.

4.3.4 La transformée de Fourier d’une constante


La propriété de dualité peut être appliquée à la fonction delta.

f (t) ⇔ F (ω) F (t) ⇔ 2πf (−ω)


90CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

donc,
δ (t) ⇔ 1 ⇒ 1 ⇔ 2πδ (−ω)
et la transformée de Fourier d’une constante est
1 ⇔ 2πδ (ω) ,
étant donné que nous avons vu avant que la fonction delta est une fonction
paire, ce qui nous permet d’inverser le signe de l’argument.

4.3.5 Exponentielle complexe, sinus et cosinus


La propriété de dualité peut être appliquée à la fonction delta déplacée dans
le temps pour trouver la transformée de Fourier de l’exponentielle complexe
ejω0 t ⇔ 2πδ (ω − ω0 ) .
On en déduit donc aisément que:
π
sin (ω0 t) ⇔ (δ (ω − ω0 ) − δ (ω + ω0 ))
j
cos (ω0 t) ⇔ π (δ (ω − ω0 ) + δ (ω + ω0 )) .

Grâce à l’utilisation de la fonction généralisée de Dirac, on peut donc


exprimer le spectre des fonctions périodiques avec la transformation de Fou-
rier. En ce sens, la série de Fourier peut être perçue comme un cas spécial
de la transformée. La propriété d’échantillonage de l’impulsion permet
de représenter des fréquences discrètes sur un spectre continu. La forme
obtenue est semblable au résultat de la série de Fourier, mais il faut faire
attention car à la fréquence de l’impulsion le spectre n’a pas une valeur finie
comme pour la série. C’est l’aire de l’impulsion qui est finie.

4.4 Contre-exemple pour la propriété fondamen-


tale des distributions
La propriété fondamentale des distributions n’est pas valide pour toutes les
fonctions, parce que nous changeons l’ordre d’une limite et une intégrale.
Nous n’avons pas discuté les critères pour la validité de cette propriété,
nous avons juste utilisé le fait qu’elle soit valide pour Sgn(t) et pour δ(t).
Un contre-exemple est donné par la fonction échelon unitaire U (t).
Rappelons ici que la théorie des distributions nous a donné que
2
Sgn(t) ⇔ et δ (t) ⇔ 1.

4.4. CONTRE-EXEMPLE: DISTRIBUTIONS 91

U(t) 1

1/2
t
0

Figure 4.5 Échelon unitaire.

4.4.1 Echelon unitaire et sa transformée de Fourier

L’échelon unitaire est noté U (t). C’est une fonction qui est très utile comme
intermédiaire de calcul mais elle ne correspond à aucune réalité physique
puisque c’est un signal dont l’énergie est infinie. Son graphique est donné à
la Figure 4.5 et son expression analytique est:


 0 si t < 0
U (t) = 0.5 si t = 0 .
1 si t > 0

Si nous essayons d’utiliser la même sorte de séquence de fonctions que nous


avons utilisée pour Sgn(t) pour trouver la transformée de Fourier de U (t),
on arrivera à

1
T F [U (t)] = qui n’est pas correcte.

On peut se convaincre facilement que le résultat n’est pas valide car la fonc-
tion n’est ni paire ni impaire. Le spectre ne peut donc pas être imaginaire
pur. Il est aussi possible d’utiliser l’équation de synthèse pour voir que la
transformation ainsi obtenue ne converge pas vers le signal.
On utilisera une approche simple pour trouver la transformée correcte.
Il est possible d’écrire cette fonction sous la forme suivante:

1 1 1
U (t) = [Sgn(t) + 1] = Sgn(t) + .
2 2 2
92CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

La transformée est facilement écrite comme:


1 1
T F [U (t)] = T F [Sgn(t)] + T F [1]
2 2
1 −2j 1
= + 2πδ (ω)
2 ω 2
−j
= + πδ (ω) .
ω

La partie imaginaire (-1/ω) vient de la partie impaire de U (t) donc de


1/2 Sgn(t). La partie réelle de la transformée vient de la partie paire, donc
la partie paire de U (t) = 1/2.
La raison pour laquelle la propriété fondamentale des distributions ne
fonctionne pas pour l’échelon provient de sa valeur moyenne non nulle. Celle-
ci empèche les intégrales de converger et rend invalide l’inversion avec le
pasage à la limite. Il faut donc toujours faire attention à la présence d’une
valeur moyenne non nulle (DC). Il est généralement assez facile de vérifier si
notre spectre a la bonne valeur à zéro, si une impulsion devrait être présente
et avec quel poids.

4.4.2 Utilisation de l’échelon pour le calcul du rectangle


La fonction rectangle peut être vue comme la somme de deux échelons,
comme illustréà la Figure 4.6. L’équation analytique est :
Rect (t) = U (t + 1/2) − U (t − 1/2) .

Nous savons que


j
U (t) ⇔ − + πδ (ω)
ω  
jω/2 j j
U (t + 1/2) ⇔ e − + πδ (ω) = − ejω/2 + πδ (ω) .
ω ω

Nous pouvons donc facilement calculer la transformée de Fourier de la


fonction rectangle:
j j
T F (Rect (t)) = − ejω/2 + πδ (ω) + e−jω/2 − πδ (ω)
ω ω
j  jω/2 −jω/2

= − e −e
ω
= Sa (ω/2) .
4.4. CONTRE-EXEMPLE: DISTRIBUTIONS 93

U(t+1/2) 1

t 1/2 t
-1/2
-U(t-1/2)
-1

1
Rect (t)
t
-1/2 1/2

Figure 4.6 Rectangle comme somme d’échelons.

2
f(t)
1
t
0 1 2

Figure 4.7 Fonction constante par morceaux.

Exemple Appliquons le même principe pour la fonction:

f (t) = 2U (t) − U (t − 1) − U (t − 2),

illustrée à la Figure 4.7.

La transformée de Fourier est donnée par:


94CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

     
j −jω j −2jω j
F (ω) = 2 − + πδ (ω) − e − + πδ (ω) − e − + πδ (ω)
ω ω ω
j
2 − e−jω − e−2jω

= −
ω
j  −jω jω  
e − e−jω − e−j3ω/2 ejω/2 − e−jω/2

= − 2e
ω
= 4e−jω Sa (ω) − e−j3ω/2 Sa (ω/2) .

Nous aurions pu arriver au même résultat en utilisant:


   
t−1 3
f (t) = 2Rect − Rect t − .
2 2
Avec la transformée:

F (ω) = 2 · 2 · e−j2·ω/2 Sa (2 · ω/2) − e−j3ω/2 Sa (ω/2)


= 4e−jω Sa (ω) − e−j3ω/2 Sa (ω/2) .

4.5 Transformée de Fourier des fonctions périodi-


ques
4.5.1 Calcul de la transformée de Fourier d’une fonction
périodique
Les fonctions périodiques admettent une transformée de Fourier que nous
trouvons en utilisant la représentation en série de Fourier. Nous avons vu
dans le premier chapitre que pour une fonction périodique fp (t) nous avions
l’équation d’analyse qui donne:
T
Z0 /2
1
FSerie (n) = fp (t)e−jnω0 t dt,
T0
−T0 /2

et l’équation de synthèse qui donne


+∞
X
fp (t) = FSerie (n)ejnω0 t .
n=−∞
4.5. FONCTIONS PÉRIODIQUES 95

fp(t)
1

-1 0 1 2

Figure 4.8 Rampe périodique.

La seconde équation va nous permettre de calculer la transformée de Fourier


de la fonction fp (t). En effet, nous aurons:

+∞
X
FSerie (n) T F ejnω0 t

T F (fp (t)) =
n=−∞
+∞
X
= FSerie (n) {2πδ (ω − nω0 )}
n=−∞
+∞
X
= 2π FSerie (n) δ (ω − nω0 ).
n=−∞

La transformée de Fourier d’une fonction périodique est donc:

+∞
X
F (ω) = 2π FSerie (n) δ (ω − nω0 ),
n=−∞

qui nous donne un spectre discret, un spectre d‘impulsions centrées sur les
harmoniques.
Pour trouver la transformée de Fourier des fonctions périodiques:

1. Nous trouvons les coefficients de la série de Fourier.

2. Nous utilisons les coefficients F (n) pour le poids de l’impulsion centrée


sur nω0.

Exemple Calculons la transformée de Fourier de la fonction périodique


de la Figure 4.8. Sa période est To =1 et sa fréquence ωo =2π (Problème
96CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

Α(ω)
π

Figure 4.9 Partie réelle de la TF d’une rampe périodique.

2.12 du livre Introduction to Fourier Analysis.). Nous avons trouvé que les
coefficients sont:  j
F (n) = 2πn n 6= 0 .
1
2 n=0
La transformée de Fourier d’une fonction périodique est :

X
T F [fp (t)] = 2π F (n)δ(ω − 2πn).
n=−∞

Donc la transformée de Fourier est donnée par:


X j 2π
T F [fp (t)] = F (ω) = 2π δ (ω − 2πn) + δ (ω)
2πn 2
n = −∞
n 6= 0

X 1
= j δ(ω − 2πn) + πδ (ω)
n
n = −∞
n 6= 0

X1 
1
= j δ (ω − 2πn) − δ(ω + 2πn) + πδ (ω).
n n
n=1

La partie réelle de la transformée de Fourier est donnée à la Figure 4.9,


la partie imaginaire à la Figure 4.10, et le module à la Figure 4.11.
π
Exemple Le rectangle périodisé dont la période est To = 4 et ωo = 2 (voir
Figure 4.12) .
4.5. FONCTIONS PÉRIODIQUES 97

Β(ω) 1
1/2 1/3
−6π −4π −2π
2π 4π 6π
-1/3
-1/2
-1

Figure 4.10 Partie imaginaire de la TF d’une rampe périodique.

F(ω) π
1
1/2
1/3

−6π −4π −2π 2π 4π 6π

Figure 4.11 Module de la transformée de Fourier d’une rampe


périodique.

fp (t)
1

-1 1 3 5
Figure 4.12 Porte périodisée: onde carrée.
98CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

A(ω)
π
2 2
−3π/2 3π/2
−π/2 π/2
−2/3 −2/3

Figure 4.13 Partie réelle de la TF d’une onde carrée.

La transformée de Fourier est :



X  π
F (ω) = 2π F (n)δ ω − n .
n=−∞
2

où les coefficients sont:


1

2 n=0
1  π 0 n pair

F (n) = Sa n = .
2 2 n−1
 (−1) 2

nπ n impair

Donc la transformée est:

∞ n−1
X 2 (-1) 2  nπ 
F (ω) = πδ (ω) + δ ω− .
n 2
n = −∞
n 6= 0
n impair

La partie réelle est donnée à la Figure 4.13, et le module à la Figure 4.14.

4.5.2 Peigne de Dirac


La distribution de Dirac nous permet de représenter les signaux discrets.
En effet, prenons une fonction f (t) qu’on échantillonne à une période T0 .
Nous aurons une suite discrète de valeurs f (nT0 ). On peut exprimer chaque
terme de cette suite à l’aide de la distribution de Dirac:

f (t) δ (t − nT0 ) = f (nT0 ) δ (t − nT0 ) ,


4.5. FONCTIONS PÉRIODIQUES 99

|F(ω)|
π
2 2
2/3 2/3
−3π/2 −π/2 π/2 3π/2

Figure 4.14 Module de la Transformée de Fourier d’une onde


carrée.

comme illustré à la Figure 4.16. La suite f (nT0 ) peut donc être représentée
par une distribution:
+∞
X +∞
X
f (nT0 )δ (t − nT0 ) = f (t) δ (t − nT0 ).
n=−∞ n=−∞

L’opération d’échantillonnage d’une fonction peut donc être modélisée par


un produit entre la fonction à échantillonner et une somme infinie de Dirac.
Cette somme infinie de Dirac est appelée le peigne de Dirac ou un
train d’implusions. Elle est illustrée à la Figure 4.15 et est notée:
+∞
X
δT0 (t) = δ (t − nT0 ).
n=−∞

Nous allons montrer que la transformée de Fourier du peigne de Dirac est:


+∞   +∞
2π X 2πn X
T F (δT0 (t)) = δ ω− = ω0 δ (ω − nω0 ).
T0 n=−∞ T0 n=−∞

+∞ +∞
e−jnT0 ω = ω0
P P
On peut en déduire que δ (ω − nω0 ) étant donné
n=−∞ n=−∞
que:
+∞ +∞
" #
X X
T F [δT0 (t)] = T F δ (t − nT0 ) = T F [δ (t − nT0 )]
n=−∞ n=−∞
+∞
X +∞
X
= e−jnT0 ω T F [δ (t)] = e−jnT0 ω .
n=−∞ n=−∞
100CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

t
-2T s -T s 0 T s 2T s

Figure 4.15 Train d’impulsions ou peigne de Dirac.

t
-T s 0 T s 2T s 3T s 4T s

Figure 4.16 Fonction continue échantillonnée par un peigne de


Dirac.

On a vu que la transformée de Fourier d’une fonction périodique est un


train d’impulsions avec des poids donnés par les coefficients de la série de
Fourier. Supposons qu’on commence avec un train d’impulsions, toutes avec
le même poids (un), et toutes placées avec le même espacement. On peut
écrire ce signal comme:

X
f (t) = δ (t − nTs ) = δTs (t).
n=−∞

On utilise Ts pour “le temps d’échantillonnage” (sampling).


C’est un signal très important parce qu’il est utilisé pour aller d’un
système en temps continu à un système en temps discret. Par exemple,
si j’ai une fonction continue au laboratoire et je veux avoir un vecteur des
valeurs avec des échantillons aux multiples de Ts , le vecteur des valeurs
discrètes sera le produit du train d’impulsions unitaires avec la fonction :

[...f (−2Ts ) , f (−Ts ) , f (0) , f (Ts ) , f (2Ts ) , ...] = f (t) · δTs (t) .

On veut trouver quelle est la transformée de Fourier du train d’impulsions


unitaires δTs (t).
Premièrement, il faut réaliser que c’est une fonction périodique. Donc,
pour trouver la transformée, on commence d’abord par trouver les coeffi-
cients de la série de Fourier. La fonction temporelle est paire et réelle. On
4.5. FONCTIONS PÉRIODIQUES 101

aura donc une fonction spectrale paire et réelle. La période du signal δTs (t)
est Ts :

Z Ts
1 2 j2πnt
F (n) = fp (t) e− Ts dt
Ts −Ts
2
Z Ts ∞ Z Ts n=0
1 2 X − j2πnt 1 2 − j2πnt
= δ (t − nTs )e T
s dt = δ (t) e T
s dt
Ts −Ts
n=−∞
Ts −Ts
2 2
j2πnTx Ts
e− e−jn2π
Z
Ts 2 1
= δ (t) dt = = .
Ts −Ts Ts Ts
2

Donc,

1
F (n) = ∀n
Ts
∞ ∞
X 1 j2πnt X
δTs (t) = e Ts = δ (t − nTs )
n=−∞ s
T n=−∞

1 h j2πnt i
X
T F [δTs (t)] = T F e Ts
T
n=−∞ s
∞  
X 1 2πn
F (ω) = 2πδ ω − .
n=−∞
Ts T s

on peut écrire ωs = 2π/Ts ,


X
F (ω) = T F [δTs (t)] = ωs δ (ω − nωs ).
n=−∞

La transformée d’un train d’impulsions unitaires avec un espacement de Ts


est un train d’impulsions dans le domaine fréquenciel, toutes avec un poids
de ωs = 2π/Ts , et avec un espacement de ωs . En résumé :

δTs (t) ⇔ ωs δωs (ω) .

On verra ces résultats souvent au Chapitre 9.


102CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

Ts (t) F( ) s s
( )
s

t
-2Ts -Ts 0 T s 2Ts s s 0 s s

Figure 4.17 Transformée de Fourier d’un train d’impulsions uni-


taires.

4.5.3 Transformée de Fourier de la restriction d’une fonction


à une période

Supposons qu’on ne connaı̂t pas les coefficients de la série de Fourier, on


peut les calculer en utilisant l’équation d’analyse:

Z To
1 2
F (n) = fp (t)e−jnωo t dt.
To −To
2

Mais, supposons que nous sommes maintenant très habiles dans le calcul des
transformées de Fourier, ou qu’on possède une très bonne table de trans-
formées comme référence. Il sera pratique de savoir comment trouver les
coefficients F(n) en utilisant une transformée de Fourier.
Soit fr (t) la restriction de la fonction fp (t) entre [−T0 /2, T0 /2]3 :


fp (t) si t ∈ [−T0 /2, T0 /2]
fr (t) = .
0 sinon

Notons Fr (ω) la transformée de Fourier de la fonction fr (t). Nous allons


voir que
Fr (nωo )
F (n) = .
To

3
Nous pouvons prendre n’importe quelle période. Nous utilisons [-T0 /2,T0 /2] pour
illustrer le concept.
4.5. FONCTIONS PÉRIODIQUES 103

Pour voir la validité de ce résultat:



X
T F [fp (t)] = 2π F (n)δ (ω − nωo )
n=−∞
∞ Z To
X 1 2
= 2π fp (t) e−jnωo t dt δ (ω − nωo )
T
n=−∞ o
−To
2
∞ Z To
X1 2
= 2π fp (t) e−jωt dtδ (ω − nωo ).
T
n=−∞ o
−To
2

On continue:
∞ Z To
1
X 2
T F [fp (t)] = 2π fr (t) e−jωt dtδ (ω − nωo )
T
n=−∞ o
−To
2
∞ Z ∞
X1
= 2π fr (t) e−jωt dtδ (ω − nωo )
T
n=−∞ o −∞

X 1
= 2π Fr (ω)δ (ω − nωo ) .
T
n=−∞ o

Donc nous pouvons écrire:



X Fr (nωo )
T F [fp (t)] = 2π δ (ω − nωo )
n=−∞
To

X
= 2π F (n)δ (ω − nωo ) .
n=−∞

En identifiant les coefficients du peigne de Dirac, on en déduit qu’effective-


ment,
FRestriction (nω0 )
FSerie (n) = .
T0
Nous avons ainsi obtenu l’expression des coefficients de Fourier en fonction
de la transformée de Fourier de la restriction de fp (t) sur une période.

Exemple Nous allons calculer les coefficients de la série de Fourier de la


fonction de la Figure 4.18 en sachant que la transformée de Fourier de la
fonction rectangle est Sa (ω/2). Nous avons T0 =2 d’où ω0 = π. La formule
précédente nous donne directement les coefficients:
104CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

t
-1/2 1/2

Figure 4.18 Onde carrée.

U(t) δ(t)
1
d/dt
0 t 0 t

Figure 4.19 Dérivée de l’échelon.

1  nπ  1 n
F (n) = Sa = Sinc .
2 2 2 2
Ce qui est bien le résultat auquel on s’attendait. La transformée de Fourier
est donc:
+∞
X
F (ω) = 2π FSerie (n) δ (ω − nω0 )
n=−∞
+∞
X 1  nπ 
= 2π Sa δ (ω − nω0 ).
n=−∞
2 2

4.6 La fonction delta et la dérivée d’une fonction


Le chapitre 5 concerne la transformée de Fourier pour les fonctions et ses
dérivées. Nous verrons une méthode très puissante pour le calcul des trans-
formées de Fourier. Nous verrons que dans certains cas nous pouvons éviter
beaucoup de calculs en utilisant cette méthode. Avant de continuer au
chapitre 5, il faut déterminer une manière de traiter la dérivée d’une fonc-
tion aux points de discontinuité. Nous commençons cette discussion avec
une inspection de l’échelon et sa dérivée.
4.6. LA FONCTION DELTA ET LA DÉRIVÉE D’UNE FONCTION 105

U(t-to ) δ(t-to)

d/dt
t t
to to

Figure 4.20 Dérivée de l’échelon décalé.

4.6.1 Dérivée de l’échelon


La définition de la fonction delta est:

δ (t) = 0 ∀t 6= 0
Z ∞
δ (z) dz = 1.
−∞

En combinant ces deux faits, on observe que:


Z t
δ (z)dz = 0,
−∞

pour t <0, parce que δ(z) est nul dans tout l’intervalle (-∞,t <0). Donc, on
peut écrire que:
Z t 
0 t<0
δ (z) dz =
−∞ 1 t>0
Z t
δ (z) dz = U (t) .
-∞

Le théorème fondamental de calcul donne:


d
U (t) = δ (t) .
dt

4.6.2 Dérivée aux points de discontinuité


Pour les fonctions classiques, la dérivée n’est définie que pour les endroits
où la fonction est continue. Avec la distribution δ(t), nous allons voir que
la dérivée existe partout même pour des fonctions discontinues.
106CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

f (t)

} σ(f,a)

t
0 a

Figure 4.21 Fonction discontinue.

f1(t)

t
0 a

Figure 4.22 La fonction f1 (t) U(a-t).

Soit f (t) une fonction discontinue en t = a (Figure 4.21). Nous utilisons


σ(f, a) pour représenter la hauteur de la discontinuité à t = a. Nous verrons
que la dérivée de f (t) est:
d
f (t) = f 0 (t)t6=a + σ (f ,a) δ (t − a) .
dt

Pour voir ce résultat on va exploiter notre connaissance de la dérivée de


l’échelon.
Supposons que f1 (t) est une fonction continue pour laquelle on a:

 f (t)
 t<a
f1 (t) = lim f (t) t=a .

 t→a

quelconque t > a
Le produit f1 (t) · U (a − t) est donné à la Figure 4.22. Comme U (a − t) est
nul pour t > a, les valeurs de f1 (t) pour t > a ne sont pas requises pour
notre analyse.
4.6. LA FONCTION DELTA ET LA DÉRIVÉE D’UNE FONCTION 107

f 2 (t)

t
0 a

Figure 4.23 La fonction f2 (t) U(t-a).

La fonction f2 (t) est une fonction continue pour laquelle



 quelconque t < a

f2 (t) = lim f (t) t=a .
+
 t→a

f (t) t>a

Le produit f2 (t) U (t − a) est donnée à la Figure 4.23.


La fonction originale peut être écrite comme:

f (t) = f1 (t) U (a − t) + f2 (t) U (t − a) .

La différence f2 (a)−f1 (a) = σ (f, a), c’est-à-dire que la différence est égale à
la hauteur de la discontinuité. Maintenant nous sommes capable de chercher
la dérivée de f (t).

f 0 (t) = f10 (t) U (a − t) + f20 (t) U (t − a) + f1 (t) U 0 (a − t) + f2 (t) U 0 (t − a) .

Les deux premiers termes représentent la dérivée de la fonction f (t) aux


points continus:

f 0 (t) = f 0 (t)t6=a + f1 (t) δ (a − t) · (−1) + f2 (t) δ (t − a) ,

où nous avons évalué la dérivée de l’échelon. En continuant,

f 0 (t) = f 0 (t)t6=a + f2 (a) δ (t − a) − f1 (a) δ (a − t) ,


où nous avons utilisé la propriété d’échantillonnage de la fonction delta.
Enfin:

f 0 (t) = f 0 (t)t6=a + [f2 (a) − f1 (a)] δ (t − a)


f 0 (t) = f 0 (t)t6=a + σ (f, a) δ (t − a) .
108CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

1 Rect(t)

-1/2 0 1/2 t

Rect'(t)

1/2
-1/2 0 t

Figure 4.24 Dérivée d’un rectangle.

δ(t) δ'(t)
d/dt
d
to t to t

Figure 4.25 Dérivée d’une impulsion.

Exemple Le signal rectangle est discontinu en +1/2 et en -1/2. Sa dérivée


au sens des fonctions est donc définie partout sauf en +1/2 et -1/2, et
Rect0 (t) = 0.
Si on regarde maintenant la fonction rectangle dans le sens des distri-
butions nous aurons:

Rect0 (t) = σ(Rect, −1/2)δ (t + 1/2) + σ(Rect, 1/2)δ (t − 1/2)


= δ (t + 1/2) − δ (t − 1/2) .

4.6.3 Dérivée de la fonction delta


La dérivée de la fonction delta peut être définie comme la limite d’une
séquence de fonctions continues, comme nous avons fait pour la fonction
échelon. Pour nous, c’est suffisant de savoir que la dérivée existe, qu’elle
4.7. CE QU’IL FAUT RETENIR DANS CE CHAPITRE 109

s’appelle “doublet” et qu’on l’écrit graphiquement comme illustré dans la


Figure 4.22. En effet, tous les dérivées de la fonction delta existent, et nous
écrivons
dn
δ (t) = δ (n) (t) .
dtn

4.7 Ce qu’il faut retenir dans ce chapitre


Limite au sens des distributions
Soient fλ une suite de fonctions avec une transformée de Fourier
pour chaque fonction. Si lim fλ = f , si f est une fonction, et
λ→λ0
si on peut intervertir l’intégration et le passage à la limite
alors: lim T F (fλ ) = T F (f ) (au sens des distributions)
λ→λ0

Transformées de Fourier à connaı̂tre


Fonction Transformée de Fourier
δ(t) 1
δ(t − τ ) e−jωτ
1 2πδ (ω)
ejω0 t 2πδ (ω − ω0 )
1
U (t) jω + πδ (ω)
2
Sgn (t) jω
π
sin (ω0 t) j (δ (ω − ω0 ) − δ (ω + ω0 ))
cos (ω0 t) π (δ (ω − ω0 ) + δ (ω + ω0 ))
+∞
P +∞
P
δT0 (t) = δ (t − nT0 ) ω0 δ (ω − nω0 )
n=−∞ n=−∞
+∞
P
fp (t) F (ω) = 2π FSerie (n) δ (ω − nω0 )
n=−∞

Manipulations sur la distribution de Dirac


+∞
R +∞
R
δ(t)dt = 1, et δ(t − a)dt = 1,
−∞ −∞
f (t) δ(t) = f (0) δ(t) et f (t) δ(t − a) = f (a) δ(t − a)
+∞
R +∞
R
f (t) δ(t)dt = f (0) et f (t) δ(t − a)dt = f (a)
−∞ −∞
+∞
P
le peigne de Dirac: δT0 (t) = δ (t − nT0 )
n=−∞
110CHAPITRE 4. INTRODUCTION À LA NOTION DE DISTRIBUTION

Calcul des coefficients de Fourier d’une fonction périodique


Soit fr (t) la restriction de la fonction fp (t) sur [−T0 /2, T0 /2]
et fr (t) ⇔ FRestriction (ω). Nous aurons: FSerie (n) = FRestriction
T0
(nω0 )
Chapitre 5

Transformée de Fourier et
dérivation

Dans ce chapitre, nous allons nous intéresser à la différentiation en temps et


en fréquence. Les propriétés que nous allons démontrer vont nous permettre
de calculer beaucoup de transformées de Fourier sans passer par l’équation
d’analyse.

5.1 Différentiation en temps et en fréquence


5.1.1 Théorème pour les fonctions continues
Soient f (t) une fonction continue et dérivable et F (ω) sa transformée de
Fourier. Nous aurons:
d
f (t) ⇔ jωF (ω)
dt
et
d
tf (t) ⇔ j F (ω) .

Démonstration Dérivée en temps


Calculons la transformée de Fourier de la dérivée de f (t):

+∞
Z  +∞
Z
d +∞
f (t) e−jωt dt = f (t) e−jωt −∞ + jω f (t)e−jωt dt
dt
−∞ −∞
= 0 + jωF (ω) .

111
112 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

En effet, lim f (t) e−jωt = 0 car f est intégrable1 .


t→∞

Démonstration Dérivation en fréquence


Pour la seconde propriété, on va calculer la dérivée de F (ω) :

+∞
Z
d d
F (ω) = f (t)e−jωt dt
dω dω
−∞
+∞
Z
d
f (t)e−jωt dt

=

−∞
+∞
Z
= −j tf (t)e−jωt dt.
−∞

En effet, nous avons le droit d’intervertir intégration et dérivée. Par consé-


quent nous pouvons déduire que la transformée de Fourier de tf (t) est
d
− 1j dω d
F (ω) = j dω F (ω).

5.1.2 Applications aux distributions


Nous allons admettre que le théorème que nous avons vu pour les fonctions
continues est aussi valable pour les distributions.

Exemple La transformée de Fourier de la fonction f (t) = t.


Cette fonction a une énergie infinie, on ne peut donc pas la trouver par
le calcul direct. Par contre, en utilisant la théorie des distributions et le
théorème ci-dessus, nous aurons:

d d
t⇔j (T F (1)) = j 2πδ (ω) = 2jπδ 0 (ω) .
dω dω

t ⇔ 2jπδ 0 (ω) .
Réciproquement on en déduit que:

δ 0 (t) ⇔ jω.
1
C’est-à-dire que le la fonction tend vers 0 à +- infini, ce qui est un prérequis pour
la convergence (et l’énergie finie). Ce résultat est donc conditionnel, et il faudra faire
attention aux cas pathologiques pour lesquels la convergence n’est pas garantie.
5.1. DIFFÉRENTIATION EN TEMPS ET EN FRÉQUENCE 113

5.1.3 Corollaires du théorème précédent


Nous avons vu que f 0 (t) ⇔ jωF (ω). On en déduit donc la formule pour n
dérivations successives:
dn
f (t) ⇔ (jω)n F (ω) .
dtn
De la même façon, nous aurons:
dn
tn f (t) ⇔ (j)n F (ω) .
dω n
Pour la fonction de Dirac nous avons

δ (t) ⇔ 1
δ 0 (t) ⇔ jω
δ (n) (t) ⇔ (jω)n .

5.1.4 Application aux équations différentielles


Nous allons généraliser les résultats précédents en introduisant une notation
polynomiale. Supposons que nous avons une équation différentielle:

f (t) = aX 00 (t) + bX 0 (t) + cX (t) .

En utilisant la notation D comme opérateur différentiel, on peut l’écrire


comme:

f (t) = aD2 x (t) + bDx (t) + cx (t)


= aD2 + bD + c x (t) .


La transformée de la somme est la somme des transformées. Donc,

F [f (t)] = aF D2 x + bF (Dx) + cF (x)




= a (jω)2 F (x) + b (jω) F (x) + cF (x)


h i
F [f (t)] = a (jω)2 + b (jω) + c F [x (t)] .

Donc un polynôme en l’opérateur D correspond au même polynôme en


(jω) dans le domaine fréquentiel.

si: f (t) ⇔ F (ω)


on a: P (D)
 f (t) ⇔ P (jω)F (ω)
2
F (ω) = −aω + bjω + c X (ω) .
114 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

On peut trouver la transformée X(ω) en sachant F (ω) et vice-versa. Comme


les équations différentielles décrivent plusieurs systèmes électriques, on peut
imaginer l’importance du théorème.
Nous pouvons utiliser les mêmes arguments pour la différentiation en
n
ai X i un polynôme. Nous aurons:
P
fréquence. En résumé, soit P (X) =
i=0

P (D) f (t) ⇔ P (jω) F (ω) et P (t) f (t) ⇔ P (jD) F (ω) .

Exemple Si P (X) = X 2 − 1 alors le résultat précédent signifie:

d2 2

f (t) − f (t) ⇔ − ω + 1 F (ω)
dt2
et
d2
t2 − 1 f (t) ⇔ − 2 F (ω) − F (ω) .


5.2 Application pour le calcul de transformées de


Fourier
5.2.1 Équation générale
On cherche la transformée de Fourier F (ω) de f (t). On suppose que la
dérivée nième de f (t) admet une transformée de Fourier que l’on note G (ω).
Pour trouver F (ω) il suffit de résoudre l’équation suivante:

j n ω n F (ω) = G (ω) .

Cette équation n’est pas toujours simple à résoudre parce que nous travail-
lons avec des distributions. Pour les fonctions intégrables, i.e.,
Z ∞
|f (t)| dt < ∞,
−∞

nous allons voir une approche très efficace pour le calcul des transformées.
Les fonctions bornées avec une durée finie sont toujours des fonctions intégra-
bles, et correspondent aux fonctions pour lesquelles cette méthode est très
efficace. Nous allons voir plusieurs exemples. Nous donnerons dans un
premier temps la résolution de cette équation pour des fonctions intégrables
et ensuite nous discuterons les problèmes qui surviennent avec les fonction
non-intégrables.
5.2. APPLICATION 115

1
Rect( t )

-1/2 0 1/2 t

Rect'( t )

1/2
-1/2 0 t

Figure 5.1 Fonction rectangle et sa dérivée.

5.2.2 Les fonctions intégrables


Pour des fonctions intégrables, aucun problème ne se pose puisque l’équation
à résoudre est une équation prise dans le sens des fonctions et par conséquent
la solution est:
T F f (n) (t)

G (ω)
F (ω) = n n
= n n.
j ω j ω

Exemple Prenons le cas de la fonction rectangle (Figure 5.1). Cette fonc-


tion est bornée et elle a une durée finie, donc c’est une fonction intégrable.
Nous avons:
d
Rect (t) = δ (t + 1/2) − δ (t − 1/2) .
dt
Nous pouvons calculer la transformée de Fourier de cette dérivée très facile-
ment:
d
Rect (t) ⇔ ejω/2 − e−jω/2 .
dt
Et ainsi, la transformée de Fourier de la fonction rectangle sera:

ejω/2 − e−jω/2 sin (ω/2)


F (ω) = = = Sa (ω/2) .
jω ω/2
116 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

f (t) = e- βt u (t) f(t)


1

1/2

0 t

Figure 5.2 La fonction exponentielle décroissante multipliée par


l’échelon.

Exemple Pour un deuxième exemple, prenons la fonction:

f (t) = e−βt u (t) .

Nous pouvons vérifier que cette fonction est intégrable:


Z ∞ Z ∞
|f (t)| dt = e−βt dt = 1/β < ∞.
−∞ 0

Sa dérivée sera:

f 0 (t) = −βe−βt u (t) + δ (t) = −βf (t) + δ (t) .

où la fonction delta provient de la discontinuité au point t=0.


Prenons la transformée de Fourier de sa dérivée:

jωF (ω) = −βF (ω) + 1.

Nous en déduisons:
(β + jω) F (ω) = 1.
Et ainsi, on obtient:
1
F (ω) = .
β + jω

Donc, la dérivée au point de discontinuité de l’échelon est une fonction


delta centrée sur le point de discontinuité. Si la discontinuité a une hauteur
h la fonction delta aura un poids h.
culer la transformée de Fourier de
acilement: 1/2
-1/2 0 t
ct ( t ) ⇔ e jω 2 − e − jω 2
ormée de Fourier de la fonction

− e − jω 2 sin (ω 2 ) 5.2. APPLICATION Figure 1 Fonction rectangle


= = Sa (ω 2 ) 117
ω ω2

f(t) bg bg bg
f ′ t = − βf t + δ t
δ t bg
1

1/2
0
t

0 t
−β

ction exponentielle dé- Figure 3 Dérivée de l'exponentielle dé-


ante multipliée par Figure 5.3 Dérivée de l’exponentielle décroissante multipliée par
croissante multipliée par
elon l’échelon.
l'échelon

exemple, prenons la fonction:


f ( t ) = e− β tu ( t ) .
fier que cette fonction est intégrable:
∞ ∞
∫ f ( t ) dt = ∫ e − β t dt = 1 β < ∞
−∞ 0
f(t)
1

utsch, Leslie A. Rusch -1 0 1 2 77

-3

Figure 5.4 Exemple, fonction f(t).


118 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

+3
f '(t)
+1

-1 0 1 2

-4

Figure 5.5 Dérivée de f(t).

Exemple Quelle est la dérivée de cette fonction:


   
1 t−1
f (t) = Rect t + − 3Rect .
2 2
On peut la trouver par inspection.
Avant t = −1, la fonction est constante, alors, la dérivée est zéro. Il y a
un échelon à t = −1 d’une hauteur de +1, la dérivée est une fonction delta
de poids un. 
df 0 t < −1
= .
dt δ (t + 1) t = −1
La fonction est constante entre −1 < t < 0, donc la dérivée est zéro. Il y
a un échelon à t=0 d’une hauteur de –3. Donc, la dérivée est une fonction
delta d’un poids de –3.


 0 t < −1



 δ (t + 1) t = −1
0 −1 < t < 0


df 
= −4δ (t) t=0 .
dt  

 0 0 < t < 2
3δ (t − 2) t=2





0 t>2
Quelle est la transformée de f (t)?
5.2. APPLICATION 119

1 1
pente= -1 d/dt d/dt
d

0 1
0 1

-1
-1

Figure 5.6 Rampe de pente négative entre zéro et un.

Df (t) = δ (t + 1) − 4δ (t) + 3δ (t − 2)
T F [Df (t)] = T F [δ (t + 1)] − 4T F [δ (t)] + 3T F [δ (t − 2)]
= ejω − 4 + 3e−j2ω
= jωT F [f (t)] .

Donc,
ejω − 4 + 3e−j2ω
T F [f (t)] = .

Nous pouvons vérifier ce résultat en utilisant:
     
1 t−1
T F [f (t)] = T F Rect t + − 3T F Rect ,
2 2
nous pouvons trouver la transformée de Fourier de la fonction de la Fig-
ure 5.4, en l’écrivant comme la somme de deux rectangles.

Exemple Trouvons la transformée de Fourier de la fonction de la Figure 5.6.


Pour cela nous allons utiliser les propriétés de la dérivée. La dérivée de
cette fonction est:
 
d 1
f (t) = δ (t) − Rect t − .
dt 2
Sa dérivée seconde est:
d2
f (t) = Dδ (t) + δ (t − 1) − δ (t) .
dt2
120 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

f (t) = Rect (t) cos (ω0 t)

Figure 5.7 Fonction cosinus multipliée par un rectangle.

Prenons la transformée de Fourier de sa dérivée seconde:

(jω)2 F (ω) = F [Dδ (t)] + F [δ (t − 1)] − F [δ(t)]


= jω − 1 + e−jω .

On trouve donc:
jω − 1 + e−jω
F (ω) = .
−ω 2
Exemple Contre-exemple...
La fonction de la Figure 5.7 est:

f (t) = Rect (t) cos (ω0 t) .

Sa dérivée (donnée à la Figure 5.8) est:

f 0 (t) = −ω0 Rect (t) sin (ω0 t) + cos (ω0 /2) [δ (t + 1/2) − δ (t − 1/2)] .

Sa dérivée seconde (Figure 5.7) est :

f 00 (t) = −ω02 Rect (t) cos (ω0 t)


+ω0 sin (ω0 /2) [δ (t + 1/2) + δ (t − 1/2)]
+ cos (ω0 /2) δ 0 (t + 1/2) − δ 0 (t − 1/2) .
 

Et ainsi:

−ω 2 F (ω) = −ω02 F (ω)


+2ω0 sin (ω0 /2) cos (ω/2)
+2j cos (ω0 /2) jω sin (ω/2) .
5.2. APPLICATION 121

cos(ω0 2)δ(t + 1 2)

f ′ (t)

− cos (ω0 2) δ(t − 1 2)

Figure 5.8 Dérivée de la fonction cosinus multipliée par un rect-


angle.

ω0 sin ω0 δ t + 1
( )( ) ω sin ω0 δ t − 1
2 2 0 ( )( )
2 2

(ω2 )δ' (t + 21)


cos 0

f”(t) (ω2 )δ' (t − 21)


− cos 0

Figure 5.9 Dérivée seconde la fonction cosinus multipliée par un


rectangle.
122 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

D’où:
−2ω0 sin (ω0 /2) cos (ω/2) 2ω cos (ω0 /2) sin (ω/2)
F (ω) = +
ω 2 − ω02 ω 2 − ω02
−ω0 sin ω+ω − sin ω−ω ω sin ω+ω + sin ω−ω
0
 0
 0
 0

2 2 2 2
= + .
(ω − ω0 ) (ω + ω0 ) (ω − ω0 ) (ω + ω0 )

On continue avec un peu de manipulation algébrique:

(ω − ω0 ) sin ω+ω (ω + ω0 ) sin ω−ω


 
0 0
2 2
F (ω) = + .
(ω − ω0 ) (ω + ω0 ) (ω − ω0 ) (ω + ω0 )

On obtient donc comme transformée de Fourier:


1 1
F (ω) = Sa ((ω + ω0 )/2) + Sa ((ω − ω0 )/2) .
2 2
On retrouve bien le résultat auquel on s’attendait, mais on ne veut pas
vraiment passer par ce chemin!

5.2.3 Les fonctions non-intégrables


Supposons que: f (t) = g (t) + co , et que: g (t) ⇔ G (ω), donc, f (t) ⇔
G (ω) + 2πco δ (ω)
On sait que:

f 0 (t) ⇔ jωF (ω) = G (ω) jω + 2πco δ (ω) jω


f 0 (t) ⇔ jωF (ω) = jωG (ω) + 2πco δ (ω) j · 0
f 0 (t) ⇔ jωF (ω) = jωG (ω) .

Si on essaie de dire que:

jωF (ω) = jωG (ω) ⇒ F (ω) = G (ω) ,

on va perdre de l’information sur le terme 2πco δ (ω), et on arrivera à la


conclusion incorrecte que: F (ω) = G (ω).
Si on commence avec une expression: (jω)n F (ω) = G (ω) la solution
n’est pas, en général: F (ω) = G (ω)/(jω)n mais:

G (ω)
F (ω) = + co δ (ω) + c1 δ 0 (ω) + c2 δ 00 (ω) + ... + cn−1 δ n−1 (ω) .
(jω)n

Les coefficients ci représentent les valeurs moyennes de f i (t), et ils ne sont


pas zéros pour les fonctions avec une durée infinie dans le temps.
5.2. APPLICATION 123

Exemple Prenons la fonction échelon suivante:

f (t) = U (t) jωF (ω) = 1


1
f 0 (t)= δ (t) ⇔ 1 F (ω) = jω + co δ (ω)

Le calcul des coefficients cI n’est pas facile, en général. Ici, on peut utiliser
le truc suivant:
1
F (ω) = + co δ (ω)

−1
Im{F (ω)} =
ω
Re{F (ω)} = co δ (ω) .

On cherche co qui paraı̂t dans la partie réelle de la transformée, donc qui


correspond à la partie paire de la fonction f (t). Nous allons trouver que
co = π.
1 1 1
fev (t) = [f (t) + f (−t)] = [1] =
2 2 2
1
fev (t) ⇔ 2πδ (ω) = πδ (ω) .
2

Finalement, la méthode fonctionne moins bien avec les fonctions non-intégra-


bles.

Exemple Autre approche avec les fonctions non-intégrables.


Soit la fonction:
f (t) = t2 + 2.
On sait déjà la transformée d’une constante (2). Pour t2 , on utilise la dualité:

f n ⇔ (jω)n F (ω) .

La méthode générale de solution sera vue en classe.

5.2.4 Les fonctions périodiques


La méthode la plus simple pour trouver la transformée d’une fonction pério-
dique est d’appliquer la méthode de différentiation à la restriction de la
fonction périodique. Voici les étapes à suivre:
124 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

f p (t)

t
-1 0 1

Figure 5.10 Fonction périodique.

1. fr (t) = fp (t) −To /2 < t < To /2 (0 ailleurs);

2. Trouver fr (t) ⇔ Fr (ω);

3. Trouver F (n) = Fr (nωo )/To ; trouver F (0) si nécessaire;



P
4. Formuler F (ω) = 2π F (n) δ (ω − nωo ).
n=−∞

Exemple Prenons la fonction périodique de la Figure 5.10 où la période est


To = 2 et la fréquence ωo = 2π/2 = π. Nous allons calculer sa transformée
de Fourier à l’aide de la méthode énumérée ci-haut. Cette fonction s’écrit :


−t + 1 0 < t < 1
fp (t) =
t = 1 −1 < t < 0
fp (t + 2) = fp (t) .

1. La restriction de cette fonction est (Figure 5.11):



 t + 1 −1 < t < 0
fr (t) = 1−t 0<t<1 .
0 ailleurs

La dérivée de cette fonction restreinte est (Figure 5.12):



 1 −1 < t < 0
0
fr (t) = −1 0 < t < 1 .
0 ailleurs

5.2. APPLICATION 125

f r(t)

pente 1 pente -1

-1 0 1 t

Figure 5.11 Restriction de la fonction périodique.

f r'(t) 1

-1 0 1

-1

Figure 5.12 Dérivée de la fonction restreinte.


126 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

f '' r(t)
1 1
t
-1 0 1

-2

Figure 5.13 Dérivée seconde de la fonction restreinte.

et sa dérivée seconde (Figure 5.13):

fr00 (t) = δ (t − 1) + δ (t + 1) − 2δ (t)


(jω)2 Fr (ω) = e−jω + ejω − 2 = 2 cos ω − 2
ω
= −2 (1 − cos ω) = −4 sin2 .
2

2. On trouve Fr (ω):
Fr (ω) = 4 ω 2 sin2 ω/2.


3. On peut maintenant trouver F (n) et F (0):

Fr (nωo ) 1 4 nωo
F (n) = = · sin2
To To (nωo )2 2
(
2
2 2 nπ (nπ)2
n impair
= 2 sin = .
(nπ) 2 0 autrement

Pour le coefficient F (0) nous calculons:


Z To
1 2 1 1 1 1
F (0) = fp (t) dt = · aire = · · 1 · 2 = .
To − T2o 2 2 2 2

Finalement, nous avons comme transformée de Fourier:



X X 2
F (ω) = 2π F (n) δ (ω − nωo ) = 2π δ (ω − nωo ) + πδ (ω) .
−∞ n2 π 2
nimpair
5.2. APPLICATION 127

−πt2 f (t)
f ( t) = e

Figure 5.14 Fonction gaussienne.

5.2.5 La transformée de Fourier d’une gaussienne


2
Nous allons calculer la transformée de Fourier de la fonction f (t) = e−πt .
Pour cela nous allons utiliser les propriétés que nous venons de démontrer.
La dérivée de f (t) est:

d 2
f (t) = −2πte−πt = −2πtf (t) .
dt
d d
Nous avons vu que dt f (t) ⇔ jωF (ω) et que tf (t) ⇔ j dω F (ω). Par
conséquent nous aurons:

d
jωF (ω) = −2πj F (ω) .

2
La transformée de Fourier de f (t) = e−πt vérifie donc l’équation diffé-
rentielle suivante:
d
2π F (ω) + ωF (ω) = 0.

2
La solution générale de cette équation est : F (ω) = Ce−ω /4π où C est une
constante.
Pour déterminer cette constante nous allons calculer F (0):

+∞
Z
2
F (0) = e−πt dt = 1.
−∞
128 CHAPITRE 5. TRANSFORMÉE DE FOURIER ET DÉRIVATION

On en déduit donc que C = 1 et :


2
F (ω) = e−ω /4π .

La transformée de Fourier d’une gaussienne est aussi une gaussienne.


Chapitre 6

Introduction au filtrage des


signaux

6.1 Introduction au filtrage analogique


6.1.1 Introduction
Le principal traitement effectué sur des signaux analogiques est le filtrage.
Afin de modéliser cette opération, nous allons introduire une notion im-
portante: celle des systèmes linéaires invariants dans le temps (SLIT). Ces
systèmes s’adaptent particulièrement bien à l’analyse de Fourier et, même
s’ils ne sont pas facilement réalisables en pratique, ils représentent assez
bien la réalité pour des signaux de faible dynamique. Nous allons définir
plusieurs propriétés du SLIT, et étudier quelques propriétés en profondeur.

6.1.2 L’analyse de systèmes


Un système est caractérisé par ses relations d’entrée et sortie tel qu’indiqué
à la figure 6.1 où x(t) est le signal à l’entrée et y(t) est le signal à la sortie du
système. Le système peut représenter plusieurs choses, e.g., un circuit, un
processus chimique, etc. Nous pouvons identifier les descriptions suivantes
d’un système:

• Linéarité;

• Invariance dans le temps;

• Mémoire ;

129
130 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

x(t) Système y(t)

Figure 6.1 Système.

• Causalité;

• Stabilité;

Dans le cours ici nous allons nous limiter à la discussion aux systèmes qui
sont linéaires et qui ne varient pas avec les temps (SLIT). Les définitions
exactes et quelques exemples suivent.

6.1.3 Linéarité
Supposons que la sortie d’un système est y1 (t) quand l’entrée est x1 (t), et
que la sortie est y2 (t) quand l’entrée est x2 (t). Nous disons que le système
est linéaire si et seulement si la sortie est:

y(t) = ay1 (t) + by2 (t) ,

quand l’entrée est la combinaison linéaire suivante:

x(t) = ax1 (t) + bx2 (t) .

Nous appelons cette propriété la superposition.

Exemple
y (t) = Rx (t) .
Cette équation peut représenter une sortie qui est la tension sur une résis-
tance ayant pour entrée un courant x(t). Pour l’entrée x1 (t), la sortie est
Rx 1 (t), et, pour entrée x2 (t) la sortie est Rx 2 (t). Quelle est la sortie pour
ax1 (t) + bx2 (t)? La sortie est R fois l’entrée, ou R [ax1 (t) + bx2 (t)] que
nous pouvons écrire comme:

R [ax1 (t) + bx2 (t)] = aRx1 (t) + bRx2 (t) = ay1 (t) + by2 (t) .

Donc, c’est bien un système linéaire.


6.1. INTRODUCTION AU FILTRAGE ANALOGIQUE 131

Exemple (Contre exemple)

y (t) = x2 (t) .
Cette équation peut représenter une sortie qui est le courant d’une photo-
diode ayant pour entrée les photons incidents x(t). Pour l’entrée x1 (t), la
sortie est x21 (t), et, pour l’entrée x2 (t) la sortie est x22 (t). Quelle est la sortie
pour ax1 (t) + bx2 (t)? La sortie est l’entrée au carré, donc:

y (t) = [ax1 (t) + bx2 (t)]2


= a2 x21 (t) + b2 x22 (t) + 2abx1 (t) x2 (t)
6= ay1 (t) + by2 (t) .

Donc, ce système n’est pas linéaire.

6.1.4 L’invariance dans le temps


Un système est dit invariant dans le temps (ou stationnaire) si son
comportement se reproduit de façon identique dans le temps. Nous disons
que le système est stationnaire si et seulement si la sortie est y(t-τ ) quand
l’entrée est une version décalée de l’entrée x(t), soit x(t-τ ).

Exemple
y(t) = ax(t).
Prenons le cas d’un amplificateur idéal. Le signal d’entrée x(t) est associé
au signal de sortie y(t) = ax (t) (avec a > 1). Ce système est clairement
stationnaire.

Exemple (Contre exemple)

y (t) = x (t) sin t.

Quand l’entrée est x(t), la sortie est y (t) = x (t) sin t. Si l’entrée est décalée
la sortie sera x (t − τ ) sin t qui n’est pas égal à:

y (t)|t−τ = y (t − τ ) = x (t − τ ) sin (t − τ ) ,

donc ce système n’est pas stationnaire en raison du sinus qui n’a pas la même
phase après le décalage.
132 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

Note 1: Dans la pratique, comme nous l’avons signalé, ces systèmes ne sont
pas faciles à réaliser. En effet, les phénomènes de saturation, d’hystérésis
ou d’offset introduisent des non-linéarités dans les circuits électriques et les
phénomènes de vieillissement des matériaux ou de sensibilité à la variation
de la température peuvent entraı̂ner des comportements non stationnaires.

Note 2: Les systèmes LIT qui disposent de plus d’une propriété de continuité
sont appelés des filtres. Nous ne nous intéresserons pas à cette propriété dans
le cadre de ce cours et nous allons admettre que tous les systèmes LIT que
nous allons traiter maintenant sont des filtres.

6.1.5 Mémoire
Un système n’a pas de mémoire si la sortie au temps t = t0 est une fonction
de l’entrée au temps t = t0 , et si la sortie au temps t = t0 n’est pas une
fonction de l’entrée pour t 6= t0 .

Exemple
y (t) = Rx (t) .
Cette équation peut représenter une sortie qui est la tension sur une résistan-
ce ayant pour entrée le courant x(t). La tension est le courant multiplié par
une résistance, et n’est pas influencée par la courant avant ou après.

Exemple (Contre exemple)


Z t0
1
y (t0 ) = x (z) dz.
C −∞

Cette équation peut représenter une sortie qui est la tension sur un
condensateur avec un courant x(t) pour entrée. La tension est une fonction
du courant antérieur, i.e., x(t) pour t < t0 .

6.1.6 Causalité
Un système est dit causal si à un instant t donné, la sortie y(t) ne peut
pas dépendre de l’entrée à un instant (t + τ ) avec τ > 0. Dit autrement,
l’avenir ne peut pas influencer le passé ou encore les effets ne peuvent pas
devancer les causes. Les systèmes réels sont toujours causaux, mais nous
utilisons parfois de constructions mathématiques qui ne sont pas causales.
Par exemple, si on traite un signal déjà enregistré avec un ordinateur,
à un instant donné on a accès à toute l’information sur le signal, donc à
6.2. APPROCHE FRÉQUENTIELLE 133

instable stable

Figure 6.2 Stabilité.

ce qui s’est passé dans son ”futur”. On pourra donc faire une opération
mathématique non causale, mais simplement parce qu’on a enregistré le
signal.

6.1.7 Stabilité BIBO


Un système est dit stable dans le sens BIBO (bounded input, bounded
output) si une petite entrée n’engendre pas de gros changements. Pour M1
et M2 fini, nous avons que :
|x (t)| < M1 ⇒ |y (t)| < M2 .

6.2 Approche fréquentielle


6.2.1 Equations différentielles linéaires à coefficients cons-
tants
Pour les systèmes LIT, on peut représenter les relations entre l’entrée et
la sortie par des équations différentielles linéaires à coefficients constants.
Nous aurons donc des relations du type:
n m
X di X dj
ai x (t) = bi j y (t) .
dti dt
i=0 j=0

n m
ai X i et P2 (X) le polynôme bj X j alors
P P
Si on note P1 (X) le polynôme
i=0 j=0
nous aurons:    
d d
P1 x (t) = P2 y (t) .
dt dt
Prenons la transformée de Fourier de cette équation:
P1 (jω) X (ω) = P2 (jω) Y (ω) .
134 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

Nous aurons donc la relation suivante dans le domaine fréquentiel:


P1 (jω)
Y (ω) = X (ω) .
P2 (jω)
Nous appelons le rapport suivant:
Y (ω) P1 (jω)
H (ω) = = ,
X (ω) P2 (jω)
la fonction de transfert. Même si nous ne spécifions pas l’équation
différentielle, nous allons admettre que tout filtre peut être caractérisé par
une fonction H (ω) qui relie les transformées de Fourier des signaux d’entrée
et de sortie par l’équation:

Y (ω) = H (ω) X (ω) .

H (ω) est toujours appelée la fonction de transfert du filtre ou encore sa


réponse en fréquence.
|H (ω)| est appelé le gain en fréquence du filtre et Arg (H (ω))est la
phase du filtre.
La relation Y (ω) = H (ω) X (ω) nous permet de voir directement qu’au-
cune nouvelle fréquence ne peut être produite par un filtre. En effet, si le
spectre de l’entrée est compris entre -B et +B, alors le spectre de la sortie
sera strictement compris entre -B et +B aussi.
Comme Arg (H (ω)) est très souvent négatif on parle souvent de retard
de phase ou de déphasage pour désigner −Arg (H (ω)). On peut constater
que du point de vue de l’amplitude:

|Y (ω)| = |H (ω)| |X (ω)| ,

et que du point de vue de la phase on aura:

Arg (Y (ω)) = Arg (X (ω)) + Arg (H (ω)) .

L’opération de filtrage se traduit donc par une multiplication du spectre


d’amplitude par la fonction de transfert du filtre et par un déphasage.
La relation Y (ω) = H (ω) X (ω) nous donne un moyen indirect de calcul
de la fonction de transfert H (ω). En effet, si on sait que le système qu’on
cherche à caractériser est linéaire et invariant dans le temps, alors il suffit
de connaı̂tre la transformée de Fourier du signal de sortie du système pour
une entrée connue pour calculer la fonction de transfert et ainsi caractériser
le filtre.
6.2. APPROCHE FRÉQUENTIELLE 135

x(t) y(t) = a 1 x (t − t1) + a 2 x (t − t 2)


Canal de
transmission

Figure 6.3 Exemple d’un SLIT.

x(t) = e −βt U(t) 1 y(t) = ?


H(ω) =
1 + jωτ

Figure 6.4 SLIT: Filtre de 1er ordre.

Exemple Transmission de données


Un signal x(t) est transmis vers un récepteur par un canal. Le récepteur
reçoit un signal:
y(t)=a1 x(t-t1 )+a2 x(t-t2 ) .
On peut modéliser la transmission sur ce canal par un filtre parce que le
système est linéaire et invariant dans le temps.
Pour calculer la fonction de transfert de ce système, nous allons tout
simplement prendre la transformée de Fourier du signal de sortie y(t):

Y (ω) = a1 e−jωt1 + a2 e−jωt2 X (ω) .


 

Comme Y (ω) = H (ω) X (ω) nous aurons:

H (ω) = a1 e−jωt1 + a2 e−jωt2 .

6.2.2 Calcul de la sortie temporelle d’un filtre


Le filtrage d’un signal x(t) par un filtre dont la fonction de transfert est H (ω)
nous donne un signal y(t). Mais à cause de la relation Y (ω) = H (ω) X (ω)
nous n’avons pas directement accès à y(t). On retrouve l’expression tem-
porelle de la réponse y(t) en prenant la transformée de Fourier inverse:
+∞
Z +∞
Z
1 1
y (t) = Y (ω) ejωt dω = H (ω) X (ω) ejωt dω.
2π 2π
−∞ −∞
136 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

1
x(t)

Figure 6.5 Entrée du filtre: exponentielle décroissante d’un côté.

Exemple Filtre de 1er ordre.


Nous allons chercher la réponse du filtre défini par la fonction de trans-
1
fert suivante H (ω) = 1+jωτ lorsque le signal d’entrée est une exponentielle
décroissante d’un coté. Nous aurons x (t) = e−βt U (t), donc:
1
X (ω) = .
β + jω

Nous utilisons Y (ω) = H (ω) X (ω) pour trouver la sortie y(t). Nous
allons traiter les deux cas β 6= 1/τ et β = 1/τ séparément, étant donné que
le calcul de la transformée inverse de y(t) sera différent pour ces deux cas.

1. Premier cas: β 6= 1/τ.


1
Y (ω) =
(β + jω) (1 + jωτ )
A B
= + .
β + jω 1 + jωτ
Nous allons utiliser l’approche des fractions partielles et trouver A et
B. Nous avons que:

A + Ajωτ + Bβ + jωB = 1.

Donc, nous pouvons en déduire que:

Aωτ = −ωB
B = −Aτ
A + Bβ = 1
A − Aτ β = A (1 − βτ ) .
6.2. APPROCHE FRÉQUENTIELLE 137

Finalement:
1 −τ
A= et B= .
1 − βτ 1 − βτ

Pour continuer, retournons à la transformée de Fourier:

 
1 1 τ
Y (ω) = · −
1 − βτ β + jω 1 + jωτ
 
1 1 1
= · − .
1 − βτ β + jω 1/τ + jω

On sait que:
1
e−βt U (t) ⇔ ,
β + jω
donc:
1 h −βt i
y (t) = e U (t) − e−t/τ U (t) .
1 − βτ

2. Deuxième cas: β = 1/τ ,

β
Y (ω) = .
(β + jω)2

En réalisant que:
 
d 1 −j
= ,
dω β + jω (β + jω)2

et en utilisant:
1
e−βt U (t) ⇔ ,
β + jω
on trouve:
d 1 1
te−βt U (t) ⇔ j = .
dω β + jω (β + jω)2
Donc:
β
y (t) = T F −1 2 = βte
−βt
U (t) .
(β + jω)
.
En résumé on a trouvé:
138 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

1
1. premier cas: β 6= τ

1  −βt 
y (t) = e − e−t/τ U (t) ,
1 − βτ

1
2. deuxième cas: β = τ

y (t) = βte−βt U (t) .

6.2.3 Réponse harmonique


Nous allons maintenant traiter un cas particulier en étudiant la réponse d’un
système LIT lorsque l’entrée est un signal exponentiel complexe. Dans ce
cas, la réponse est appelée réponse harmonique. Ce genre de réponse
est intéressant d’une part par sa simplicité mais aussi parce qu’il permet
d’interpréter ce qui se passe d’un point de vue fréquentiel.

Réponse à une exponentielle complexe


Prenons comme signal d’entrée x (t) = ejω0 t . Sa transformée de Fourier sera:
X (ω) = 2πδ (ω − ω0 ). La réponse du filtre sera donc:

Y (ω) = H (ω) X (ω) = 2πH (ω) δ (ω − ω0 ) = 2πH (ω0 ) δ (ω − ω0 ) .

Par conséquent:

y (t) = H (ω0 ) ejω0 t = |H (ω0 )| ejω0 t+Arg(H(ω0 )) .

La réponse harmonique est donc une exponentielle complexe de même fré-


quence mais déphasée et amplifiée.

Réponse à un sinus ou un cosinus


Nous allons en déduire la réponse d’un filtre à un sinus ou à un cosinus:

Si x (t) = cos (ω0 t) alors y (t) = |H (ω0 )| cos (ω0 t + Arg (H (ω0 )))
Si x (t) = sin (ω0 t) alors y (t) = |H (ω0 )| sin (ω0 t + Arg (H (ω0 ))) .

Supposons que l’entrée du filtre est une exponentielle complexe:

x (t) = cos ωo t + j sin ωo t = ejωo t .


6.2. APPROCHE FRÉQUENTIELLE 139

Pour un système linéaire, la sortie d’une somme est la somme des sorties,
c’est-à-dire:

y (t) = L [cos ωo t] + L [j sin ωo t]


= L [cos ωo t] + jL [sin ωo t] .

Donc la sortie sera la réponse à cos ωo t plus j fois la répones à sin ωo t.


Comme cos ωo t et sin ωo t sont réelles, nous savons que L [cos ωo t] , L [sin ωo t]
sont réelles aussi. La conclusion est que L [cos ωo t] est la partie réelle de la
sortie y (t), et L [sin ωo t] est la partie complexe de la sortie. Pour trouver la
réponse à cos ωo t et sin ωo t, nous allons utiliser la réponse à ejωo t . La partie
réelle de la réponse à ejωo t sera la réponse à cos ωo t. La partie imaginaire
de la réponse à ejωo t sera la réponse à sin ωo t.
On a vu que quand l’entrée du filtre est ejωo t , la sortie est:

y (t) = H (ω0 ) ejω0 t = |H (ω0 )| ejω0 t+Arg(H(ω0 )) .

En utilisant la forme trigonométrique nous avons:

y (t) = |H (ωo )| {cos [ωo t + Arg(H (ωo ))] + j sin [ωo t + Arg(H (ωo ))]}
= |H (ωo )| cos [ωo t + Arg(H (ωo ))] + j |H (ωo )| sin [ωo t + Arg(H (ωo ))]
y (t) = Re{y (t)} + jIm{y (t)}.

Donc la réponse à cos ωo t est:

Re{y (t)} = |H (ωo )| cos [ωo t + Arg(H (ωo ))] ,

et la réponse à sin ωo t est:

Im{y (t)} = |H (ωo )| sin [ωo t + Arg(H (ωo ))] .

Ces deux résultats sont très importants. Pour un système linéaire, un cosinus
à l’entrée devient un cosinus à la sortie à la même fréquence, mais avec une
amplitude et une phase différentes.

Réponse à un signal périodique


De même, on peut retrouver le signal de sortie lorsque le signal d’entrée est
périodique. En effet, si x(t) est périodique nous aurons:
+∞
X
x (t) = X (n) ejnω0 t ,
n=−∞
140 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

H( ω)
1

ω
-B B

Figure 6.6 Filtre passe-bas idéal.

avec
T
Z0 /2
1
X (n) = x (t) e−jnω0 t dt.
T0
−T0 /2

Donc:
+∞
X
y (t) = H (nω0 ) X (n)ejnω0 t .
n=−∞

Par conséquent, la sortie est elle aussi périodique et on peut trouver


directement les coefficients de la série de Fourier:

Y (n)=X(n)H(nω0 ).

Filtre passe bas idéal


La fonction de transfert du filtre passe-bas idéal (Figure 6.1) est:

H (ω) = Rect (ω/2B) .

Seulement les composantes de basse fréquence passent, les autres composan-


tes sont mises à zéro. Nous allons utiliser ce filtre au prochain exemple.
Nous allons déterminer la sortie quand un signal d’horloge passe par un
filtre passe-bas.

Exemple Signal d’horloge


On va considérer le signal d’horloge x(t) de la Figure 6.7. La période est
T0 et l’expression analytique du signal est:

x (t) = aRect (t/τ ) ,

pour -T0 /2 ≤ t ≤ T0 /2 avec τ < T0 . Donc la durée du rectangle est τ ,


et le rectangle est répété avec une période de T0 . Le signal d’horloge est
6.2. APPROCHE FRÉQUENTIELLE 141

-T 0 −τ/2 τ/2 T0

Figure 6.7 Signal d’horloge.

périodique donc:

X
T F [x (t)] = 2π X (n) δ (ω − nωo ),
−∞

où les coefficients X (n) de la série de Fourier sont:


Xr (nωo ) a nωo τ
X (n) = = τ Sa
To To 2
parce que,
Frest (nωo )
F (n) =
To
où la restriction est:  
t
xrest (t) = Rect .
τ
Supposons que ce signal périodique passe par un filtre passe-bas idéal avec
B = 3π/T0 . La sortie du filtre est:

X
y (t) = H (nωo ) X (n) ejnωo t .
−∞

Regardons les coefficients X (n) et H (nωo ):

n X (n) nωo H (nωo )



0 To 0 1
±1 aτ
To · Sa( ω2o τ ) ±ωo = ± 2π 2
To = 3 B < B 1

±2 To · Sa(ωo τ ) ±2ωo = ± To = 43 B > B

0

Nous pouvons voir dans le table et dans la Figure 6.8 que pour les coeffi-
cients n ≥ 2 le produit |nωo | est plus grand que B, donc la fonction H (nωo )
est nulle pour n ≥ 2. La sortie est, par conséquent:
142 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

X(0)

1
X(-1) X(1)
X(-2) X(2)
X(-3) X(3)

-3 π/To 3π/To ω

Figure 6.8 La sortie du filtre.

y (t) = X (−1) e−jωo t + X (0) + X (1) ejωo t



= (1 + 2Sa (ω0 τ /2) cos (ω0 t)) .
T0

En effet, comme B =3π/T0 = 3ω0 /2, le filtre ne laisse passer que la com-
posante continue et le premier harmonique. Dans le cas particulier où
τ = T0 /2, nous aurons:
 
a a 4
y (t) = (1 + 2Sa (π/2) cos (ω0 t)) = 1 + cos (ω0 t) .
2 2 π

6.2.4 Analyse des Circuits


Nous avons vu dans la section 6.2.1 que les systèmes LIT sont souvent décrits
par des équations différentielles linéaires à coefficients constants. Un très
bon exemple de ce genre de SLIT sont les circuits avec composantes pas-
sives. Nous allons voir maintenant à l’aide de plusieurs exemples, comment
l’analyse de Fourier peut-être utilisée pour trouver la fonction transfert d’un
circuit.

Exemple Circuit RLC


Nous allons traiter le circuit de la Figure 6.9. Ici x(t) est la tension
d’entrée et y(t) celle de sortie. En prenant la maille complète nous aurons:

d
Ri (t) + L i (t) + y (t) = x (t) .
dt
De plus, nous pouvons exprimer y(t) en fonction du courant:

d
i (t) = C y (t) .
dt
6.2. APPROCHE FRÉQUENTIELLE 143

R i(t) L

x(t) C y(t)

Figure 6.9 Circuit RLC.

Nous arrivons donc à une équation différentielle en fonction de x(t) et y(t):

d d2
x (t) = y (t) + RC y (t) + LC 2 y (t) .
dt dt
Avec les notations précédentes on aura: P1 (D) = 1 , P2 (D) = 1+(RC) D +
(LC) D2 . La fonction de transfert est alors:

P1 (jω) 1
H (ω) = = .
P2 (jω) (1 − LCω 2 ) + jRCω
Le gain et la phase de ce filtre sont donnés par:
1
|H (ω)| = q
(1 − LCω 2 )2 + R2 C 2 ω 2

et  
−RCω
Arg (H (ω)) = arctan .
1 − LCω 2

Exemple Dans le cours de circuit vous avez étudié comment trouver l’é-
quation différentielle qui décrit un circuit comme celui de la Figure 6.10.
Si l’entrée est la tension x (t), et la sortie la tension y (t), l’équation
différentielle de ce circuit est:

12y 00 (t) + 7y 0 (t) + y (t) = 2x0 (t) + x (t) .

Quelle est la réponse fréquentielle de ce système? On veut avoir la forme:

P1 (D) y (t) = P2 (D) x (t) ,


144 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

R1=5/2 i(t) L=6

x(t) C=2 y(t)

R2=1

Figure 6.10 Circuit.

parce qu’on sait que la réponse fréquentielle est:

P2 (D)
H (ω) = où D = jω.
P1 (D)

Donc,

12D2 y (t) + 7Dy (t) + y (t) = 2Dx (t) + x (t)


12D2 + 7D + 1 y (t) = [2D + 1] x (t) ,
 

2D + 1 2jω + 1
H (ω) = = .
2
12D + 7D + 1 12 (jω)2 + 7jω + 1

L’impédance complexe
Dans l’analyse des circuits électriques, la tension d’entrée est reliée à celle de
sortie par des équations différentielles linéaires à coefficients constants. Le
calcul de la fonction de transfert peut cependant se faire directement dans le
domaine fréquentiel si on associe à chaque composant électrique (résistance,
capacité et inductance) une grandeur complexe.
En effet, la tension aux bornes d’une résistance est donnée par:

v (t) = Ri (t) .

De même, aux bornes d’une inductance nous avons:

d
v (t) = L i (t) .
dt
ansfert H(ω) du système en utilisant les lois de Kirchhoff avec une
résistances, de jLω pour les inductances et enfin de 1 jCω pour les

ourant d'entrée du système, on appellera impédance d'entrée le rapport

6.2. APPROCHE FRÉQUENTIELLE 145


se-bas
Figure 9, un filtre passe-
ω ) = ( R + 1 / jCω ) I (ω ) et I
R 1
1
RCω
X ω bg X
jCω
Y

era par conséquent:


1 Figure 6.11 Filtre RC passe-bas.
Figure 9 Filtre RC passe-bas
+ jRCω
Enfin, aux bornes d’une capacité nous aurons:
et la phase du filtre seront:
d
g
ω =
1
c b gh
et Arg H ω = arctan −ωτ b g
i (t) = C v (t) .
dt
d i
1 + ω 2τ 2 Par conséquent, si on note V (ω) la transformée de Fourier de la tension
v(t) et I (ω) celle du courant i(t), les relations précédentes deviendront les
suivantes dans le domaine fréquentiel:
Figure 10 où nous utilisons l’approche
V (ω) = RI de
(ω) l’impédance complexe.
V (ω)/I (ω) = R
V (ω) = jLωI (ω) ou encore V (ω)/I (ω) = jωL .
I (ω) = jCωV (ω) V (ω)/I (ω) = 1/jCω

Le rapport V (ω)/I (ω) est appelé l’impédance complexe.


Si on note x(t) la tension à l’entrée du circuit et y(t) celle à la sortie du
circuit, alors on pourra trouver la fonction de transfert H(ω) du système en
utilisant les lois de Kirchhoff avec une impédance de R pour les résistances,
de jLω pour les inductances et enfin de 1/jCω pour les capacités.
Si on note i(t) le 2003
courant d’entrée Deutsch,
Christophe du système, on A.
Leslie appellera
Rusch impédance
d’entrée le rapport X (ω)/I (ω).

Exemple Filtre RC passe-bas


Prenons l’exemple de la Figure 6.11, un filtre passe-bas. Nous aurons:
X(ω)=(R+1/jCω)I(ω) et Y (ω)=I(ω)/jCω. D’où:
1
Y (ω) = X (ω) .
1 + jRCω
La fonction de transfert sera par conséquent:
1
H (ω) = .
1 + jRCω
146 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

L R+j ωL
R i(t) R i(t) jωL

x(t) C y(t) 1/j ωC X( ω) 1/j ωC Y( ω)

Figure 6.12 Filtre RLC.

On pose τ = RC. Le gain et la phase du filtre seront:


1
|H (ω)| = p et Arg (H (ω)) = arctan (−ωτ ) .
(1 + ω 2 τ 2 )
Exemple Filtre RLC.
Prenons l’exemple de la Figure 6.12 où nous utilisons l’approche de
l’impédance complexe.
Nous avons un diviseur de tension, donc:
Y (ω) 1/jωC
=
X (ω) R + jωL + 1/jωC
1
=
1 + jωC (R + jωL)
1
= 2
.
1 − ω LC + jωRC
Ainsi, nous avons trouvé la réponse fréquentielle très facilement. Cette
méthode est beaucoup plus rapide que la résolution de l’équation différentielle.
Cependant, on obtient de l’information à propos du régime stationnaire
uniquement, et non à propos du régime transitoire.
Exemple Prenons l’exemple du circuit de la figure 6.13.
La réponse fréquentielle est donc:
Y (ω) 1 + 1/2jω 1 + 2jω
= = .
X (ω) 1 + 1/2jω + 6jω + 5/2 1 + 7jω − 12ω 2
Exemple Prenons pour exemple encore le circuit de la figure Figure 6.10.
Pour x (t) = e−t U (t) , on sait que X (ω) = 1+jω
1
, donc:
2jω + 1 2jω + 1
Y (ω) =   = .
12 (jω)2 + 7jω + 1 (1 + jω) (3jω + 1) (4jω + 1) (jω + 1)
6.2. APPROCHE FRÉQUENTIELLE 147

R 1 =5/2 i(t) L=6 jω6+5/2

C=2
x(t) y(t) X(ω) 1+1/2j ω Y( ω)

R 2 =1

Figure 6.13 Exemple.

On peut encore trouver la transformée inverse si on utilise la méthode des


fractions partielles.

2jω + 1 A B C
Y (ω) = = + + ,
(3jω + 1) (4jω + 1) (jω + 1) (1 + 3jω) (1 + 4jω) (1 + jω)

A [(4jω + 1) (jω + 1)]+B [(3jω + 1) (jω + 1)]+C [(4jω + 1) (3jω + 1)] = 1+2jω.

−1
jω = −1 ⇒ C (1 − 3) (1 − 4) = 1 − 2 = −1 = C · 2 · 3 ⇒ C =
   6
−1 3 1 2 1 1 3 8
jω = ⇒B 1− 1− =1− = =B· · ⇒B =
4 4 4 4 2 4 4 3
  
−1 4 1 2 1 −1 2 −3
jω = ⇒A 1− 1− =1− = =A· · ⇒A= .
3 3 3 3 3 3 3 2

Donc,

−3/2 8/3 −1/6


Y (ω) = + +
(1 + 3jω) (1 + 4jω) (1 + jω)
−1/2 2/3 −1/6
= + + .
(1/3 + jω) (1/4 + jω) (1 + jω)
148 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

On sait que e−βt U (t) ⇔ 1


β+jω , donc:

y (t) = F −1 [Y (ω)]
 
−1 −1/2 2/3 −1/6
= F + +
(1/3 + jω) (1/4 + 4jω) (1 + jω)
     
−1 −1 −1 2 −1 1 1 −1 1
= F + F − F
2 (1/3 + jω) 3 (1/4 + 4jω) 6 (1 + jω)
−1 −t/3 2 1
= e U (t) + e−t/4 U (t) − e−t U (t) .
2 3 6
Finalement, on obtient:
 
−1 −t/3 2 −t/4 1 −t
y (t) = e + e − e U (t) .
2 3 6

On a une somme pondérée d’exponentielle décroissante avec des con-


stantes de temps différentes. Deux des constantes de temps proviennent du
filtre lui-même, et une des constantes de temps provient du signal d’entrée.

Exemple Filtre passe-bas du second ordre


La figure 6.14 montre un filtre actif de second ordre. supposons l’amplifi-
cateur opérationnel idéal. Nous aurons donc les relations V+ = V− =
I1
Y et I+ = 0. Nous aurons alors: Y = jCω . En appelant VN la tension
au point N nous aurons aussi:

I2
Y − VN = RI1 = .
2jCω

Nous pouvons donc exprimer les courants en fonction de la tension de


sortie:

I1 = jCωY
I2 = 2jRCωI1 = −2RC 2 ω 2 Y et
I = I1 + I2 = jCω − 2RC 2 ω 2 Y.


Il suffit à présent d’exprimer la tension d’entrée:

I1
X = R (I + I1 ) +
jCω
2jRCω − 2R2 C 2 ω 2 + 1 Y.

=
6.3. APPROCHE TEMPORELLE 149

2C

I2
R R

I
N
I+ +
I1 -
X
Y
C

Figure 6.14 Filtre actif de second ordre.

La fonction de transfert sera donc:


1
H (ω) = .
((1 − 2R2 C 2 ω 2 ) + 2jRCω)

Le gain et la phase de ce filtre seront:

1
|H (ω)| = √
1 + 4R4 C 4 ω 4

et  
−2RCω
Arg (H (ω)) = arctan .
1 − 2R2 C 2 ω 2

6.3 Approche temporelle


Dans le paragraphe précédent, nous avons vu le filtrage d’un point de vue
fréquentiel et nous avons vu que, pour calculer la réponse d’un filtre à un
signal d’entrée donné, il fallait utiliser la transformée de Fourier inverse.
Nous allons à présent montrer qu’il est possible de calculer cette réponse
sans passer par la transformée de Fourier. Pour cela nous allons commencer
en introduisant la notion de produit de convolution.
150 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

6.3.1 Produit de convolution


Définition
Soient f (t) et g(t) deux fonctions. On définit le produit de convolution de
la manière suivante:
+∞
Z
{f ∗ g} (t) = f (u) g (t − u) du.
−∞

Exemple Calculer le produit de convolution de f (t) = Rect(t) et g(t) = 1


.
+∞
Z +∞
Z Z1/2
{f ∗ g} (t) = f (u) g (t − u) du = Rect (u) du = du = 1.
−∞ −∞ −1/2

Exemple Calculer le produit de convolution de f (t) = δ (t) et g(t) quel-


conque.
+∞
Z +∞
Z
{f ∗ g} (t) = f (u) g (t − u) du = δ (u) g (t − u) du
−∞ −∞
+∞
Z
= g (t) δ (u) du = g (t) .
−∞

Interprétation graphique et méthode de calcul


Le produit de convolution est défini par une intégrale. Par conséquent, pour
un t donné, {f ∗ g} (t) est l’aire qui se trouve sous la courbe f (u) g (t − u).
D’un point de vue graphique, la courbe de g(t − u) se déduit de celle de g(t):
on retourne la courbe de g(t) par rapport à l’axe des abscisses, puis on fait
une translation de t vers la droite.
Pour avoir une idée du produit f (u) g (t − u), on trace la courbe de f (u),
puis celle de g (t − u). Pour trouver le produit de convolution pour toutes
les valeurs de t il suffit de déplacer la courbe de g (−u). On peut alors voir
graphiquement que plusieurs zones se dessinent en fonction de t.

Exemple f (t) = Rect(t) et g(t) = Rect(t).


6.3. APPROCHE TEMPORELLE 151

f(u)
g(t-u)

t -1/2 1/2

f(u)g(t-u)

Figure 6.15 Convolution de rectangles pour t < −1 ou t > 1.

f(u)
g(t-u)

f(u)g(t-u)

Figure 6.16 Convolution de rectangles pour -1 < t < 0.

f(u)
g(t-u)

f(u)g(t-u)

Figure 6.17 Convolution de rectangles pour 0 < t < 1.


152 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

• On constate graphiquement que tant que t < −1 ou t > 1, les deux


rectangles ne se touchent pas. Par conséquent, f (u) g (t − u) est nulle
et {f ∗ g} (t) aussi.

• Par contre, pour −1 < t < 0, les deux rectangles se chevauchent et


le produit f (u) g (t − u) a un support de plus en plus grand. En fait
nous avons:

f (u) g (t − u) = 1 pour − 1/2 < u < t + 1/2.

+∞
Z 1/2+t
Z
{f ∗ g} (t) = f (u) g (t − u) du = du = 1 + t.
−∞ −1/2

• Ensuite, quand 0 < t < 1, le produit f (u) g (t − u) va avoir un support


qui va diminuer:

f (u)g(t − u) = 1 pour − 1/2 + t < u < 1/2.

+∞
Z Z1/2
{f ∗ g} (t) = f (u) g (t − u) du = du = 1 − t.
−∞ −1/2+t

Nous aurons donc finalement:

Rect(t) ∗ Rect(t)=Tri(t).

De manière générale, pour calculer un produit de convolution, il faut


toujours commencer en trouvant les zones pour lesquelles f (u) g (t − u) va
changer de forme. On trouve ces zones en déplaçant la fonction g(−u)
et en voyant quand elle rencontre la fonction f (u). Ensuite, on cherche
l’expression de f (u) g (t − u) sur chacune des zones précédemment trouvées.
Et enfin, on calcule l’intégrale.
6.3. APPROCHE TEMPORELLE 153

Exemple Convolution de f (t) = g (t) = e−β|t| .

Zone f (u) g (t − u) {f ∗ g} (t)


]−∞, 0] +∞
Z
 β(2u−t)
pour u ≤ t f (u) g (t − u) du
 e
eβt pour t ≤ u ≤ 0 −∞
 β(t−2u)
e pour u ≥ 0 Zt Z0 +∞
Z
= eβ(2u−t) du + eβt du + e−β(2u−t) du
g(t-u) f(u)
−∞ t 0
t +∞
eβ(2u−t) e−β(2u−t)
= − teβt +
f(u)g(t-u) 2β −2β
−∞ 0
 
1
= eβt −t
β

[0, +∞[ +∞
Z
 β(2u−t)
pour u ≤ 0 f (u) g (t − u) du
 e
e−βt pour 0 ≤ u ≤ t −∞
 β(t−2u)
e pour u ≥ t Z0 Zt +∞
Z
−βt
= e β(2u−t)
du + e du + e−β(2u−t) du
f(u) g(t-u)
−∞ 0 t
0 +∞
eβ(2u−t) βt e−β(2u−t)
= + te +
f(u)g(t-u) 2β −2β
−∞ t
 
1
= e−βt +t
β

On peut résumer ceci en introduisant une valeur absolue:


 
−β|t| 1
{f ∗ g} (t) = e + |t| .
β
154 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

Exemple Convolution de g(t) = Rect(t) et f (t) = e−βt U (t).


Dans ce cas il est plus intéressant de prendre la forme {g ∗ f } (t) car il
est plus facile de déplacer un rectangle qu’une exponentielle décroissante.

Zone f (u) g (t − u) {f ∗ g} (t)


g(t-u) f(u)

t-1/2 t+1/2
]−∞, −1/2] 0

f(u)g(t-u)

t+1/2
Z
e−βu 1

pour 0 ≤ u ≤ t + 2 = e−βu du
g(t-u) f(u) 0
t+1/2
e−βu
[−1/2, 1/2] =
−β 0
f(u)g(t-u) 1 
= 1 − e−β(t+1/2)
β

t+1/2
Z
= e−βu du
e−βupour t−1/2
[1/2, +∞[ t−

≤ u ≤ t + 12
1

2 t+1/2
e−βu
g(t-u) =
f(u) −β t−1/2
e−βt  
= eβ/2 − e−β/2
β
f(u)g(t-u)
2sh (β/2) e−βt
=
β

Le produit de convolution donnera une courbe de la forme de celle de la


Figure 6.18.
0

=
1
e1 − e b
− β t +1 2 gj
β
FG IJ FG IJ l f ∗ gqbt g =
z
t +1 2
1 1
e − βu pour t −
H 2 K
≤u≤ t+
2 H K t −1 2
e − βu du

t +1 2
g(t-u) e − βu
1 2 ,+∞ 6.3. f(u)
APPROCHE TEMPORELLE = 155
−β t −1 2

e − βt
f(u)g(t-u) =
β
de β 2
− e−β 2
i
=
b g
2 sh β 2 e − βt
β

uit de convolution donnera


be de la forme de celle de la
6. l f ∗ gqbt g 1 − eβ
β

-1/2 1/2

Figure 16 Résultat du produit de convolution


du rectangle
Figure 6.18 Résultat duparproduit
une exp.
de décroissante
convolution du rectangle
par une exponentielle décroissante.

 2003 Christophe Deutsch, Leslie A. Rusch


156 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

Exemple Convolution de f (t) = Tri(t) et g(t) = Rect(t).

Zone f (u) g (t − u) {f ∗ g} (t)


g(t-u) f(u)

t -1 1

]−∞, −3/2] 0
f(u)g(t-u)

1

1 + u pour -1 ≤ u ≤ t+ 2
t+1/2
Z
g(t-u)
f(u) = (1 + u)du
−1
[−3/2, −1/2] t-1/2 t+1/2
1 2 
= t + 3t + 2.25
2
f(u)g(t-u)
3 2
 
1
= t+
2 2

1 + u pour t − 12 ≤ u ≤ 0
 
Z0 t+1/2
1 − u pour 0 ≤ u ≤ t + 12 Z
= (1 + u)du + (1 − u)du
f(u)
g(t-u)
t−1/2 0
[−1/2, 1/2]
3
= −t2 +
f(u)g(t-u) 4

1

1 − u pour t − 2 ≤u≤1 Z1
f(u)
g(t-u)
= (1 − u)du
t−1/2
[1/2, 3/2]  2
1 3
f(u)g(t-u) = t−
2 2

[3/2, +∞[ 0 0
6.3. APPROCHE TEMPORELLE 157

6.3.2 Propriétés de la convolution


1. Commutativité
+∞
Z +∞
Z
{f ∗ g} (t) = f (u) g (t − u) du = g (u) f (t − u) du = {g ∗ f } (t).
−∞ −∞

Démonstration Il suffit de faire un changement de variable. En effet,


si on pose v = t − u nous aurons:
+∞
Z +∞
Z
{f ∗ g} (t) = f (u) g (t − u) du = f (t − v) g (v) dv
−∞ −∞
+∞
Z
= g (v) f (t − v) dv = {g ∗ f } (t) .
−∞

2. Associativité
(f ∗ g) ∗ h = f ∗ (g ∗ h) .

La démonstration de cette propriété d’associativité est un peu tech-


nique. Elle suppose qu’on puisse intervertir l’ordre d’intégration (thé-
orème de Fubini).

3. Élément neutre

{f (t) ∗ δ(t)} = f (t) et {f (t) ∗ δ(t − τ )} = f (t − τ )

Démonstration
+∞
Z
{f ∗ δ} (t) = f (u) δ (t − u) du
−∞
+∞
Z
= f (t) δ (t − u) du
−∞
+∞
Z
= f (t) δ (t − u) du
−∞
= f (t) .
158 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

4. Déplacement en temps

{f (u) ∗ g (u)} (t − τ ) = {f (u − τ ) ∗ g (u)} (t) = {f (u) ∗ g (u − τ )} (t) .

Démonstration La démonstration de cette propriété repose sur un


changement de variable:

+∞
Z
{f (u) ∗ g (u)} (t − τ ) = f (u) g (t − τ − u) du on pose v = u + τ
−∞
+∞
Z
= f (v − τ ) g (t − v) dv
−∞
= {f (v − τ ) ∗ g (v)} (t) .

Pour démontrer la seconde égalité il suffit d’utiliser la commutativité


du produit de convolution (propriété 1):

{f (u) ∗ g (u)} (t − τ ) = {g (u) ∗ f (u)} (t − τ ) par commutativité


= {g (u − τ ) ∗ f (u)} (t) nous venons de le démontrer
= {f (u) ∗ g (u − τ )} (t) par commutativité.

Exemple Sachant que {Rect (u) ∗ Rect (u)} (t) = Tri (t), calculer le
produit de convolution de Rect (u − τ1 ) par Rect (u − τ2 ).

{Rect (u − τ1 ) ∗ Rect (u − τ2 )} (t) = {Rect (u) ∗ Rect (u − τ2 )} (t − τ1 )


= {Rect (u) ∗ Rect (u)} (t − τ1 − τ2 )
= Tri (t − τ1 − τ2 ) .

5. Dérivation
   
d d d
{f (u) ∗ g (u)} (t) = f (u) ∗ g (u) (t) = f (u) ∗ g (u) (t) .
dt du du

Démonstration La démonstration repose sur l’interversion entre dé-


rivation et intégration. Nous allons supposer que nous sommes dans
6.3. APPROCHE TEMPORELLE 159

un cas où cette interversion est autorisée.


+∞
Z
d d
{f (u) ∗ g (u)} (t) = f (u) g (t − u) du
dt dt
−∞
+∞
Z
d
= [f (u) g (t − u)] du
dt
−∞
+∞
Z
d
= f (u) [g (t − u)] du.
dt
−∞

Nous allons faire le changement de variable v = t − u. Nous aurons


alors:
d dv d d
g (t − u) = g (v) = g (v) car dv = dt .
dt dt dv dv
Pour la dérivation, u est comme une constante. Finalement:
+∞
Z
d d
{f (u) ∗ g (u)} (t) = f (t − v) g (v) dv
dt dv
−∞
+∞
Z 
d
= g (v) f (t − v) dv
dv
−∞
 
d
= f (v) ∗ g (v) (t) .
dv

L’autre égalité se déduit en utilisant la commutativité du produit de


convolution.

Exemple
Sachant que {Rect (u) ∗ Rect (u)} (t) = Tri (t), calculer le produit de
convolution de Rect (u) par Tri (u).
Notons f (t) ce produit de convolution. Nous aurons:
d d
f (t) = {Rect (u) ∗ T ri (u)} (t)
dt dt
 
d
= Rect (u) ∗ T ri (u) (t)
du
= {δ (u + 1/2) ∗ T ri (u)} (t) − {δ (u − 1/2) ∗ T ri (u)} (t)
= Tri (u + 1/2) − Tri (u − 1/2) ,
160 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX



 0 pour t < −3/2
t + 3/2 pour − 3/2 ≤ t ≤ −1/2


d 
f (t) = −2t pour − 1/2 ≤ t ≤ 1/2 .
dt
t − 3/2 pour 1/2 ≤ t ≤ 3/2




0 pour t > 3/2

Il suffit ensuite d’intégrer:



 c−2 pour t < −3/2
 t2 2 + 3t/2 + c−1
 
pour − 3/2 ≤ t ≤ −1/2


f (t) = −t2 + c0 pour − 1/2 ≤ t ≤ 1/2 .
t2 2 − 3t/2 + c1 pour 1/2 ≤ t ≤ 3/2




c2 pour t > 3/2

Il reste alors à déterminer les constantes. Pour cela, nous allons calculer le
produit de convolution pour t = 0:
+∞
Z Z1/2
f (0) = c0 = Rect (u) Tri (−u) du = 2 (1 − u) du = 3/4.
−∞ 0
Pour déterminer les autres constantes, nous allons utiliser le fait que la
fonction f (t) est continue:
f (−1/2) = −1/4 + c0 = 1/2 = 1/8 − 3/4 + c−1 d’où c−1 = 9/8
f (1/2) = −1/4 + c0 = 1/2 = 1/8 − 3/4 + c1 d’où c1 = 9/8
.
f (−3/2) = 0 = c−2 d’où c−2 = 0
f (3/2) = 0 = c2 d’où c2 = 0
Et finalement la fonction f (t) sera:
t < −3/2

 0 pour
 2
 1/2 (t + 3/2) pour − 3/2 ≤ t ≤ −1/2


f (t) = 2
−t + 3/4 pour − 1/2 ≤ t ≤ 1/2 .
1/2 (t − 3/2)2 pour 1/2 ≤ t ≤ 3/2





0 pour t > 3/2

Convolution par un peigne de Dirac


Soit fr (t) une fonction non nulle seulement sur l’intervalle [−T0 /2, T0 /2].
La convolution de fr (t) par le peigne de Dirac nous donne une fonction
périodique.
+∞ +∞
( )
X X
fp (t) = fr ∗ δ (t − nT0 ) (t) = fr (t − nT0 ).
n=−∞ n=−∞
6.3. APPROCHE TEMPORELLE 161

f(t+4 ) f(t+2 ) f(t) f(t-2) f(t-4)


f(t)
=
*
-1
1 -2 0 2 4

Figure 6.19 Convolution par un peigne de Dirac.

Exemple Prenons la fonction :



t pour − 1 ≤ t < 1
f (t) = .
0 ailleurs

Le produit de convolution de cette fonction par le peigne de Dirac don-


nera une fonction périodique comme le montre la Figure 6.19.

Produit de convolution et transformée de Fourier

Nous avons les deux propriétés suivantes:

{f ∗ g} (t) ⇔ F (ω) G (ω)


1
f (t) g (t) ⇔ {F ∗ G} (ω) .

Démonstration Nous ne démontrerons que la première relation. La sec-


onde se déduit en effet de la première en utilisant le fait que si f (t) ⇔
F (ω) alors F (t) ⇔ 2πf (−ω). Pour la première propriété nous aurons:

+∞
 +∞
+∞ Z

Z Z  
{f ∗ g} (t) e−jωt dt = f (u) g (t − u) du e−jωt dt
 
−∞ −∞ −∞
+∞
 +∞ 
Z Z 
= f (u) g (t − u) e−jωt dt du,
 
−∞ −∞

en supposant que nous pouvons intervertir l’ordre d’intégration. En ayant


162 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

fait le changement de variable v = t - u:


+∞ +∞
 +∞ 
Z Z Z 
{f ∗ g} (t) e−jωt dt = f (u) g (v) e−jω(v+u) dv du
 
−∞ −∞ −∞
+∞
Z
f (u) e−jωu G (ω) du

=
−∞
+∞
Z
= G (ω) f (u) e−jωu du = F (ω) G (ω) .
−∞

Exemple f (t) = g(t) = Rect(t)


Rect(t)∗Rect(t)=Tri(t) comme nous l’avons déjà vu. D’après la propriété
ci-dessus nous aurons:

{f ∗ g} (t) ⇔ F (ω) G (ω) = Sa2 (ω/2) .

Ce qui correspond bien à ce qu’on attendait.

6.3.3 Réponse impulsionnelle d’un filtre


Nous allons maintenant voir que le filtrage correspond à une convolution.
Pour cela on commence en définissant la réponse impulsionnelle h(t) d’un fil-
tre comme étant la transformée de Fourier inverse de la fonction de transfert
H (ω):
+∞
Z
1
h (t) = H (ω) ejωt dω.

−∞

La réponse impulsionnelle est la sortie qu’on obtient lorsqu’on envoie une


impulsion dans le système. Dans le domaine spectral, la sortie est alors la
fonction de transfert.

Exemple Le filtre RC passe-bas a pour fonction de transfert:


1
H (ω) = .
1 + jωτ
Sa réponse impulsionnelle sera donc:
1 −t/τ
h (t) = e U (t) .
τ
6.3. APPROCHE TEMPORELLE 163

Nous avons vu que la sortie y(t) d’un filtre LIT pouvait être trouvée à
partir de la fonction de transfert H (ω) du filtre et de l’entrée x(t) grâce à
la relation suivante dans le domaine des fréquences: Y (ω) = H (ω) X (ω).
Avec les propriétés que nous venons de voir pour la convolution, nous
pouvons maintenant trouver y(t) directement (c’est à dire sans passer par
la transformée de Fourier):

y (t) = {h ∗ x} (t) .

Exemple Réponse d’un filtre passe-bas à un rectangle.


Nous avons:

x (t) = Rect (t) et h (t) = e−t/τ U (t) .

Dans le domaine fréquentiel nous n’aurions pas pu calculer la réponse y(t)


parce qu’on ne connaı̂t pas la transformée de Fourier inverse de:
Sa (ω/2)
Y (ω) = H (ω) X (ω) = .
1 + jωτ
Par contre, dans le domaine temporel, nous aurons:

 0
−(t+1/2)/τ
 pour t ≤ −1/2
y (t) = {h ∗ x} (t) = τ 1−e pour − 1/2 ≤ t ≤ 1/2 .
2τ sh (1/2τ ) e−t/τ pour t ≥ 1/2

h(t) est appelée la réponse impulsionnelle du filtre parce que c’est la


sortie du filtre lorsque l’entrée est une impulsion de Dirac:

y (t) = {h ∗ δ} (t) = h (t) .

On définit parfois la réponse indicielle i(t) d’un filtre comme étant la


réponse à l’échelon unité:
+∞
Z
i (t) = {h ∗ U } (t) = h (t − u) du.
0

6.3.4 Interprétation temporelle de la notion de filtrage


Temps de réponse et temps de mémoire
+∞
R
L’expression de la sortie y (t) = {h ∗ x} (t) = h (u) x (t − u) du signifie
−∞
que la sortie, à un instant t donné, est la somme de l’entrée aux instants
164 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

t−u multipliée par le facteur h(u). L’effet du filtrage induit un phénomène de


mémoire puisque la sortie à l’instant t dépend de l’entrée aux instants t − u.
En général la réponse impulsionnelle a un support fini [tr ,tm ] avec tr > 0.
On obtient alors:
Ztm
y (t) = h (u) x (t − u) du.
tr

Par conséquent, la sortie y(t) à l’instant t ne dépendra que de l’entrée entre


t-tm et t-tr . Les entrées entre t-tr et t n’ont pas encore eu le temps d’être
“prises en compte” par le filtre. C’est pourquoi on appelle tr le temps de
réponse du filtre. Les entrées avant t-tm ne sont plus utilisées pour calculer
la sortie à l’instant t, la “mémoire” du filtre a donc une durée maximale de
tm . tm est le temps de mémoire du filtre.
Le filtre passe-bas RC a un temps de réponse nul et un temps de mémoire
infini. Dans la pratique comme l’exponentielle décroissante tend rapidement
vers 0 on peut considérer que le temps de mémoire est de l’ordre de 5τ =
5/RC (en effet nous aurons h (5τ ) ∼ = 0.007 ce qui peut être considérer comme
négligeable).

Interprétation physique de la notion de filtrage.

Nous avons déjà dit que les appareils de mesure sont incapables de donner
avec une précision temporelle infinie un signal x(t). Ils ne peuvent pas
restituer des variations trop rapides de la grandeur à mesurer. On peut
modéliser ce phénomène par un filtrage. Prenons par exemple un filtre dont
la réponse impulsionnelle est:
 
1 t-a/2
h(t) = Rect .
a a

La Figure 6.10 nous permet de voir l’effet d’un tel filtre: les variations
lentes de x(t) sont bien restituées par contre les variations rapides sont
largement atténuées. On voit que la mesure du signal à un instant t donné
correspond, par ce principe de filtrage, à la moyenne du signal sur une durée
a. C’est exactement ce qui se passe avec les instruments de mesure. Les
appareils de mesure effectuent en fait un filtrage passe-bas et, en fonction
de la valeur de a, ce filtrage élimine plus ou moins de hautes fréquences.
6.4. CAUSALITÉ ET STABILITÉ DES FILTRES 165

x(t) h(to -t) y(t)

Figure 6.20 Effet du filtrage.

6.4 Causalité et stabilité des filtres


Certains filtres “mathématiques” ne sont pas réalisables dans la pratique
parce qu’ils ne respectent pas certains critères. Ces critères sont la causalité
et la stabilité. Nous allons les étudier un peu plus précisément.

6.4.1 Causalité
Pour qu’un filtre qui a une action temporelle puisse exister, il faut qu’il
soit causal, c’est-à-dire qu’à un instant t donné, la sortie y(t) ne peut pas
dépendre de l’entrée à un instant (t + τ ) avec τ > 0. Dit autrement, l’avenir
ne peut pas influencer le passé ou encore les effets ne peuvent pas devancer
les causes. Cette règle élémentaire se traduit par le fait que la réponse
impulsionnelle h(t) doit nécessairement être nulle pour t négatif.
Voyons qu’elle en est la conséquence sur la fonction de transfert du filtre.
Si h(t) est nulle pour t < 0, nous aurons h (t) = h (t) u (t). En passant dans
le domaine fréquentiel nous aurons alors:
  
-j 1
H(ω)= H(u) ∗ (ω) .
2π u

Si on note H(ω)=A(ω)+jB(ω), nous aurons:


     
1 1 -1 1
A(ω)= B(u) ∗ (ω) et B(ω)= A(u) ∗ (ω) .
2π u 2π u

On peut montrer que ces deux relations sont équivalentes et ainsi il existe une
relation de dépendance entre la partie réelle et la partie imaginaire de la fonc-
tion de transfert d’un filtre causal. Pour un filtre causal, la détermination
166 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX

de la partie réelle ou de la partie imaginaire de la fonction de transfert


détermine donc complètement le filtre.
Une conséquence directe de cette propriété est que le filtrage causal in-
duit toujours un retard parce que Arg(H(ω)) ne peut jamais être nul.
Il existe d’autres conditions nécessaires et suffisantes de causalité. Ces
conditions s’expriment sur l’amplitude et la phase de la fonction de transfert.
La relation de Paley-Wiener, par exemple, nous assure que si |H (ω)|
+∞
R |Log(|H(ω)|)|
vérifie 1+ω 2
dω < ∞ alors il existe des fonctions ϕ (ω) telles que
−∞
|H (ω)| ejϕ(ω) soit un filtre causal.
Ceci nous montre que le module de |H (ω)| ne détermine pas complète-
ment un filtre parce qu’il existe plusieurs fonctions ϕ (ω) qui donnent des
filtres causaux. Nous n’entrerons pas plus dans les détails pour la synthèse
des filtres causaux.
Ajoutons simplement encore un mot sur les filtres passe-bas idéaux que
nous utiliserons par la suite (en particulier pour les applications en télécom-
munication). Ce type de filtre a une fonction de transfert de la forme suiv-
ante:
 ω 
H (ω) = aRect .
2B
Ce type de filtre n’est pas causal puisque sa réponse impulsionnelle est un
sinus cardinal qui est de support infini. Dans la pratique, on rend ces filtres
causaux en ajoutant un déphasage, en posant hcausal (t)=h(t-τ )U (t). Le
retard τ doit être choisi de telle sorte que h(t) est négligeable pour t < −τ .

6.4.2 Stabilité

Une autre condition pour que le filtre soit réalisable est que le filtre soit
stable. Il existe différentes manières de définir la stabilité. Nous ne parlerons
ici que de la stabilité BIBO (bounded input-bounded output). Le principe
est simple: si l’entrée est majorée, alors la sortie l’est aussi. Cette notion est
très logique puisque sinon il pourrait y avoir un signal de sortie sans qu’il y
ait de signal d’entrée!
Une condition nécessaire et suffisante de stabilité BIBO est que:

+∞
Z
|h(t)| dt < ∞.
−∞
6.5. DISTORSIONS DANS LES FILTRES 167

6.5 Distorsions dans les filtres


Nous allons maintenant parler des distorsions que l’on rencontre dans les
filtres. Nous traiterons tout d’abord des distorsions dites linéaires qui sont
des imperfections par rapport à des filtres idéaux. Puis nous verrons les
distorsions non linéaires qui font qu’on ne peut plus parler de système LIT.

6.5.1 Distorsions linéaires


Ces distorsions sont dues à des imperfections par rapport à des filtres idéaux.
Par exemple, lorsqu’on veut faire un filtrage passe bas, on veut éliminer
les hautes fréquences d’un signal, mais on ne veut pas pour autant que
l’amplitude du spectre du signal en soit affectée pour les basses fréquences.
On veut donc que le gain en fréquence du filtre soit un rectangle. Dans la
pratique, ceci n’est pas réalisable et les composantes basses fréquences du
signal ne sont pas amplifiées de la même façon. On parle de distorsions
d’amplitude. En général, ce genre d’imperfection n’est pas préjudiciable.
De la même manière, nous allons maintenant nous intéresser à la phase.
Le cas idéal est un filtre avec une phase linéaire. En effet, dans ce cas
chaque composante sinusoı̈dale est retardée de la même manière. Lorsque la
phase n’est pas linéaire, on voit apparaı̂tre des distorsions de phase. Ces
distorsions n’ont pas d’importance dans le cas de signaux acoustiques parce
que l’oreille est insensible à des variations du spectre de phase. Par contre,
il en va tout autrement lorsqu’on travaille avec des signaux vidéo.

6.5.2 Distorsions non linéaires


En plus des distorsions linéaires, il existe des distorsions dues, par exemple,
à des phénomènes de saturation. Ces distorsions font apparaı̂tre de nouvelles
fréquences. Nous n’allons pas entrer dans les détails. Signalons simplement
qu’il existe des distorsions harmoniques qui, lorsque le filtre est excité
par une sinusoı̈de, font apparaı̂tre des fréquences pour tous les multiples de
la fréquence de la sinusoı̈de et des distorsions d’intermodulation.
168 CHAPITRE 6. INTRODUCTION AU FILTRAGE DES SIGNAUX
Chapitre 7

Échantillonnage

7.1 Introduction
Tous les signaux que nous avons traités jusqu’à maintenant sont des sig-
naux analogiques. Mais si on désire effectuer des traitements numériques
sur ce type de signaux, il faudra les numériser. La numérisation d’un signal
analogique x(t) comporte deux étapes. La première consiste à échantillonner
le signal dans le temps pour le rendre discret, c’est-à-dire prélever la valeur
du signal aux instants kTe . Te est la période d’échantillonnage. La
seconde étape de la numérisation est la quantification. Elle permet de
représenter les échantillons x (kTe ) à l’aide d’une suite binaire. Nous ne nous
intéresserons pas à l’étape de quantification ici. L’échantillonnage d’un sig-
nal présente d’autant plus d’intérêt que sous certaines hypothèses, on arrive
a reconstituer le signal x(t) analogique à partir des échantillons x (kTe ).
Dans ce chapitre, nous allons voir comment on peut retrouver le signal
x(t) et comment on fait l’échantillonnage dans la pratique.

7.2 Théorème d’échantillonnage


7.2.1 Théorème
Soit x(t) un signal dont la transformée de Fourier X (ω) a un support limité
[-B,B]. Les échantillons x (kTe ) permettent de retrouver le signal x(t) si et
seulement si:

ωe = ≥ 2B.
Te
La fréquence ωe = 2B est appelée la fréquence de Nyquist.

169
Chapitre 7 : Échantillonnage

170 Démonstration: CHAPITRE 7. ÉCHANTILLONNAGE

xtbg Pour montrer ceci nous allon


modélisation mathémati
l’échantillonnage. Nous avons
utilisant le peigne de Dirac n
représenter l’opération d’échan
+∞
kTe b g b g b g b g∑
xe t = x t δ Te t = x t
k =−∞
+∞
= ∑ xb kT gδbt − kT g
Figure7.1
Figure 1 Démonstration
Échantillonnage.
e e
k =−∞

Pour montrer
Note:ceci
Cettenous allons utiliser
modélisation une modélisation
est purement mathématique
mathématique et ne correspond pas à une réa
de l’échantillonnage. Nous avons déjà
En effet, dans la pratique vu qu’en utilisant le peigne de Dirac
nous pouvions onreprésenter
ne peut pasl’opération
récupérer d’échantillonnage:
exactement la valeur
d'un signal
xe (t) = àx un
(t) δinstant
Te (t) = x (t)
+∞
X b
X ω +ωe
δ (t − kTe )
X ωg bg X ω b
kTe précis. Nous k=−∞
verrons par X +∞la suite
comment= un échan- ω ekT
x (kTe ) δ (t−− ). −ω e −ω e + B − B
−eB B ωe − B
tillonnage réel est mo-
k=−∞

délisé. est purement mathématique et ne Figure


Cette modélisation 2 Spectre
correspond du signal échantillonné
pas à une
réalité physique. En effet, dans la pratique on ne peut pas récupérer exacte-
ment la valeur Sid’un
on prend
signallaà un instant kTe précis. Nous verrons par la suite
comment un transformée de Fourier
échantillonnage réel estde l’équation qui représente l’échantillonnage, nous aurons:
modélisé.
bg
Si on prend la transformée de Fourier de l’équation
chantillonnage, nous aurons:
Xe ω =

sb g
n
1 qui représente l’é-
X ∗ ω eδ ω e ω

ω +∞

Xe (ω) =
1

{X ∗ ω δ } (ω)
e ωe
=

∑ m X bug∗ δbu − kω grbωg
e

k =−∞
e

+∞ +∞
X bω − kω g
ω X 1
= kω ∑
e
= {X (u) ∗ δ (u − )} (ω) e e

k=−∞ T e k =−∞
+∞
On constate donc1 que le signal échantillonné a un spectre qui correspond à la pé
X
= X (ω − kωe ).
spectre de x(t)T(le
e signal non échantillonné) à un facteur près. Par conséquent, si
k=−∞
spectre de x(t) est limité à [-B,B] et que la fréquence d’échantillonnage est suffisam
On constatenousdoncpourrons retrouver
que le signal bg
X ω ena effectuant
échantillonné un spectre unquifiltrage passe-bas.
correspond à En effet, dès qu
π
la périodisation du spectre de x(t) (le2signal
d’échantillonnage
près. Par conséquent, ω e =du spectre
si le support Te
non
≥ 2 B ,de
échantillonné)
lesx(t)
parties
est limité
à un
b
facteur
X ω −àk[-B,B]
ω e n'aurons
et g
pas d’interféren
que la fréquence d’échantillonnage est suffisamment grande, nous pourrons
retrouver X (ω) en effectuant un filtrage passe-bas. En effet, dès que la
Nous voyons de plus que pour retrouver le signal analogique à partir des échant
d'effectuer un filtrage passe-bas.

116  2003 Christophe Deutsch,


utilisant le peigne de Dirac nous pouvions
représenter l’opération d’échantillonnage:
+∞
kTe b g b g b g b g ∑ δbt − kT g
xe t = x t δ Te t = x t
k =−∞
e

+∞
= ∑ xb kT gδbt − kT g
Figure 1 Démonstration
e e
k =−∞

e: Cette modélisation7.2.
est purement mathématique
THÉORÈME et ne correspond pas à une réalité physique.
D’ÉCHANTILLONNAGE 171
effet, dans la pratique
ne peut pas récupérer
ctement la valeur
n signal à un instant b
X ω +ωe g X ω bg X ω −ωe b g
précis. Nous
rons par la suite
mment un échan- −ω e − B −ω e −ω e + B − B B ωe − B ωe ωe + B
onnage réel est mo-
sé. Figure 2 Spectre du signal échantillonné
Figure 7.2 Spectre du signal échantillonné.
on prend la
nsformée de Fourier defréquence
l’équation qui représente l’échantillonnage,
d’échantillonnage ωe = 2π nous aurons:
Te ≥ 2B, les parties X (ω − kωe ) n’auront

X e bg=
Nous voyons n sb g
1 entre elles.
pas d’interférence
ω X ∗ ω eδ ω ω
2 πde plus quee pour retrouver le signal analogique à partir des
échantillons il suffit d’effectuer un filtrage passe-bas.
ω e +∞
= m bg b
∑ X u ∗ δ u − kω e ω
2 π k =−∞
grb g
7.2.2 Interprétation physique
1 +∞
Nous avons déjà ∑
=
Te k
vu X
=−∞
b
qu’un g
ω − signal
kω e qui varie lentement contiendra plutôt des
basses fréquences, alors qu’un signal qui varie rapidement contiendra des
constate donc que lehautes
signal fréquences.
échantillonné a un spectresiqui
Intuitivement, on correspond
veut pouvoirà la périodisation
retrouver du à
un signal
ctre de x(t) (le signal partir
non échantillonné) à un facteur
de ses échantillons, il faudraprès. Par une
prendre conséquent,
fréquencesid’échantillonnage
le support du
ctre de x(t) est limité à [-B,B] et que la fréquence d’échantillonnage est suffisamment
plus grande pour un signal qui varie rapidement grande,
(avec des changements
bg
X ω en effectuant
s pourrons retrouver brusques) que pour ununfiltrage
signal passe-bas.
qui varie lentement.
En effet, dèsC’est
que ce que traduit
la fréquence
π théorème puisque les variations rapides d’un signal correspondent à la
2ce
chantillonnage ω e = présence
≥ 2 B , de
lescomposantes b g
parties X ω spectrales
− kω e n'aurons
dans lespas d’interférence
hautes fréquences.entre elles.
Te Nous allons voir par la suite que, dans la pratique, on ne peut pas se
contenter de prendre une fréquence d’échantillonnage égale à la fréquence de
us voyons de plus que pour retrouver
Nyquist; il faut enleprendre
signal une
analogique à partir
suffisamment des échantillons
supérieure. il suffit
Par exemple, pour
fectuer un filtrage passe-bas.
numériser la parole dans le réseau téléphonique, on utilise une fréquence
d’échantillonnage fe = 8kHz alors que le spectre de la voix est en général
compris entre 300Hz et 3400Hz. De même, la digitalisation des disques
compacts se fait à fe = 44.1kHz alors que le support du spectre sonore est
[0Hz,20kHz].
Ces échantillonnages conduisent donc à des débits binaires importants;
pour une quantification sur 8 bits on  2003 Christophe
obtient, Deutsch,
en effet, Leslie de
un débit A. Rusch
64kb/s
pour la parole et, pour une quantification de 32 bits, on obtient un débit de
1.41Mb/s pour les C.D. De plus, un codage correcteur d’erreur augmente
encore ce débit (de l’ordre de 4.32Mb/s pour le C.D.).
Il est donc crucial de bien connaı̂tre le contenu spectral d’un signal pour
choisir au mieux la fréquence d’échantillonnage. Prenons par exemple le
composantes vont jusqu'à 6MHz; ce signal devra avoir une fréquence d’échan
différente de celle du signal vidéo qui correspond a une échographie et qui, lui, ne co
fréquence que jusqu'à 100Hz.

7.2.3 Interprétation spectrale


Comme nous l'avons vu, l’échantillonnage d'un signal dans le temps corresp
périodisation de son spectre. Du fait de la dualité entre l'espace temps et l'espace des fr
172 on aura aussi réciproquement qu'un échantillonnage
CHAPITRE spectral correspond à un signal p
7. ÉCHANTILLONNAGE
dans le temps (comme nous l'avons vu pour les séries de Fourier).
Nous avons vu que pour
un signal à partir
X ω bg b
X ω −ωe g échantillons, il faut a
que le spectre du sign
support limité [-B,B] e
fréquence d’échantillon
au moins deux fois plu
que B.
Xe ω bg Lorsque la
d’échantillonnage n'est
rapide, il y a un phén
recouvrement du spect
aussi repliement du sp
encore aliasing (voir F
Ce phénomène rend i
Figure 3 Recouvrement du spectre (aliasing) toute reconstruction du si
Figure 7.3 Recouvrement spectral (aliasing).
On peut aussi constater q

signal vidéo qui a un spectre dont les composantes vont jusqu’à 6MHz;
ce signal  2003 avoir
devra Christophe
une Deutsch, Leslie
fréquence A. Rusch
d’échantillonnage différente de celle du
signal vidéo qui correspond a une échographie et qui, lui, ne contient des
fréquence que jusqu’à 100Hz.

7.2.3 Interprétation spectrale


Comme nous l’avons vu, l’échantillonnage d’un signal dans le temps cor-
respond à la périodisation de son spectre. Du fait de la dualité entre
l’espace temps et l’espace des fréquences, on aura aussi réciproquement
qu’un échantillonnage spectral correspond à un signal périodique dans le
temps (comme nous l’avons vu pour les séries de Fourier).
Nous avons vu que pour retrouver un signal à partir de ses échantillons,
il faut absolument que le spectre du signal soit à support limité [-B,B] et
que la fréquence d’échantillonnage soit au moins deux fois plus grande que
B.
Lorsque la fréquence d’échantillonnage n’est pas assez rapide, il y a un
phénomène de recouvrement du spectre appelé aussi repliement du
spectre ou encore aliasing (voir Figure 7.3). Ce phénomène rend impos-
sible toute reconstruction du signal.
On peut aussi constater que plus la fréquence d’échantillonnage est grande,
plus les copies X (ω − kωe ) seront espacées et plus il sera facile de re-
7.2. THÉORÈME D’ÉCHANTILLONNAGE 173

construire le signal. En effet, si on prend la fréquence de Nyquist pour


échantillonnager, alors il faudrait avoir un filtre passe-bas idéal avec une
fréquence de coupure très nette. Par contre, quand le spectre est plus “aéré”,
on peut utiliser des filtres dont la zone de coupure peut être plus large.

7.2.4 Reconstruction
Comme nous l’avons déjà vu, lorsque la fréquence d’échantillonnage est suf-
fisamment grande, on peut retrouver le signal original par un filtrage passe
bas. D’un point de vue fréquenciel, le filtre devra avoir la forme suivante:

H (ω) = Te Rect (ω/2B) .

Le facteur 1/Te permet de retrouver exactement le signal de départ. Nous


aurons en effet:
+∞
1 X
X (ω) = X (ω − kωe ) · H (ω) .
Te
k=−∞

Si on repasse dans le domaine temporel, nous aurons:


+∞
X BTe Sa (Bt)
x (kTe ) δ (t − kTe ) ∗ .
π
k=−∞

On rappelle que Rect (t) ⇔ Sa (ω/2) et que si f (t) ⇔ F (ω) alors F (t) ⇔
2πf (−ω), donc Sa (t/2) ⇔ 2πRect (ω).
Le signal reconstruit aura donc la forme suivante:
+∞
BTe X
x (t) = x (kTe )Sa (Bt − kBTe )
π
k=−∞
+∞
2B X
= x (kTe )Sa [B (t − kTe )] .
ωe
k=−∞

Cette équation est une formule d’interpolation temporelle qui nous permet
de retrouver le signal à partir de ses échantillons. Nous pouvons voir que
pour calculer le signal à un instant t donné, il est nécessaire de connaı̂tre
l’ensemble des échantillons. Cependant, comme les échantillons sont pondé-
rés par un sinus cardinal qui s’atténue assez rapidement, il sera suffisant de
considérer les échantillons pris à des instants proches de l’instant t. Cette
remarque nous permet toutefois de dire qu’il ne sera pas possible de faire
174 CHAPITRE 7. ÉCHANTILLONNAGE

une reconstruction en temps réel puisque pour un instant donné il faudra


considérer les échantillons qui viennent après. Une reconstruction introduira
donc nécessairement un retard.
Au lieu de prendre un filtre qui coupe au niveau de la fréquence maximale
du signal on peut prendre un filtre qui coupe en fonction de la fréquence
d’échantillonnage. Nous aurons alors:

H (ω) = Te Rect (ω/ωe , )

et par conséquent:
+∞ hω i
e
X
x (t) = x (kTe )Sa (t − kTe ) .
2
k=−∞

Autrement dit, on prend 2B = ωe et on respecte exactement le critère


de Nyquist. Chacun des sinc a son premier zéro à l’emplacement du sommet
du sinc voisin.

7.2.5 Formule de poisson


Nous avons déjà vu qu’un échantillonnage temporel correspondait à une
périodisation du spectre. Réciproquement, une fonction périodique dans
le temps aura nécessairement une transformée de Fourier discrète. Nous
allons voir quelques relations qui nous permettent de relier les coefficients
de Fourier d’une fonction périodique et la transformée de Fourier.
+∞
P
Soit x (t) un signal quelconque. La fonction xp (t) = x (t − kT0 ) est
k=−∞
une fonction périodique. Notons X (ω) la transformée de Fourier de x (t).
La formule de poisson pour la fonction périodique xp (t) s’écrit:
+∞ +∞
X X 1
xp (t) = x (t − kT0 ) = X (kω0 ) ejkω0 t .
T0
k=−∞ k=−∞

En particulier, si on note Xp (n) les coefficients de Fourier de la fonction


xp (t), nous aurons:
1
Xp (n) = X (nω0 )
T0
X (ω) = T0 Xp (n)|n=ω/ω0 .

La formule de Poisson est valable même si la fonction x (t) n’a pas un support
exactement compris dans [−T0 /2, T0 /2].
7.3. ÉCHANTILLONNAGE DE SIGNAUX À BANDE ÉTROITE 175

Démonstration Le signal xp (t) correspond à un échantillonnage dans le


domaine fréquentiel. En effet:
+∞
( )
X
xp (t) = x (u) ∗ δ (u − kT0 ) (t) .
k=−∞

D’où :
+∞
X
T F (xp (t)) (ω) = X (ω) · ω0 δ (ω − kω0 )
k=−∞
+∞
X
= ω0 X (kω0 ) δ (ω − kω0 ).
k=−∞

En revenant dans le domaine temporel nous aurons enfin:


+∞ +∞
X ejkω0 t 1 X
xp (t) = ω0 X (kω0 ) = X (kω0 .) ejkω0 t .
2π T0
k=−∞ k=−∞

7.3 Échantillonnage de signaux à bande étroite


Les signaux à bande étroite sont des signaux dont le spectre a un support du
type [−ω2 , −ω1 ]∪[ω1 , ω2 ]. On va poser B = ω2 −ω1 . Si on veut échantillonner
un tel signal, il faudrait le faire avec une fréquence ωe au moins deux fois
supérieure à ω2 . Ceci peut poser des problèmes d’ordre technique comme
dans le cas de signaux traités en radar et pour lesquels ω2 est de l’ordre de
quelques GHz. En fait, on peut constater que, comme le signal est à bande
étroite, en échantillonnant à une fréquence supérieure à ω2 on gaspille de
la bande de fréquence. Une première idée consiste à ramener le signal x (t)
en bande de base pour l’échantillonner. En effet, si on multiplie x (t) par
cos (ω1 t), nous aurons en bande de base un signal qui correspond à x (t). Par
filtrage passe-bas on pourra éliminer les parties du spectre qui se trouvent
en ±2ω1 . Notons y (t) le signal filtré. y (t) pourra être échantillonné avec
une fréquence ωe supérieure à 2B.
Comme B est nettement inférieur à ω2 , le débit binaire pour coder le
signal sera plus faible, ce qui présente un intérêt évident. Dans le cas des
signaux traités en radar, l’ordre de grandeur de B est en général de quelques
MHz alors que ω2 est de l’ordre du GHz. La reconstruction du signal x(t) à
partir des échantillons de y (t) n’est pas très compliquée (voir Figure 7.5). Il
bg
ω xp t = ω 0
k =−∞
∑2π
= b g
X kω 0
T0
∑ X bkω 0 ge
k =−∞
0

En revenant dans le domaine temporel nous aurons enfin:


+∞ jkω 0t +∞
b g ∑ X bkω g 2π = T ∑ X bkω ge
e
ω xp t = ω 0
1
7.3 Échantillonnage de signaux à bande étroite
k =−∞
0
0 k =−∞
0
jkω 0t

Les signaux à bande étroite sont des signaux dont le spectre a un support
−ω 2 ,−ω 1 ∪ ω 1 , ω 2 . On va poser B = ω 2 − ω 1 . Si on veut échantillonner un tel
176 7.3 Échantillonnage
faudrait le faire avec une de signaux
fréquence
CHAPITRE ωeà 7.aubande
moins étroite
deux fois supérieure à ω 2 . Ceci peut
ÉCHANTILLONNAGE
problèmes
Les signaux d’ordre technique
à bande comme
étroite sont dansdes lesignaux
cas de signaux
dont letraités
spectreen radar
a unet support
pour les
−ωde
est ω 1 ∪ ωde1 , ω
2 ,−l’ordre quelques
2 . On GHz.
va poser En B = ωon
fait, ω 1 . constater
2 −peut Si on veutque,échantillonner
comme le signal es
un tel
faudrait le faire avec une fréquence ω e au moins deux fois2 supérieure à ω 2 . Ceci peutfr
étroite, en échantillonnant à une fréquence supérieure à ω on gaspille de la bande de
problèmes d’ordre technique comme dans le cas de signaux traités en radar et pour les
est de l’ordre de quelques GHz. En fait, on peut constater Une première
que, comme idée es
le signal co
X bω g
étroite, en échantillonnant à une fréquence supérieure à ω 2 on ramener gaspille dele signal
la bande bg
x tdeenfr
base pour l’échantillonn
−ω 2 −ω 1 ω1 ω2 effet, si on multiplie
Une première idée co
X bω g B b g
cos ω 1t ,lenous
ramener signal bg
x t en
aurons
base un poursignal
l’échantillonn
qui corr
−ω 2 −ω 1 ω1 ω2 bg
effet,
x t . siParonfiltrage multipliepass
B b g
cos ω 1t éliminer
pourra , nous aurons les enpa
− 2ω 1 − ω 2 − 2 ω 1 −B B 2 ω 1 2ω 1 + ω 2 spectre
base unqui se trouvent
signal qui corre
bg bg
Notons y t le
x t . Par filtrage pass signal fi
Figure 4 Échantillonnage de signaux à bande étroite pourra être échantillonné
éliminer les pa
spectre quiω esesupérieure
Figure 7.4 Échantillonnage de signaux à bande étroite. fréquence
− 2ω 1 − ω 2 − 2 ω 1 −B B 2 ω 1 2ω 1 + ω 2 trouvent àe
Comme B est nettement inférieur à ω 2 , le débit binaire pour Notons bg
coder le ysignal
t le serasignalplusfi
qui présente
Figure un intérêt évident.
4 Échantillonnage de Dans
signaux le cas des signaux
à bande étroitetraitéspourra
en radar,
êtrel’ordre de grand
échantillonné
est en général de quelques MHz alors que ω 2 est de l’ordre dufréquence GHz. ω e supérieure à
Comme B est nettement inférieur à ω 2 , le débit binaire pour coder le signal sera plus
qui présente un intérêt évident.Y Dans bg
ω le cas des signaux traitésLaenreconstruction
radar, l’ordre de dugrand
sign
est en général de quelques MHz alors que ω 2 est de l’ordre dupartir GHz.des échantillons de
−B B pas très compliquée(voir F
Yωbg Il
La suffit
bg
de reconstruire
reconstruction
y t , des puis
du sign
de multip
partir échantillons de
−B B pas b g
ω 1t compliquée(voir
cos très et enfin de F
Il suffitpasse-bande
filtrage de reconstruire ω 1 ,ω
−ω 2 −ω 1 ω1 ω2
y bg
t , puis de multip
Ce b g
ω 1t etdoitenfin
cos filtrage avoirde une
très
filtrage passe-bande ω 1pa
nette, ce qui n’est ,ω
Figure 5 Reconstruction du signal x(t) réaliser en pratique; il fau
−ω 2 −ω 1 ω1 ω2
prendre
Ce filtrage ω 1doit
− ∆ωavoir pour
une
très nette, ce qui n’est pa
Figure
Figure 57.5
Reconstruction
Reconstruction du
du signal x(t)
signal x(t). réaliser en pratique; il fau
120  2003 Christophe
prendre ω 1 −Deutsch,
∆ω pour Lesli

120  2003 Christophe Deutsch, Lesli


Analyse des Chapitre 7 : Échantillonnage
Signaux

modulation afin de laisser


7.3. ÉCHANTILLONNAGE un espace entre
DE SIGNAUX la partie
À BANDE supérieure et
ÉTROITE 177la partie inférieure du spectre.
Ceci est illustré à la Figure 6.

b g
Y ω Note: Dans la pratique on
effectue plutôt un
− B − ∆ω − ∆ω ∆ω B + ∆ω échantillonnage de l’enveloppe
complexe. Mais l’idée
directrice est la même.

La seconde idée consiste à


utiliser les espaces disponibles
−ω 2 −ω 1 ω − ∆ω ω 1 ω2
1
dans la bande de fréquence
−ω 1 , ω 1 . En effet, comme
Figure 7.6 Reconstruction du signal x(t), modulation à l’aide cette bande ne contient pas de
deFigure 6 Reconstruction du signal x(t), modulation à
ω1 − ∆ω. signal, on peut y placer les
l'aide de ω 1 − ∆ω parties périodiques qui
apparaissent
suffit de reconstruire le signal y (t), puis de multiplier par cos (ω1 t) et enfin lors de
de faire un filtrage passe-bande [ω , ω ]. l’échantillonnage.
1 2
Ce filtrage doit avoir une coupure très nette, ce qui n’est pas facile à
réaliser en pratique; il faudra donc prendre bg
X ω ω1 −∆ω pour faire la modulation Pour
échantillonne
que
il n’y
lorsqu’on
ait aucun
afin de laisser un espace entre la partie supérieure et la partie inférieure du
spectre. Ceci est illustré à la Figure 7.6. Dans la pratique on effectue plutôtrecouvrement de spectre, il
−ω 2 −ω 1 ω1 ω2
un échantillonnage de l’enveloppe complexe. Mais l’idée directrice estfaudra la qu’il existe un certain
même. entier n tel que(voir Figure 7):
n+1
n disponibles dans la bande
b g
La seconde idée consiste à utiliser
1 les espaces
de fréquence [−ω1 , ω1 ]. En effet, comme cette bande ne contient pas •de ω e ≥ 2 ω 2 − ω 1 , ce qui
signal, on peut y placer les parties périodiques qui apparaissent lors de évite qu’il y ait
l’échantillonnage. Pour
−ω 2 −ω 1 que lorsqu’on échantillonne il
ω1 n’y ait
ω2 aucun recou- recouvrement de spectre
vrement de spectre, ilω efaudra qu’il existe un certain entier n tel que (voir entre les différentes copies
Figure 7.7): bg
de X ω
• ωe ≥ 2 (ω2 − ω1 ) , ce qui évite
Figure qu’il y de
7 Copies
les différentes copies de X (ω).
X ω bg
ait recouvrement de spectre entre
• −ω 1 + nω e ≤ ω 1 ce qui
traduit le fait que la nième
• −ω1 copie bg
≤ ωX1 ω
+ nωe de ce qui traduitpas
ne devra le interférer nième
fait que laavec
devra pas interférer avec X (ω) originale.
bg
ω originale.
X copie de X (ω) ne

−ω(n ++b1)
n +ω1gω
≥ ω≥ ω copie de X bω g ne devra pas
ième
• +
• −ω 2 ce traduit
ce qui
e 2 qui traduit
2 le que
le fait faitlaque la1)(n+1)
(n + ième copie
X binterférer
ω g.
2 e
de Xinterférer avecpas
(ω) ne devra avec X (ω).
On montre que la solution de ces conditions est:
On montre que la solution de ces conditions est:
2ω2 2ω1 ω
≤ ωe ≤ ω 2 n ≤ 2ω1 1 .
2avec ω1
n+1 n ≤ ω e ω≤2 − ω1 avec n ≤
n +1 n ω 2 − ω1
Deux cas sont alors possibles:

 2003 Christophe Deutsch, Leslie A. Rusch 121


utiliser les espaces disp
−ω 2 −ω 1 ω 1 − ∆ω ω 1 ω2
dans la bande de fré
−ω 1 , ω 1 . En effet,
cette bande ne contient
Figure 6 Reconstruction du signal x(t), modulation à signal, on peut y pla
l'aide de ω 1 − ∆ω parties périodiques
apparaissent lors
178 CHAPITRE 7. ÉCHANTILLONNAGE l’échantillonnage.

bg
X ω Pour que
échantillonne il n’y ait
lo

recouvrement de spec
−ω 2 −ω 1 ω1 ω2 faudra qu’il existe un
entier n tel que(voir Figu
n n+1
1
• b g
ω e ≥ 2 ω 2 − ω1 , c
évite qu’il y
−ω 2 −ω 1 ω1 ω2 recouvrement de
ωe entre les différentes
bg
de X ω
Figure 7.7
Figure 7 Copies de X ω bg
Copies de X(ω).
• −ω 1 + nω e ≤ ω 1 ce
traduit le fait que
bg
Deux cas sont alors possibles:
bg
copie de X ω ne devra pas interférer avec X ω originale.
ω1
1. < 1 Le signal est trop large pour qu’on puisse inclure des copies
du
ω2 −ω1
−ω +
• signal bn +la1gzone
dans
2 ω ≥ [−ω
ω ce
e , ω qui
21]. Latraduit
1 le fait
fréquence copie de X bω g ne de
que la (n+1) devra
d’échantillonnage
ième

interférer
vérifier ω ≥ 2ωe . X bω g .
avec 2

ω1
2. ω2 −ω1 ≥ 1 On peut placer des copies du signal dans la zone [−ω1 , ω1 ].
On conséquent,
Par montre que laonsolution de ces conditions
peut échantillonner est:
à une fréquence plus faible que
ωe ≥ 2ω2 . En effet, la fréquence2ω 2ω
d’échantillonnage la plus faibleω sera:
2
≤ ωe ≤ 1
avec n ≤ 1
n +1 n ω 2 − ω1
2ω2
ωe = où E [] représente la partie entière.
Deux E cas[ωsont
1 /(ω2alors
− ω1possibles:
)] + 1
h i
On peut remarquer que lorsque ω2ω−ω >> 1 nous avons E ω1 ∼ ω1
ω2 −ω1 = ω2 −ω1 .
1
1
Et ainsi:
ωe ∼= 2 (ω2 − ω1 ) = 2B.
 2003 Christophe Deutsch, Leslie A. Rusch
Cette valeur limite est la plus petite que l’on puisse espérer atteindre si on
cherche à avoir une reconstruction idéale.
Pour la reconstruction en utilisant ce genre d’échantillonnage, il faudra
bien entendu effectuer un filtrage passe-bande. Ce type de filtrage nécessite,
comme dans le cas de la première approche, qu’il y ait un espace suffisant
entre les différentes copies du spectre du signal.
Toutes les fréquences supérieures à un certain seuil ne peuvent pas être
utilisées. En effet, on ne travaille qu’avec certaines bandes de fréquences
possibles. Ceci vient du fait qu’il faut pouvoir placer un nombre entier de
fois les copies du spectre entre les deux originaux.
Analyse des Chapitre 7 : Échantillon
Signaux

7.4 Échantillonnage réel

7.4.1 Filtrage antirepliement


7.4. ÉCHANTILLONNAGE RÉEL 179

Signal 7.4.1.1 Nécessité du filtrage antirepliement


original
Les convertisseurs analogique - numérique
utilisés pour traiter toutes sortes de signaux
même type, c’est-à-dire ayant le même gen
propriétés spectrales.
Repliement du Cependant, chaque signal aura un con
spectre spectral propre, et il se peut que, pour un s
donné, la fréquence maximale soit supérieu
−ω e 2 ωe 2 la moitié de la fréquence d’échantillonnage.
Signal Comme nous l’avons déjà vu, la restitution
restitué tel signal ne peut pas être parfaite à caus
phénomène de repliement spectral. Cec
illustré à la Figure 8.

Figure 8 Repliement du spectre


Figure 7.8 Repliement du spectre.

Exemple:
7.4 Échantillonnage réel Supposons qu’on traite un si
sonore ayant une compos
7.4.1 Filtrage antirepliement harmonique à la fréqu
Nécessité du filtrage antirepliement
ω 0 = 32 kHz . Cette harmon
est inaudible. On échantill
Les convertisseurs analogique 32kHztraiter toutes ce signal à la fréquence
- numérique sont utilisés pour
-32kHz
sortes de signaux d’un même type, c’est-à-dire ayant le même genre de pro- ω e = 40kHz (ce qui corres
priétés spectrales. filtrage environ à l’échantillonnage
Cependant, chaque signal aura un contenu spectral propre, et il se peut C.D.). Comme une harmon
que, pour un signal donné, la fréquence maximale soit supérieure à la moitié est présente à ω et qu
0
de la fréquence d’échantillonnage.
fréquence d’échantillonnage
Comme nous l’avons déjà vu, la restitution d’un tel signal ne peut pas
ω e −ω 0 −ω ′0 ω ′0 spectral.ωCeci pas supérieure au double de
être parfaite à cause du−phénomène de repliement 0 ω eest illustré
il y aura recouvrement spe
à la Figure 7.8.
En effet, l’harmonique en
Exemple Supposons Figure
qu’on 9traite
Signal échantillonné
un signal à une
sonore ayant composante à donnera un harmonique
fréquence
une
inférieureest
la fréquence ω0 = 32kHz. Cette composante à la limite On échantillonne ω ′0 = 8kHz qui lui est audib
inaudible.
La restitution du signal sera
ce signal à la fréquence de ωe = 40kHz (ce qui correspond environ à l’échantillonnage
des C.D.). Comme du signal est présent à ω0 et que la fréquence d’échantillonnage entachée d’erreurs.
n’est pas supérieure au double de ω0 , il y aura recouvrement spectral. En

 2003 Christophe Deutsch, Leslie A. Rusch


Signal
restitué tel signal ne peut pas être parfaite à c
phénomène de repliement spectral.
illustré à la Figure 8.

Figure 8 Repliement du spectre


180 CHAPITRE 7. ÉCHANTILLONNAGE
Exemple:
Supposons qu’on traite u
sonore ayant une com
harmonique à la fr
ω 0 = 32 kHz . Cette har
est inaudible. On écha
-32kHz 32kHz ce signal à la fréque
ω e = 40kHz (ce qui co
filtrage environ à l’échantillonn
C.D.). Comme une har
est présente à ω 0 et
fréquence d’échantillonna
−ω e −ω 0 −ω ′0 ω ′0 ω0 ωe pas supérieure au double
il y aura recouvrement
En effet, l’harmonique
Figure 7.9 Signal échantillonné à une fréquence inférieure à la donnera un harmoniq
limite.
Figure 9 Signal échantillonné à une fréquence
inférieure à la limite ω ′0 = 8kHz qui lui est a
La restitution du signal s
0
effet, le signal à ω0 donnera une copie à ω0 = 8kHz qui elle est audible. entachée
.. d’erreurs.
La restitution du signal sera donc entachée d’erreurs.

Un filtrage optimal

 2003 Christophe Deutsch, Leslie A. Rusch


Pour éviter ce genre de problème, il y a deux solutions. Soit on augmente
la vitesse d’échantillonnage et on adapte le convertisseur au pire cas (qui ne
se présente peut-être que dans certains cas très isolés) soit on filtre tous les
signaux avant de les échantillonner afin d’éviter tout recouvrement spectral.
C’est la deuxième solution qui est utilisée dans la pratique.
On définit une bande utile ωu pour le type de signaux à traiter et, par
un filtrage passe-bas idéal sur cette bande utile, on élimine les fréquences
indésirables. On peut alors échantillonner avec une fréquence ωe ≥ 2ωu en
étant assuré qu’il n’y aura pas de recouvrement spectral. Ce type de filtrage
est appelé un filtrage antirepliement ou encore un filtrage de garde
(voir Figure 7.10).
Nous allons voir de plus qu’avec ce type de filtrage, le signal restitué
après échantillonnage est la meilleure approximation, au sens de l’erreur
quadratique, du signal original sur la bande utile. En effet, si on note x̃ (t)
l’approximation du signal original x (t) sur la bande utile, l’erreur quadra-
Chapitre 7 : Échantillonnage Analyse d
Signaux

7.4.1.2 Un filtrage
7.4. ÉCHANTILLONNAGE optimal
RÉEL 181
Pour éviter ce genre de problème, il y a d
Signal solutions. Soit on augmente la vite
original d’échantillonnage et on adapte le convertiss
au pire cas (qui ne se présente peut-être
dans certains cas très isolés) soit on filtre t
les signaux avant de les échantillonner a
d’éviter tout recouvrement spectral. C’es
filtrage de deuxième solution qui est utilisée dans
garde pratique.
On définit une bande utile ω u pour le type
−ω u ωu signaux à traiter et, par un filtrage passe-
idéal sur cette bande utile, on élimine
Signal restitué
fréquences indésirables. On peut al
après
échantillonnage échantillonner avec une fréquence ω e ≥ 2
en étant assuré qu’il n’y aura pas
recouvrement spectral. Ce type de filtrage
appelé un filtrage antirepliement ou enc
Figure 10 Filtrage de garde un filtrage de garde (voir Figure 10).
Figure 7.10 Filtrage de garde.
Nous allons voir de plus qu’avec ce type
filtrage,
tique sera donnée par:le signal restitué après échantillonnage est la meilleure approximation, au sens
l’erreur quadratique, du signal original sur la bande utile. En effet, si on note ~ x
l’approximation
+∞
Z du signal original
+∞
Z
1 2 bg
x t sur la bande utile, l’erreur quadratique sera donnée par
|x (t) − x̃ (t)|2 dt =
e = z x bt g − ~ z
e= +∞ X (ω) − X̃ (ω) dω.+∞
x bt g b g b g dω
2π 2 1 ~ 2
−∞ −∞ dt = X ω −X ω
−∞
2π −∞

x bt g est l’approximation du signal original xbt g sur la bande utile, nous aurons:
Et, comme x̃ (t) est l’approximation du signal original x (t) sur la bande
Et, comme ~
utile, nous aurons:

z z
ωu
X bω g dω + X bω g − X bω g dω
1 ωu 1 2 ~ 2
1
Z e1= Z 2
e= |X (ω)| dω + 2
2π X (ω) − X̃ (ω) 2dω.
π
ω ≥ω u −ω u
2π 2π
−ωu

z
|ω|≥ωu
ω
L’erreur sera minimaleωRulorsque
L’erreur sera minimale lorsque 2π 1
1 u
X (ω)2−π X̃ (ω)
X ω
2 − X ω
dω =
~
0
bg bg
2
dω = 0 c’est à dire lorsque ~
c’est à dire
x t correspo bg
−ω u
au filtrage idéal de x
−ωu
t bg
par le filtre
lorsque x̃ (t) correspond au filtrage idéal de x (t) par delegarde.
filtre deLegarde.
filtrage
Leantirepliement est donc optima
l’erreur quadratique
filtrage antirepliement est: et l’erreur quadratique est:
est donc optimal

e=
1

Z

|ω|≥ωu
|X (ω)|2 dω. e =
1
2π z
ω ≥ω u
bg
X ω
2

Exemple:
Nous allons étudier l’effet du filtre antirepliement sur l’échantillonnage d’un signal rectang
La Figure 11 représente le signal reconstruit sans avoir utilisé de filtre (courbe continue) et
ayant utilisé un filtre (courbe en pointillé). La fréquence d’échantillonnage a été fixée

124  2003 Christophe Deutsch, Leslie A. Ru


Analyse des Chapitre 7 : Échantillonnage
Signaux

ω e = 12π et le filtre antirepliement a une fréquence de coupure de ω e / 2 .


On peut constater que les oscillations de la courbe continue sont plus grandes que celles de la
courbe en pointillé. Ceci est logique puisque la courbe en pointillé doit, d’après la théorie, être
plus proche du rectangle que la courbe continue.
182 CHAPITRE 7. ÉCHANTILLONNAGE

Rect(t)
1.2
Sans filtre
antirepliement
1
Avec filtre
antirepliement
0.8

0.6

0.4

0.2

t
-1.5 -1 -0.5 0 0.5 1 1.5

-0.2

Figure 7.11 Effet du filtre antirepliement sur l’échantillonage


Figure 11 Effet
d’un du filtre antirepliement sur l’échantillonnage d’un signal rectangle
rectangle.

Exemple Nous allons étudier l’effet du filtre antirepliement sur l’échantil-


lonnage d’un signal rectangle. La Figure 7.11 représente le signal reconstruit
sans avoir utilisé de filtre (courbe continue) et en ayant utilisé un filtre
(courbe en pointillé). La fréquence d’échantillonnage a été fixée à ωe = 12π
et le filtre antirepliement a une fréquence de coupure de ωe /2.

On peut constater que les oscillations de la courbe continue sont plus


grandes que celles de la courbe en pointillé. Ceci est logique puisque la
courbe en pointillé doit, d’après la théorie, être plus proche du rectangle
que la courbe continue.

 2003 Christophe Deutsch, Leslie A. Rusch 125


Il s’agit maintenant de savoir comment retrouver le signal original à partir de ce
échantillonné. Pour cela nous allons chercher la transformée de Fourier de ce signal. En
peut exprimer le signal échantillonné comme un produit de convolution:

b g RS U R1 F t IU
+∞
xe t = Te ∑ xbkTe gδ bt − kTe gV∗ STτ RectGH τ JK VW
7.4. ÉCHANTILLONNAGE RÉEL T k =−∞ W 183
On peut donc calculer la transfor
Xe(ω) Fourier à présent:

b g RS ∑ X bω − kω gUVRSTSaFGH
+∞
Xe ω =
T k =−∞ W e

F ωτ IJ ∑ X bω − kω
= Sa G
+∞

H2K k =−∞
e

On obtient une sorte de périod


du spectre, mais avec une défor
due à la présence du sinus ca
ω
Pour retrouver le signal il faudr
utiliser un filtre qui élimin
Figure 12 Transformée de Fourier
Figure 7.12 Transformée de Fourier. b g
périodisations de X ω et qui rec
déformation d’amplitude apport
le sinus cardinal.
7.4.2 Échantillonnage maintien
Nous avonsDans la l’étape
vu que pratique, on peut se contenter
d’échantillonnage d’un
d’un signal filtrage
pouvait êtrepasse-bas
modéli- avec une fréquence de coup
ω e 2 . En effet,
sée mathématiquement par lesuivant
produitladufréquence
signal par d’échantillonnage ω e , on pourra choisir τ de telle so
le peigne de Dirac. Cette
l’atténuation
modélisation sur le
n’est toutefois passignal soit négligeable
satisfaisante dans la bande dedufréquences −ω e 2 , ω e 2 .
pour la reconstruction
signal. En effet, dans un système réel de convertisseur numérique analogique,
on ne peut pas générer un peigne de Dirac. Un des principes utilisés est de
conserver l’échantillon pendant une certaine durée τ . Ce principe est celui
126
de l’échantillonnage maintien. Plus τ sera petit, plus on se rapprochera 2003 Christophe Deutsch, Leslie A
du peigne de Dirac. Le signal échantillonné aura alors la forme suivante:

+∞  
X Te t − kTe
xe (t) = x (kTe ) Rect .
τ τ
k=−∞

Il s’agit maintenant de savoir comment retrouver le signal original à partir


de ce signal échantillonné. Pour cela nous allons chercher la transformée
de Fourier de ce signal. En fait, on peut exprimer le signal échantillonné
comme un produit de convolution:

+∞
( )   
X 1 t
xe (t) = Te x (kTe ) δ (t − kTe ) ∗ Rect .
τ τ
k=−∞
184 CHAPITRE 7. ÉCHANTILLONNAGE

Xe(ω)

Figure 7.13 Système bloqueur d’ordre zero.

On peut donc calculer la transformée de Fourier à présent:

+∞
( )
X n  ωτ o
Xe (ω) = X (ω − kωe ) Sa
2
k=−∞
+∞
 ωτ  X
= Sa X (ω − kωe ).
2
k=−∞

On obtient une sorte de périodisation du spectre, mais avec une déformation


due à la présence du sinus cardinal. Pour retrouver le signal il faudra donc
utiliser un filtre qui élimine les périodisations de X (ω) et qui rectifie la
déformation d’amplitude apportée par le sinus cardinal.
Dans la pratique, on peut se contenter d’un filtrage passe-bas avec une
fréquence de coupure en ωe /2. En effet, suivant la fréquence d’échantillon-
nage ωe , on pourra choisir τ de telle sorte que l’atténuation sur le signal soit
négligeable dans la bande de fréquences [−ωe /2, ωe /2].

7.4.3 Bloqueur d’ordre 0


Un cas particulièrement intéressant de l’échantillonnage maintien est le cas
où τ = Te . On parle alors d’un système bloqueur d’ordre zéro ou encore
d’interpolateur d’ordre zéro. Le signal échantillonné par un tel système
7.4. ÉCHANTILLONNAGE RÉEL 185

aura pour transformée de Fourier:


 +∞
 X
ωTe
Xe (ω) = Sa X (ω − kωe ).
2
k=−∞

On constate que les périodisations de X (ω) sont fortement atténuées. Mais


malheureusement, on peut aussi constater que le spectre X (ω) du signal
est déformé lui aussi. Par conséquent, la restitution du signal nécessitera
un filtrage passe-bas [−ωe /2, ωe /2] pour éliminer les périodisations de X (ω)
(même si elles sont déjà fortement atténuées) mais aussi un filtrage d’éga-
lisation qui permettra de faire disparaı̂tre les distorsions d’amplitude. Le
filtre d’égalisation devra avoir la fonction de transfert suivante:
1
H (ω) = pour ω ∈ [−ωe /2, ωe /2] .
Sa (ωTe /2)
La plupart des convertisseurs numérique analogique sont munis de ce type
de reconstruction.

7.4.4 Interpolateur
Une autre idée qui vient naturellement à l’esprit, c’est de reconstituer le sig-
nal en faisant une interpolation linéaire plutôt qu’en conservant la valeur des
échantillons pendant une certaine durée. Cette interpolation se fait en util-
isant des triangles. En effet, si à chaque échantillon on associe un triangle,
on va se retrouver avec une interpolation linéaire. Le signal échantillonné
pourra alors se mettre sous la forme suivante:
+∞  
X t − kTe
xe (t) = x (kTe )Tri .
Te
k=−∞

On peut mettre cette expression sous la forme d’un produit de convolution:


+∞
( )   
X 1 t
xe (t) = Te x (kTe ) δ (t − kTe ) ∗ Tri .
Te Te
k=−∞

La transformée de Fourier de ce signal échantillonné sera donc:

+∞
( )  
X
2 ωTe
Xe (ω) = X (ω − kωe ) Sa
2
k=−∞
 +∞
 X
2 ωTe
= Sa X (ω − kωe ).
2
k=−∞
186 CHAPITRE 7. ÉCHANTILLONNAGE

Xe(ω)

Figure 7.14 Interpolation linéaire.

Tout comme pour le bloqueur d’ordre 0, les périodisations de X (ω) sont


atténuées (même encore plus que pour le bloqueur d’ordre 0) et le spectre
X (ω) du signal est déformé. On remarque ceci sur la Figure 14. Pour
la reconstruction, il faudra donc utiliser un filtrage passe-bas [−ωe /2, ωe /2]
(appelé aussi filtrage de lissage) et un filtrage d’égalisation pour éliminer les
distorsions d’amplitude de X (ω).
L’intérêt de ce type de restitution est que le filtre passe-bas utilisé pourra
être moins performant que celui utilisé pour le bloqueur d’ordre 0 puisque
les périodisations de X (ω) sont déjà très atténuées.

7.4.5 Conclusion
Nous avons vu différents types de possibilités de reconstruction d’un signal
ainsi que la nécessité du filtrage antirepliement avant l’échantillonnage. Le
schéma de principe général d’un échantillonnage réel peut donc se résumer
comme à la figure 7.15
7.4. ÉCHANTILLONNAGE RÉEL 187

Traitement numérique du Réalisation physique du


signal Échantillonné: filtre de
filtrage anti- signal:
Échantillonnage 1/ bloqueur d'ordre 0 lissage et
repliement transmission,stockage,
2/ interpolateur d'égalisation
filtrage numérique, etc..
3/ etc...

Figure 7.15 Reconstruction du signal x(t)


188 CHAPITRE 7. ÉCHANTILLONNAGE
Chapitre 8

Applications en
télécommunication

8.1 Les différents types de modulation


Dans ce chapitre, nous allons introduire les principales techniques de com-
munication analogique. Le terme analogique signifie que le message à trans-
mettre correspond à une grandeur physique réelle, par opposition à la com-
munication numérique où le message est une suite de symboles abstraits.
Le message se présente en général sous la forme d’un signal électrique parce
que sous sa forme naturelle, le message ne pourrait pas être transmis. Un
message sonore, par exemple, correspond physiquement à des variations de
la pression de l’air; or ces variations de pression s’atténuent très vite et ne
sont donc pas du tout adaptées à la transmission à longue distance.
Malheureusement, même sous une forme électrique, le message ne peut
pas toujours être transmis directement. En effet, supposons qu’on cherche à
transmettre un signal audio par voie radioélectrique, les antennes devraient
mesurer plusieurs kilomètres de diamètre pour obtenir un rayonnement sat-
isfaisant parce que le signal est en bande de base. C’est pourquoi on va
déplacer le spectre du message à transmettre vers de plus hautes fréquences
(ce qui a pour effet de réduire la taille des antennes). Ce déplacement se
fait grâce à la modulation.
La transposition du spectre du message présente un autre avantage: celui
du multiplexage en fréquence. En effet, si on a plusieurs signaux à trans-
mettre sur un même canal, on pourra le faire en modulant ces signaux à
différentes fréquences. C’est ce qui est fait en téléphonie (jusqu’à 10800
voies!).

189
Chapitre 8 : Applications en télécommunication Analy
Signa

190 LaCHAPITRE
modulation permet donc d'adapterEN
8. APPLICATIONS le message au canal de transmission. Nous supposo
TÉLÉCOMMUNICATION
entendu que le messag
largeur de bande limité
la modulation n’app
Spectre du signal
en bande de base bg
Mω rien). Nous noteron
fréquence telle que:
-b b ω ≥b⇒ M ω =bg
La largeur de ban
B=b
message sera alors B = b
Spectre du signal modulé. C'est L'effet de la modulation
un signal à bande étroite
transformer un signal e
de base en un signal à
étroite.
−ω 0 ω0 − b ω0 ω0 + b Un signal à bande étro
le spectre est centré en
se mettre sous la
Figure 1 Modulation
Figure 8.1 Modulation. suivante:
bg bg c
s t = a t cos ω 0t + ϕ
La modulation permet donc d’adapter le message au canal de trans-
Il existe
Nous deux types de modulations: leslemodulations d'amplitude
largeur pour
de lesquelles l'amplitu
bg
mission. supposons bien entendu que message a une
bande dépend du message
limitée (sinon et les modulations
la modulation angulaires
n’apporterait pournoterons
rien). Nous lesquelles c'est la phase ϕ t qui
b la
du message.
fréquence telle que: Historiquement, c'est d'abord les modulations d'amplitude qui ont été utilis
1920) alors que les |ω|modulations angulaires
≥ b ⇒ M (ω) = 0. ne sont apparues pratiquement que dans les
1940. Dans la suite, nous allons voir quatre types de modulation d'amplitude et la modul
La largeur de bande du message sera alors B=b.
fréquence. La raison pour laquelle il existe plusieurs types de modulations est que
L’effet de la modulation est de transformer un signal en bande de base
d'entre elles possède des caractéristiques propres qui font qu'elle est mieux adapté
en un signal à bande étroite.
problèmes spécifiques.
Un signal à bande étroite dont le spectre est centré en ω0 peut se mettre
sous la forme suivante:
8.2 La modulation double bande sans porteuse DBSP
s (t) = a (t) cos (ω0 t + ϕ (t)) .
8.2.1 Modulation
Il existe deux types de modulations: les modulations d’amplitude pour les-
quellesC'est la modulation
l’amplitude qui estdu
a (t) dépend la plus simple
message puisque
et les le signalangulaires
modulations modulé est de la forme(Figure
bg
pour lesquelles c’est la phase ϕ (t) qui dépends du bg b g
t =message.
Am t cos ω 0t
Historiquement,
c’est d’abord les modulations d’amplitude qui ont été utilisées (dès 1920)
(A est un nombre réel qui correspond à une amplification ou à une atténuation du message
alors que les modulations angulaires ne sont apparues pratiquement que dans
les années 1940. Dans la suite, nous allons voir quatre types de modulation
Le spectre
d’amplitude et la sera par conséquent(Figure
modulation de fréquence. La3):
raison pour laquelle il existe
plusieurs types de modulations est que
bg c b
Sω =chacune
2
caractéristiques propres qui font qu’elle est mieux
g b
M ω −ω0 + M ω +ω0 gh
A d’entre elles possède des
adaptée à des problèmes
spécifiques.

130  2003 Christophe Deutsch, Leslie


8.2. MODULATION DOUBLE BANDE SANS PORTEUSE 191

m(t)
t

Message
m(t)

s(t)

Signal
modulé s(t)

Figure 8.2 Modulation DBSP.

8.2 Modulation double bande sans porteuse


8.2.1 Modulation DBSP
C’est la modulation qui est la plus simple puisque le signal modulé est de la
forme (Figure 8.2):
s (t) = Am (t) cos (ω0 t) .
A est un nombre réel qui correspond à une amplification ou à une atténuation
du message.
Le spectre sera par conséquent (Figure 8.3):
A
S (ω) = (M (ω − ω0 ) + M (ω + ω0 )) .
2
On se rappelle qu’on peut décomposer le cos en une somme pondérée d’exponentielle
complexe qui, en fréquence, correspondent à un décalage.

8.2.2 Génération du signal modulé


Dans la pratique, le signal modulé n’est pas obtenu par un système de mul-
tiplication. Multiplier deux signaux analogiques est, en effet, une opération
Analyse des Chapitre 8 : Applications en télécommunication
Signaux

192 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION


m(t)
t

Message
bg

m(t)
-b b

s(t) bg

t
−ω 0 − b −ω 0 −ω 0 + b ω0 − b ω0 ω0 + b
B = 2b

Signal Figure 8.3


Figure 3 Spectre
Spectredu
dusignal moduléDBSP.
signal modulé DBSP
modulé s(t)

Figure 2 Modulation DBSP


qui pose certains problèmes techniques et ils peuvent, ici, être contournés.
Avant de donner le circuit qui permet ce genre d’opération, nous allons
présenter le principe théorique sous-jacent.
8.2.2 Génération du signal modulé
Soit c(t) le signal périodique suivant:
Dans la pratique, le signal modulé n'est pas obtenu par un système de multiplication. Multiplier
deux signaux analogiques est, en effet, une opération quipose 1 certains
si -T0 /4problèmes
≤ t < T0 /4techniques et
ils peuvent, ici, être contournés. c (t) =
−1 si T0 /4 ≤ t < 3T0 /4
.
Avant de donner le circuit qui permet ce genre d'opération, nous allons présenter le principe
théorique sous-jacent. Comme c(t) est périodique on peut le décomposer en série de Fourier. Pour
Soit c(t ) le signal périodique suivant:
calculer ses coefficients nous allons chercher la transformée de Fourier de la

b g RST
restriction1cr (t)
t = aurons:
c Nous
si de 4 ≤àt une
-T0c(t)
−1 si T 4 ≤ t < 3T 4
0
< T0période.
4
0

Comme c(t ) est périodique on peut le décomposer T0 de Fourier. Pour


Cr (ω) en
= sérieSa (ωT0 /4) 1 − e−jωTcalculer ces
 
0 /2
2
coefficients nous allons chercher la transformée de Fourier de la restriction cr (t ) de c(t ) à une
2
période. −jωT0 /4 sin (ωT0 /4)
= jT0 e .
ωT0 /4
Nous aurons:
Nous en déduisons alors les coefficients de la série de Fourier:
Cr ω = bg T0
2
b gd
Sa ωT0 4 1 − e − jωT0 2
Cr (nω0 )
i sin2 (nπ/2)
= 2je−jnπ/2
b g
C (n) =
sin 2 ωT0 4T0 nπ
= jT0e − jωT0 4
ωT0 4 0 si n = 0
0
C (n) = si n est pair .
Nous en déduisons alors les coefficients de la série de Fourier:
 2(-1)(n−1)/2

nπ si n est impair

 2003 Christophe Deutsch, Leslie A. Rusch 131


8.2. MODULATION DOUBLE BANDE SANS PORTEUSE 193

m(t)

c(t)
+1

-1

c(t)m(t)

Figure 8.4 Multiplication de m(t) par c(t).


194 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION

m(t) s(t)

c(t)
modulateur en filtrage passe-
anneau. bande

Figure 8.5 Modulateur en anneau.

Et ainsi:
+∞
2 X (−1)n j(2n+1)ω0 t
c (t) = e
π n=−∞ (2n + 1)
+∞
4 X (−1)n
= cos ((2n + 1) ω0 t).
π (2n + 1)
n=0

Par conséquent, si on multiplie m (t) par c (t) et qu’on effectue un filtrage


passe-bande (afin d’éliminer les fréquences ω telles que |ω − ω0 | > b), nous
obtiendrons le signal s (t) désiré. En effet:
+∞
4 4 X (−1)n
c (t) m (t) = m (t) cos (ω0 t) + m (t) cos ((2n + 1) ω0 t).
π π (2n + 1)
n=1

La multiplication de m (t)par c (t) consiste simplement à changer le signe


de m (t). Cette opération est facile à réaliser avec un modulateur en anneau
(aussi appelé mélangeur). Le schéma de principe est donné à la Figure 8.5.
Il suffit, ensuite, de filtrer la sortie du modulateur en anneau par un filtre
passe-bande.
Nous avons vu un principe facile à mettre en place pour générer le signal
modulé. Ce n’est pas le seul principe qui existe, mais on le retrouve très
fréquemment du fait de sa simplicité.
On effectue un filtrage passe-bande à la sortie du modulateur en anneau
alors qu’en théorie il n’y a pas de puissance en bande de base. La raison
pour laquelle on utilise ce type de filtrage est qu’il permet d’éliminer du
bruit.
Note: On effectue un filtrage passe-bande à la sortie du modulateur en anneau alors qu'en théorie
il n'y a pas de puissance en bande de base. La raison pour laquelle on utilise ce type de filtrage
est qu'il permet d'éliminer du bruit.

8.2.3 Démodulation
Le principe de la démodulation est extrêmement simple en théorie. En effet, il suffit de
multiplier le signal
8.2. MODULATION moduléBANDE
DOUBLE par cos SANS b g
ω 0t etPORTEUSE
d'effectuer un filtrage195
passe-bas.
En effet, nous aurons:
Sω bg bg bg b g
d t = s t cos ω 0t

= c1 + cosb2ω t ghmbt g
A
0
2

−ω 0 ω0 Ce qui se traduit en fréquence


par:

Dbω g bg Dω = M ω +
A
2
bg
A
4
b g b
M ω −ω0 + M ω +ω0 g
−2ω 0 2ω 0 Par filtrage passe-bas du signal

Figure 6 Démodulation cohérente


bg d t il est donc évident qu'on
Figure 8.6 Démodulation cohérente. retrouve, à un facteur près, le
bg
signal m t .
8.2.3 Une démodulation de ce type est appelée démodulation cohérente parce qu'on doit connaître
Démodulation
exactement la valeur de la porteuse ω 0 . Cette connaissance pose un problème de principe. En
effet,dedans
Le principe la pratique, est
la démodulation il faut trouver un
extrêmement moyen
simple de synchroniser
en théorie. En effet, en phase et en fréquence
il suffitl'oscillateur
de multiplier le signal modulé par cos (ω t) et d’effectuer
du récepteur sur la porteuse. 0 Ceci peut être réalisé un filtrage
par la transmission d'une onde de
passe-bas. En effet,
référence. nousmalgré
Mais, aurons:cela, la synchronisation n'est pas toujours parfaite. Voyons quel est, par
exemple, l'effet d'un déphasage au niveau de la démodulation.
Soit δϕ ce déphasage.
d (t) = Nouss (t) cos (ω0 t)
aurons:
A
bg=
b gbg c b g
(1 + cos (2ω t)) m (t)
d t =2cos ω 0t + δϕ0 s t =
A.
2
b gh b g
cos δϕ + cos 2ω 0t + δϕ m t
Ce qui se traduit en fréquence par:
Après filtrage il restera donc:

D (ω) =
A
2
A A
cos+δϕ
M (ω) + [M (ω − ω0 ) + M (ω
4 2
b g bg
ω0 )]m. t

À la réception
Par filtrage il ysignal
passe-bas du aura donc
d (t) ilune
est atténuation
donc évidentduqu’on
message. Cecià un
retrouve, ne serait pas grave s'il n'y avait
pas de bruit qui venait
facteur près, le signal m (t). s'ajouter lors de la transmission. Or, comme ce bruit n'est pas "cohérent",
il ne sera pas atténué et ainsi on perdra de la qualité.
Une démodulation de ce type est appelée démodulation cohérente parce
qu’on doit connaı̂tre exactement la valeur de la porteuse ω0 . Cette con-
Unepose
naissance dérive
un en fréquence
problème aurait desEn
de principe. conséquences
effet, dans laencore plusilgraves.
pratique, faut En effet, un déplacement
trouverenunfréquence
moyen derend souvent un
synchroniser enmessage
phase etincompréhensible.
en fréquence l’oscillateur du
récepteur sur la porteuse. Ceci peut être réalisé par la transmission d’une
onde de référence. Mais, malgré cela, la synchronisation n’est pas toujours
parfaite. Voyons quel est, par exemple, l’effet d’un déphasage au niveau de
la démodulation.

 2003 Christophe Deutsch, Leslie A. Rusch 133


196 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION

Soit δϕ ce déphasage. Nous aurons:


A
d (t) = cos (ω0 t + δϕ) s (t) = (cos (δϕ) + cos (2ω0 t + δϕ)) m (t) .
2
Après filtrage il restera donc:
A
cos (δϕ) m (t) .
2
À la réception il y aura donc une atténuation du message. Ceci ne serait pas
grave s’il n’y avait pas de bruit qui venait s’ajouter lors de la transmission.
Or, comme ce bruit n’est pas “cohérent”, il ne sera pas atténué et ainsi on
perdra de la qualité.
Une dérive en fréquence aurait des conséquences encore plus graves. En
effet, un déplacement en fréquence rend souvent un message incompréhen-
sible.
L’inconvénient majeur de ce type de modulation est donc lié à la démo-
dulation qui doit être cohérente. C’est la raison pour laquelle elle n’est pas
utilisée en transmission. Elle est plutôt utilisée en multiplexage (multiplex-
age stéréophonique par exemple).

8.3 La modulation double bande avec porteuse


C’est ce type de modulation (DBAP) qui a été utilisé le premier pour la ra-
diophonie. Elle est plus complexe que la modulation DBSP, mais le récepteur
est d’une simplicité enfantine et c’est ce qui a permis l’essor de la radiodif-
fusion dans les années 1920.

8.3.1 Modulation
Le signal modulé est cette fois-ci de la forme suivante:
s (t) = A (1 + km (t)) cos (ω0 t) .
Le facteur k est appelé taux de modulation et il est choisi de tel sorte que
|km (t)| < 1. La raison pour laquelle on désire avoir une telle condition
est que le signal [1 + km (t)] ne s’annule jamais et ainsi l’enveloppe de s (t)
correspond bien à [1 + km (t)].
D’un point de vue fréquentiel nous aurons:
Ak
S (ω) = [M (ω − ω0 ) + M (ω + ω0 )]
2
+Aπ [δ (ω − ω0 ) + δ (ω + ω0 )] .
C'est ce type de modulation qui a été utilisé le premier pour la radiophonie. Elle est plu
complexe que la modulation DBSP, mais le récepteur est d'une simplicité enfantine et c'est ce q
a permis l’essor de la radiodiffusion dans les années 1920.

8.3.1 Modulation
Le signal modulé est cette fois-ci de la forme suivante:
8.3. LA MODULATION DOUBLE BANDE AVEC st =A bg c
PORTEUSE b gh b g
1 + km t cos ω 0197
t

Le facteur k est appelé taux de modulatio


Mω bg bg
et il est choisi de tel sorte que km t <
La raison pour laquelle on désire avoir un
-b b
telle condition est que le signal 1+ km tb
ne s’annule jamais et ainsi l’enveloppe d
bg
Sω bg bg
s t correspond bien à 1+ km t .

−ω 0 − b −ω 0 −ω 0 + b ω0 − b ω0 ω0 + b D'un point de vue fréquentiel nous aurons


B = 2b bg
Sω =
Ak
2
b g b g
M ω − ω0 + M ω + ω0

Figure 7 Modulation DBAP b g b g


+ Aπ δ ω − ω 0 + δ ω + ω 0
Figure 8.7 Modulation double bande avec porteuse.
On peut constater que ce type de modulation consacre de l'énergie à la transmission de
porteuse.
On peut constater que ce type de modulation consacre de l’énergie à la
transmissionLaderéalisation
la porteuse.
de ce type de signal modulé est assez facile à faire dans la pratique. On peut e
effet sedeservir
La réalisation du signal
ce type modulé
de signal DBSP
modulé et simplement
est assez y ajouter
facile à faire dans lala porteuse.
pratique. On peut en effet se servir du signal modulé DBSP et simplement
y ajouter la porteuse.

8.3.2 Démodulation

La démodulation pourrait se faire aussi de manière cohérente. Mais ceci


n’apporterait rien par rapport à la modulation DBSP.
En fait, comme l’enveloppe du signal modulé est directement reliée au
signal, nous allons simplement faire une détection d’enveloppe. La détection
d’enveloppe se fait de la façon suivante: on ne garde que les alternances
positives du signal modulé, puis, en interpolant les pics de ces alternances
par un filtrage passe-bas, on retrouve l’enveloppe recherchée.
Voyons maintenant d’un point de vue fréquentiel si les opérations pro-
posées vont134
bien nous permettre de retrouver notre signal m (t).  2003 Christophe Deutsch, Leslie A. Rus
Notons p(t) le signal qui ne possède que les alternances positives de s(t).
Nous aurons:
(c(t)+1)
p(t)=s(t) ,
2
198 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION

s(t)

Signal modulé s(t)

p(t)

Signalp(t) (alternances positives)

m(t)

Signaldémodulé m(t) (message)

Figure 8.8 Démodulation double bande avec porteuse.


Chapitre 8 : Applications en télécommunication Analyse des
Signaux
8.3. LA MODULATION DOUBLE BANDE AVEC PORTEUSE 199

bg

Seulement deux termes de P ω bg
ne sont pas complètement
éliminés(ce qu’on observe dans
la Figure 9). Ce sont les termes
b
S ω −ω0 g S(ω - ω 0 ) et S(ω + ω 0 ) , qui
Hωbg possèdent tous deux une partie de
spectre en bande de base:
LM
S (ω - ω 0 ) OP
PP b g
1
b
S ω +ω0 g Pfiltre (ω ) =
π
+ MM Hω
Hωbg N
S (ω + ω 0 ) Q
kM bω g + 2πδ bω g
A
=
π
Par conséquent nous aurons:
Figure 8.9 Démodulation double bande avec
Figure 9 Démodulation DBAP porteuse, point de A
vue spectral. pfiltre (t ) = (1 + km(t ))
π
Et ainsi, en supprimant la composante continue, on retrouvera bien le signal m(t) à un facteur de
d’où: multiplication près.
+∞
( )
1 X (−1)n
P (ω) = S(ω) ∗ 4 δ (ω − (2n + 1) ω0 ) + 2πδ (ω)
4π n=−∞
(2n + 1)
C'
+∞
1 1 X (−1)n
= S (ω) + S (ω − (2n + 1) ω0 ).
2 π n=−∞ (2n + 1)
s(t) R C R' m(t)
On filtre ce signal avec (filtrage passe-bas):

1 pour |ω| < b
H (ω) = .
Figure 10 Shéma du circuit
0 sinon de détection d'enveloppe
Seulement deux
Le circuit de termes de P
la Figure 10(ω) ne sonttrès
effectue pasbien
complètement éliminés (ce En effet, intuitivement, la
ce genre d'opération.
qu’on diode
observevadans la Figure
restituer les 8.9). Ce sontpositives
alternances les termesduS(ω-ω 0 ) et
signal s(t).S(ω+ω 0 ),
Ensuite, le filtrage passe-bas est
qui possèdent tous deux une partie de spectre en bande de base:
effectué par le bloc RC. Et, enfin, La capacité C' élimine la composante continue.

Nous venons de(ω)


Pf iltre voir=un 1système
[S(ω-ω0de) +modulation/démodulation
S(ω+ω0 )] H (ω) très simple qui est utilisé pour la
radiophonie AM. Son utilisation massive vient bien sûr du fait de la très grande simplicité du
π
démodulateur. Toutefois, A les faiblesses de ce système proviennent du fait de la largeur de bande
= [kM (ω) + 2πδ (ω)] .
nécessaire. Pour transmettre π un signal par modulation DBAP, il faut en effet disposer d'une
largeur
Par de bande
conséquent nousdouble
aurons:de celle du signal de départ. C'est pour cette raison que les ingénieurs
ont proposé d'autres types de modulations
A moins "gourmandes" que la DBAP.
pf iltre (t)= (1+km(t)).
π
8.4 La modulation à bande latérale unique BLU
Le spectre d'amplitude du signal m(t) est pair et le spectre de phase du signal est impair parce que
le message m(t) est réel. L'idée directrice de ce nouveau type de modulation est donc de ne
transmettre que la partie positive du spectre puisqu'on peut retrouver la partie négative.
200 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION

C'

s(t) R C R' m(t)

Figure 8.10 Circuit de détection d’enveloppe.

Et ainsi, en supprimant la composante continue, on retrouvera bien le signal


m(t) à un facteur de multiplication près.
Le circuit de la Figure 8.10 effectue très bien ce genre d’opération. En
effet, intuitivement, la diode va restituer les alternances positives du signal
s(t). Ensuite, le filtrage passe-bas est effectué par le bloc RC. Et, enfin, La
capacité C’ élimine la composante continue.
Nous venons de voir un système de modulation/démodulation très simple
qui est utilisé pour la radiophonie AM. Son utilisation massive vient bien sûr
du fait de la très grande simplicité du démodulateur. Toutefois, les faiblesses
de ce système proviennent du fait de la largeur de bande nécessaire. Pour
transmettre un signal par modulation DBAP, il faut en effet disposer d’une
largeur de bande double de celle du signal de départ. C’est pour cette
raison que les ingénieurs ont proposé d’autres types de modulations moins
“gourmandes” que la DBAP.

8.4 La modulation à bande latérale unique (BLU)


Le spectre d’amplitude du signal m(t) est pair et le spectre de phase du
signal est impair parce que le message m(t) est réel. L’idée directrice de
ce nouveau type de modulation est donc de ne transmettre que la partie
positive du spectre puisqu’on peut retrouver la partie négative.

8.4.1 Modulation
En fait, la modulation se fait comme dans le cas de la modulation DBSP:

s (t) = Am (t) cos (ω0 t) .

Mais au lieu de transmettre le signal s(t) directement, on effectue un filtrage


passe-bande afin d’éliminer soit la bande inférieure, soit la bande supérieure.
Analyse des Chapitre 8 : Applications en télécommunicat
Signaux

8.4.1 Modulation
En fait, la modulation se fait comme dans le cas de la modulation DBSP.
8.4. LA MODULATION À BANDE LATÉRALE sUNIQUE bg
t = Am t cos ω 0t 201 bg b g
Mais au lieu de transmettre le signal
directement, on effectue un filtrage pas
bg
Mω bande afin d'éliminer soit la ba
inférieure, soit la bande supérieure. Dan
suite, nous ne traiterons que la B
-b b
supérieure. Et nous noterons s filtre t bg
bg
S filtre ω B=b signal modulé par ce type de modulation

Le principe théorique est très simple mai


−ω 0 − b −ω 0 ω0 ω0 + b
se pose un problème: il est impossible
Modulation BLU supérieure créer un filtre passe-bande qui coupe
S filtre bω g manière très nette en ω 0 . La conséque
B=b
directe de cet inconvénient est que
modulation BLU ne peut pas être utili
−ω 0 −ω 0 + b ω0 − b ω0 pour des signaux ayant des composan
Modulation BLU inférieure
pour les très basses fréquences. Cependa
dès qu'un signal n'a pas de composan
Figure 11 Modulation BLU pour les très basses fréquences on p
Figure 8.11 Modulation à bande latérale unique. utiliser la modulation BLU. C'est le
pour les signaux de paroles humaines.
Dans la suite,effet,nousen-dessous de 300Hz
ne traiterons (628 radians
que la BLU par seconde),
supérieure. la voix n'est plus audible. Par conséque
Et nous noterons
avec un signal de voix humaine,
sf iltre (t) le signal modulé par ce type de modulation. on dispose d'une bande de fréquence de 600Hz pour effectue
Le principe filtrage.
théorique est très simple mais il se pose un problème: il est
impossible de créer un filtre passe-bande qui coupe de manière très nette en

ω0 . La conséquence directe de cet inconvénient est que la modulation bg
BLU
ne peut pas être utilisée pour des signaux ayant des composantes pour les
très basses fréquences. Cependant, dès qu’un signal n’a pas de composantes
pour les très basses fréquences on peut utiliser
−b −ω min
la modulation ω
BLU. C’est
min b
zone de coupure
du filtre
le cas pour les signaux de paroles humaines. En effet, en-dessous de 300Hz Hωbg
(628 radians par seconde), la voix n’a que peu de contenu spectralSω bg
utile
à l’audibilité d’une conversation. Par conséquent, avec un signal de voix
humaine, on dispose d’une bande de fréquence de 600Hz pour effectuer le
filtrage. −ω ω0
0

8.4.2 Démodulation Figure 12 Filtrage passe-bande dans la modulation BLU


Nous n’allons considérer que la modulation BLU supérieure; les résultats
sont identiques pour la BLU inférieure. La démodulation se fait de manière
cohérente, 8.4.2
commeDémodulation
dans le cas de la DBSP. Le schéma de la Figure 8.13
montre bien comment on arrive à retrouver le signal de départ. Le même
Nous n'allons considérer que la modulation BLU supérieure; les résultats sont identiques pou
BLU inférieure. La démodulation se fait de manière cohérente, comme dans le cas de la DB
Le schéma de la Figure 13 montre bien comment on arrive à retrouver le signal de départ.

 2003 Christophe Deutsch, Leslie A. Rusch 1


bg
S filtre ω manière très nette en ω 0 . La conséquence
B=b
directe de cet inconvénient est que la
modulation BLU ne peut pas être utilisée
−ω 0 −ω 0 + b ω0 − b ω0 pour des signaux ayant des composantes
Modulation BLU inférieure
pour les très basses fréquences. Cependant,
dès qu'un signal n'a pas de composantes
Figure 11 Modulation BLU pour les très basses fréquences on peut
202 CHAPITRE 8. APPLICATIONSutiliserEN TÉLla ÉCOMMUNICATION
modulation BLU. C'est le cas
pour les signaux de paroles humaines. En
effet, en-dessous de 300Hz (628 radians par seconde), la voix n'est plus audible. Par conséquent,
avec un signal de voix humaine, on dispose d'une bande de fréquence de 600Hz pour effectuer le
filtrage.

Mω bg

−b −ω min ω min b
zone de coupure
du filtre
Hωbg
bg

−ω 0 ω0
Figure 12 Filtrage passe-bande dans la modulation BLU
Figure 8.12 Modulation à bande latérale unique.

8.4.2 Démodulation
Nous n'allons considérer que la modulation BLU supérieure; les résultats sont identiques pour la
Chapitre
BLU 8 : Applications
inférieure. en télécommunication
La démodulation se fait de manière cohérente, comme dans le cas Analyse
de la DBSP.
des
Signaux
Le schéma de la Figure 13 montre bien comment on arrive à retrouver le signal de départ.

 2003 Christophe Deutsch, Leslie A. Rusch


bg
S filtre ω
137

−ω 0 ω0
Mω bg démodulation
cohérente

−b −ω min ω min b

Figure 13 Démodulation cohérente


Figure 8.13 Démodulation BLU cohérente.

Le même problème que pour la DBSP se pose: il faut synchroniser la porteuse à la démodulation.
Deux types d'erreurs peuvent donc se produire: soit une erreur sur la phase de la porteuse, soit
une erreur sur la fréquence.
Commençons en étudiant un décalage de la phase. À la démodulation, la porteuse sera déphasée
d’un angle δϕ :
b
cos ω 0t + δϕ ⇔ πe jδϕω g ω0
b
δ ω −ω0 +δ ω +ω0 g b g
b g
= π e jδ bω gδ ω − ω 0 + e − jδ bω gδ ω + ω 0 b g
On ne va considérer que la partie de spectre comprise entre -b et +b, puisqu'on va effectuer un
filtrage passe-bas après la multiplication par la sinusoïde. La partie négative du spectre de
une erreur sur la fréquence.
Commençons en étudiant un décalage de la phase. À la démodulation, la porteuse sera déphasée
d’un angle δϕ :
b g
cos ω 0t + δϕ ⇔ πe jδϕω ω0
b g b
δ ω −ω0 +δ ω +ω0 g
b g b
= π e jδ bω gδ ω − ω 0 + e − jδ bω gδ ω + ω 0 g
On ne va considérer que la partie de spectre comprise entre -b et +b,
8.4. LA MODULATION À BANDE LATÉRALE UNIQUE 203
puisqu'on va effectuer un
filtrage passe-bas après la multiplication par la sinusoïde. La partie négative du spectre de
bg
S filtre ω (qui correspond
a la partie négative de
S filtre bω g
bg
M ω ) va être ramenée
en bande de base par la
−ω 0 ω0 convolution avec

M bω g
b g
δ ω − ω 0 , et elle sera
Multiplication par : Multiplication par :
donc multipliée par e jδϕ .
De même, la partie
e jδϕ e− jδϕ positive de bg
S filtre ω
−b −ω min ω min b
provient de la convolution

FigureBLU14
b g
avec δ ω + ω 0 et elle
Figure 8.14 Démodulation cohérente, erreur de phase. sera donc multipliée par
e − jδϕ .
On en déduit
problème que pour donc
la que le spectre
DBSP se pose: duilsignal démodulé d(t)lasera:
faut synchroniser porteuse à la
démodulation. Deux types d’erreurs peuvent donc
bg
D ω = e − j sgnbω gδϕ M ω bg
se produire: soit une
erreur sur la phase de la porteuse, soit une erreur sur la fréquence.
On peut donc constater
Commençons qu'une
en étudiant variationdesurlalaphase.
un décalage phaseÀdelaladémodulation,
porteuse n'a pas d'impact sur le spectre
d'amplitude.
la porteuse sera déphasée d’un angle δϕ:

ω0ω
cos (ω0 t + δϕ) ⇔ πejδϕω/ω0 [δ (ω − D
h
) +=δ (ω bg
M+ωω0 )]
i
bg
⇔ π ejδ(ω) δ (ω − ω0 ) + e−jδ(ω) δ (ω + ω0 ) .

On 138
ne va considérer que la partie de spectre comprise entre  2003
-b etChristophe
+b, Deutsch, Leslie A. Rusch
puisqu’on va effectuer un filtrage passe-bas après la multiplication par la
sinusoı̈de. La partie négative du spectre de Sf iltre (ω) (qui correspond a la
partie négative de M (ω)) va être ramenée en bande de base par la convo-
lution avec δ (ω − ω0 ), et elle sera donc multipliée par ejδϕ . De même, la
partie positive de Sf iltre (ω) provient de la convolution avec δ (ω + ω0 ) et
elle sera donc multipliée par e−jδϕ .
On en déduit donc que le spectre du signal démodulé d(t) sera:

D (ω) = e−j sgn(ω)δϕ M (ω) .

On peut donc constater qu’une variation sur la phase de la porteuse n’a pas
d’impact sur le spectre d’amplitude.

|D (ω)| = |M (ω)| .

Nous savons déjà que l’oreille humaine est insensible à des variations du spec-
tre de phase. Ainsi, pour toutes les applications qui touchent à des signaux
pour toutes les applications qui touchent à des signaux vocaux, un déphasage n'a aucun effet sur
la démodulation (contrairement à la modulation DBSP).

Étudions maintenant l'effet d'un décalage fréquentiel ∆ω .


La sinusoïde utilisée pour la démodulation sera:
cb
cos ω 0 + ∆ω t gh
Par conséquent,
204 le signal démodulé
CHAPITRE 8. d(t) aura l’allure représentée
APPLICATIONS sur le graphique de la Figure 15.
EN TÉLÉCOMMUNICATION

bg
S filtre ω

−ω 0 ω0
Mωbg
décalage en
fréquence

−ω min ω min ω min + ∆ω

Figure 15 Signal démodulé


Figure 8.15 Démodulation BLU cohérente, erreur de fréquence.

bg
On constate que la partie positive du spectre de M ω est déplacée de ∆ω . Il en va de même
vocaux, un déphasage n’a aucun effet sur la démodulation (contrairement à
pour la partie négative. DBSP).
la modulation Pour des applications avec des signaux vocaux, ce déplacement en
fréquence rend le signal démodulé incompréhensible dès que la dérive est de 20Hz. Cette dérive
Étudions maintenant l’effet d’un décalage fréquentiel ∆ω. La sinusoı̈de
est donc très nuisible et on rencontre souvent un bouton de réglage sur les démodulateurs BLU
utilisée pour la démodulation sera:
afin de synchroniser la porteuse en fréquence manuellement ou plus exactement à "l'oreille".

La modulation BLU permet donc de réduire cos ((ωla0 +


largeur
∆ω) t)de
. bande. De plus, pour des signaux qui
ne sont pas sensibles à des variations du spectre de phase, la démodulation cohérente ne pose pas
de problèmes par rapport à un déphasage. La dérive en fréquence, par contre, est un problème
plus crucial Par
pourconséquent, le signal démodulé
ce type de modulation. Dans lad(t) aura l’allure
pratique, représentée
ce système sur le est utilisé
de modulation
graphique
essentiellement pour dedes
la Figure 15.
applications de transmission de paroles, en particulier pour le
multiplexage téléphonique
On constate et pour
que la radiocommunication
la partie positive du spectre marine.
de M (ω) est déplacée de
∆ω. Il en va de même pour la partie négative. Pour des applications avec
8.5 La modulation
des signaux àvocaux,
bandecelatérale résiduelle
déplacement BLRrend le signal démodulé
en fréquence
La dernière modulation linéaire que nous allons voir est la Cette
incompréhensible dès que la dérive est de 20Hz. dérive BLR.
modulation est donc
Letrès
but recherché
nuisible et on rencontre souvent un bouton de réglage sur les démodulateurs
par les ingénieurs qui l'ont élaborée était d'avoir une modulation n'utilisant que peu de bande, ne
nécessitant BLU afin de synchroniser la porteuse en fréquence manuellement ou plus
pas que le signal à transmettre ne possède pas de basses fréquences et ne nécessitant
exactement à “l’oreille”.
pas une démodulation cohérente.
Le principe deLa base est le même
modulation BLUque pourdonc
permet la modulation
de réduire BLU: on module
la largeur un signal
de bande. De par une
sinusoïde, puis on effectue un filtrage passe-bande pour ne conserver qu'une partie du spectre de
plus, pour des signaux qui ne sont pas sensibles à des variations du spectre de
bg
M ω déplacé.
phase,Mais,
la démodulation cohérente ne pose
du fait de l'impossibilité pas de problèmes
de générer des filtrespar
quirapport
coupentà précisément
déphasage. La dérive en fréquence, par contre, est un problème plus crucial
un à
une fréquence ω 0 , la largeur de bande va être plus grande. En effet, on va créer un filtre qui va
pour ce type de modulation. Dans la pratique, ce système de modulation est
utilisé essentiellement pour des applications de transmission de paroles, en
particulier pour le multiplexage téléphonique et pour la radiocommunication
 2003 Christophe Deutsch, Leslie A. Rusch
marine. 139
8.5. MODULATION À BANDE LATÉRALE RÉSIDUELLE 205

8.5 Modulation à bande latérale résiduelle


La dernière modulation d’amplitude que nous allons voir est la modulation
BLR. Le but recherché par les ingénieurs qui l’ont élaborée était d’avoir une
modulation n’utilisant que peu de bande, ne nécessitant pas que le signal à
transmettre ne possède pas de basses fréquences et ne nécessitant pas une
démodulation cohérente.
Le principe de base est le même que pour la modulation BLU: on module
un signal par une sinusoı̈de, puis on effectue un filtrage passe-bande pour
ne conserver qu’une partie du spectre de M (ω) déplacé. Mais, du fait de
l’impossibilité de générer des filtres qui coupent précisément à une fréquence
ω0 , la largeur de bande va être plus grande. En effet, on va créer un filtre qui
va avoir un gain de 1 dans la bande de fréquence [ω0 + αb, ω0 + b] (α < 1)
et qui, dans la bande [ω0 − αb, ω0 + αb], aura une propriété particulière qui
nous permettra de retrouver le signal m(t) après démodulation. La partie
négative du spectre du signal viendra compenser la partie positive. La Figure
16 nous permet de voir l’idée directrice de ce principe de modulation. La
largeur de bande utilisée sera b (1 + α). Intéressons-nous d’un peu plus près
à la propriété du filtre.
Le spectre du signal modulé après filtrage sera:
Sf iltre (ω) = M (ω-ω0 )H(ω)U (ω)+M (ω+ω0 )H(ω)U (-ω).
Après démodulation et filtrage passe-bas nous aurons le signal d(t) dont le
spectre est donné par:
D(ω)=M (ω)H(ω+ω0 )U (ω+ω0 )+M (ω)H(ω-ω0 )U (-(ω-ω0 )).
Comme M (ω) a un spectre strictement compris entre -b et +b et que ω0 > b,
on peut enlever les échelons. Et ainsi:
D(ω)=M (ω)H(ω+ω0 )+M (ω)H(ω-ω0 ).
Donc, pour retrouver le signal de départ, il faut que:
H(ω+ω0 )+H(ω-ω0 )=1 pour − b < ω < b.
Comme on travaille avec des filtres réels, nous aurons: H(-ω)=H ∗ (ω), d’où:
1 1
H(ω + ω0 ) − = − H ∗ (ω0 − ω).
2 2

Cette équation se traduit “géométriquement” par une symétrie locale


impaire par rapport à ω0 de l’amplitude et de la phase de la fonction de
transfert H (ω) du filtre.
Chapitre 8 : Applications en télécommunication Analyse des
Signaux

avoir un gain de 1 dans la bande de fréquence ω 0 + αb, ω 0 + b (α < 1) et qui, dans la bande
ω 0 − αb, ω 0 + αb , aura une propriété particulière qui nous permettra de retrouver le signal m(t)
après démodulation.
206 La partie 8.négative
CHAPITRE du spectreEN
APPLICATIONS duTsignal viendra compenser la partie
ÉLÉCOMMUNICATION
positive. La Figure 16 nous permet de voir l'idée directrice de ce principe de modulation. La
b g
largeur de bande utilisée sera b 1 + α .

Mω bg

2αb
bg
S filtre ω

ω 0 − αb ω 0 ω 0 + αb
Modulation BLR supérieure

bg
S filtre ω
2αb

ω 0 − αb ω 0 ω 0 + αb
Modulation BLR inférieure

Analyse des Figure 8.16 Chapitre


Modulation 8 : Applications
à bande latérale résiduelle. en télécommunication
Signaux Figure 16 Modulation BLR

1 1
Intéressons-nous d'un peu plus prèsH (àωla+ propriété
ω 0 ) - = du-filtre.
H * (ω 0 - ω )
2 2
Le spectre du signal modulé après filtrage sera:
bg
S filtre ω = M (ω - ω 0 ) H (ω )U (ω ) + M (ω + ω 0 ) H (ω )U (-ω )
Hωbg
Après démodulation et filtrage passe-bas nous aurons le signal d(t) dont le spectre est donné par:
D(ω ) = M (ω ) H (ω + ω 0 )U (ω + ω 0 ) + M (ω ) H (ω - ω 0 )U (-(ω - ω 0 ))
ω ω +b
bg
Comme M ω a un spectre strictement compris entre -b et +b 0
et que0 ω 0 > b , on peut enlever les
échelons. Et ainsi: 2α
D (ω ) = 17
Figure M (ω ) H (ω + ω
Fonction + M (ω ) H (du
de0 )transfert ω -filtre
ω 0)
Figure 8.17 Fonction de transfert d’un filtre permettant la mod-
Donc, pour retrouver le signal
ulation BLR.de départ, il faut que:
Cette équation se traduit "géométriquement" par une symétrie locale impaire par rapport à ω 0 de
H (ω + ω 0 ) + H (ω - ω 0 ) = 1 pour − b < ω < b
bg
l'amplitude et de la phase de la fonction de transfert H ω du filtre.
Comme on travaille avec des filtres réels, nous aurons: H (-ω ) = H * (ω ) .
8.5.1
d'où: Démodulation
La démodulation peut bien sûr se faire de façon cohérente. Mais le but est justement de pouvoir
faire une détection d'enveloppe. C'est pour cela que le signal modulé (avant filtrage) n'est pas
bg
140
bg b g bg c b gh b g
s t = Am t cos ω 0t ,mais s t = A 1 + km t cos ω 0t .
 2003 Christophe Deutsch, Leslie A. Rusch
Nous allons admettre qu'une détection d'enveloppe peut effectivement être effectuée et qu'elle
permet bien de retrouver m(t) avec une légère distorsion. Cette distorsion est directement liée à
deux paramètres: la puissance accordée à la porteuse (c'est-à-dire le taux de modulation k) et la
largeur de bande résiduelle (c'est-à-dire le coefficient α ). Il s'agit donc de jouer sur ces deux
8.6. LA MODULATION DE FRÉQUENCE 207

8.5.1 Démodulation
La démodulation peut bien sûr se faire de façon cohérente. Mais le but
est justement de pouvoir faire une détection d’enveloppe. C’est pour cela
que le signal modulé (avant filtrage) n’est pas s (t) = Am (t) cos (ω0 t), mais
s (t) = A (1 + km (t)) cos (ω0 t).
Nous allons admettre qu’une détection d’enveloppe peut effectivement
être effectuée et qu’elle permet bien de retrouver m(t) avec une légère distor-
sion. Cette distorsion est directement liée à deux paramètres: la puissance
accordée à la porteuse (c’est-à-dire le taux de modulation k) et la largeur
de bande résiduelle (c’est-à-dire le coefficient α). Il s’agit donc de jouer
sur ces deux paramètres pour maintenir la distorsion dans des proportions
acceptables.
Ce système a été utilisé particulièrement en télévision. Dans ce type
d’application, le compromis empirique utilisé pour rendre la distorsion rai-
sonnable est α = 0.15 (on accorde 15% de bande résiduelle) et la porteuse a
la même amplitude que le message (c’est-à-dire k = 1/|m (t)|max ).

8.6 La modulation de fréquence


8.6.1 Introduction
Nous avons déjà vu que le but de la modulation était d’adapter le signal à
transmettre m(t) au canal. Nous avons aussi vu que le signal modulé était
de la forme:
s (t) = a (t) cos (ω0 t + ϕ (t)) .
Jusqu’à présent, nous ne nous sommes intéressés qu’aux modulations d’am-
plitude en faisant varier a(t) en fonction du message m(t). Nous allons à
présent nous intéresser à ce qui se passe lorsqu’on fait varier la phase en
fonction du message. L’idée de départ était fort simple: en faisant varier
la fréquence en fonction du message sur une plage de +-50Hz autour de la
fréquence porteuse ω0 , on aurait pu obtenir un signal modulé s(t) ayant
une largeur de bande constante et indépendante du message. Ce principe
n’était malheureusement pas exact. En effet, on s’est aperçu que la largeur
de bande d’un signal modulé en fréquence était, en général, beaucoup plus
large que celle du message à transmettre... Ce qui, en plus de rendre la
modulation de fréquence moins intéressante du point de vue de la largeur
de bande, risquait aussi de la rendre plus sensible au bruit. Ce n’est qu’en
1936 qu’Armstrong a montré qu’en fait, ce type de modulation présentait
un intérêt énorme du fait de sa grande résistance au bruit.
208 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION

m(t)

Signal modulant m(t)


s(t)

Signal modulé s(t)

Figure 8.18 Modulation de fréquence.

Nous allons voir dans la suite comment se fait effectivement la modula-


tion de fréquence et comment on évalue la largeur de bande que nécessite
cette modulation.

8.6.2 Modulation

Nous allons commencer en introduisant la notion de fréquence instantanée


d’une sinusoı̈de cos (ω0 t + ϕ (t)). La fréquence instantanée ωi est la dérivée
de la phase instantanée θi :

d d d
ωi = θi = (ω0 t + ϕ (t)) = ω0 + ϕ (t) .
dt dt dt

Pour moduler une sinusoı̈de en fréquence, il faut donc faire varier la fréquen-
ce instantanée en fonction du message. De façon générale, cette opération
est réalisée de manière linéaire, c’est-à-dire:

ωi = ω0 + kf m (t) .
8.6. LA MODULATION DE FRÉQUENCE 209

On retrouve alors la phase instantanée:

Zt
θi = ω0 t + kf m (u) du.
0

Et ainsi nous aurons la forme suivante pour le signal modulé en fréquence:

Zt
 

s (t) = A cos ω0 t + kf m (u) du .


0

La réalisation pratique de la modulation de fréquence se fait à l’aide d’un


circuit permettant de faire varier la fréquence de l’oscillateur en fonction de
la tension représentant le message. C’est un oscillateur contrôlé en tension
(OCT en français et Voltage-Controlled Oscillator en anglais).

Note 1: Les dérives de ce type de circuit peuvent aujourd’hui être assez bien
maı̂trisées et la technique permet de créer de bons modulateurs. Il existe
toutefois une autre possibilité proposée par Armstrong en 1936 (Les OCT
n’étaient alors pas aussi bien maı̂trisés).

Note 2: La modulation de fréquence n’est en fait qu’un cas particulier des


modulations angulaires, mais c’est la méthode la plus utilisée parce qu’elle
résiste mieux au bruit qu’une simple modulation angulaire par exemple.

8.6.3 Étude de la largeur de bande utile


L’un des facteurs qu’il faut connaı̂tre est la largeur de bande du signal
modulé afin de pouvoir avoir une idée de la bande indispensable pour la
transmission d’un signal.
Si on prend la transformée de Fourier du signal modulé, on constate très
rapidement qu’on se trouve face à une impasse puisqu’il est impossible de
trouver son expression analytique dans le cas général.
+∞ Zt
 
Z
S (ω) = A cos ω0 t + kf m (u) du e−jωt dt.
−∞ 0

Afin d’avoir une idée de cette largeur de bande, nous allons utiliser une
approche très empirique et qui ne se justifie absolument pas mathématique-
ment. Cette approche doit toutefois être assez bonne puisque la modulation
210 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION

de fréquence est largement utilisée de nos jours. Le principe de cette ap-


proche consiste à trouver des résultats en utilisant une sinusoı̈de comme
signal modulant et en généralisant ces résultats à un signal modulant quel-
conque.

Modulation par une sinusoı̈de


Nous allons commencer par calculer la transformée de Fourier du signal
modulé lorsque le message est une sinusoı̈de:

m (t) = α cos (ωm t) .

Dans ce cas, la fréquence instantanée varie entre ω0 − kf α et ω0 + kf α:

ωi = ω0 + kf α cos (ωm t) ,

La phase instantanée est alors:

kf α
θi = ω0 t + sin (ωm t) .
ωm
kf α
On note β = ωm l’indice de modulation. Le signal modulé est alors:

s (t) = A cos (ω0 t + β sin (ωm t)) .

Pour ce type de signal, on peut calculer la transformée de Fourier grâce aux


fonctions de Bessel de première espèce:
+∞
X
S (ω) = Aπ Jn (β) [δ (ω − ω0 − nωm ) + δ (ω + ω0 + nωm )] .
n=−∞

Où la fonction de Bessel de première espèce d’ordre n est donnée par:



1
Jn (x) = exp (jx sin (θ) − jnθ)dθ.

−π

Le spectre qu’on obtient est un spectre de raie. Les raies sont distantes de ωm
les unes des autres. Ce spectre est infini, mais du fait des coefficients Jn (β),
on peut très souvent approximer le spectre par quelques raies seulement.
Pour β << 1 nous avons par exemple J0 (β) ∼ = 1, J1 (β) ∼= β2 et pour n > 1,
Jn (β) ∼
=0
n=−∞

Où la fonction de Bessel de première espèce d'ordre n est donnée par:

z
π
bg
Jn x =
1

c bg h
exp jx sin θ − jnθ dθ
−π

Le spectre qu'on obtient est un spectre de raie. Les raies sont distantes de ω m les unes des

LA MODULATION DE FR ÉQUENCE
bg
autres. Ce spectre est infini, mais du fait des coefficients J n β , on peut très souvent approximer
8.6. 211
le spectre par quelques raies seulement.
Pour β << 1 nous avons
par exemple:
Sω bg bg
J 0 β ≅ 1, J1 β ≅
β
bg
2 .
et pour n > 1 J n β ≅ 0 bg
−ω 0 − ω m −ω 0 −ω 0 + ω m ω0 −ωm ω0 ω0 +ωm
Le spectre se résume
B = 2ω m donc à deux raies
centrales en ±ω 0 et des
Figure
Figure 8.19 19Spectre
Spectre demodulation.
raies, raie raies symétriques en
±ω 0 ± ω m .
LaLedétermination de ladonc
spectre se résume largeur du spectre
à deux se fait en
raies centrales à partir
±ω0 etdudesnombre
raies de raies que l'on va
considérer en
symétriques comme
±ω0 ± ωm . significatives. En effet, comme les raies sont distantes de ω m les unes
étant
desLaautres, la largeurdedelabande,
détermination largeursi du
on spectre
prend nsepaires
fait àde raiesdusignificatives
partir nombre de autour de la fréquence
centrale
raies ω 0 , va
que l’on sera:
considérer comme étant significatives. En effet, comme les
raies sont distantes de ωm les unes des autres, ω m de bande, si on
B =la2nlargeur
prend n paires
Il s'agit de raies
maintenant significatives
de déterminer quandautour de laestfréquence
une raie centrale
significative ω0 , elle ne l'est plus. Une
et quand
sera:
des manières de procéder est de dire qu'on va considérer les n premières raies de sorte que
l'énergie de ces n raies contienne B= 98%2nωde
m . l'énergie totale.

IlDans
s’agitlamaintenant
pratique, enderegardant
déterminer lesquand
tablesune
donnant bgβ en fonction
raie estJ nsignificative de β , on constate que, pour
et quand
l'ensemble des valeurs de β utilisées en modulation de fréquence, il existe une relation entre n et
elle ne l’est plus. Une des manières de procéder est de dire qu’on va con-
β : les n premières raies de sorte que l’énergie de ces n raies contienne
sidérer
98% de l’énergie totale. n = β +1
Dans la pratique, en regardant les tables donnant Jn (β) en fonction de
β, on constate que, pour l’ensemble des valeurs de β utilisées en modulation
de144
fréquence, il existe une relation entre n et β:  2003 Christophe Deutsch, Leslie A. Rusch
n = β + 1,
et dans ce cas, la bande nécessaire pour la transmission du signal est:
B = 2 (β + 1) ωn .
Cette bande est souvent appelée la bande de Carlson.

Indice de modulation
Nous venons de voir dans ce cas très particulier que le spectre dépend d’un
paramètre: l’indice de modulation. Nous allons définir un indice de mod-
ulation généralisé pour un signal modulant m(t) quelconque.
kf |m (t)|max
β= .
b
212 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION

La définition de cet indice est purement empirique mais elle nous permet
d’avoir une assez bonne idée du spectre de s(t). De plus, pour un β grand
(modulation à grand indice ou à large bande) et pour un β petit (modulation
à faible indice ou à bande étroite), on peut évaluer le spectre de façon assez
précise. Nous allons donc voir ces deux cas particuliers avant de passer au
cas général.

Modulation de fréquence à faible indice.


Lorsque β < 0.2 rad, on peut considérer qu’on se trouve dans un cas de
modulation à faible indice. Dans le cas où le signal modulant était une
sinusoı̈de, nous avons vu que :

s (t) = A cos (ω0 t + β sin (ωm t)) .

Par conséquent, β = |ϕ (t)|max . Nous allons supposer que c’est vrai aussi
avec l’indice de modulation généralisé. Nous pourrons alors utiliser le fait
que cos (ϕ (t)) ∼
= 1 et sin (ϕ (t)) ∼
= 1 + ϕ (t) parce que β = |ϕ (t)|max << 1.
Nous aurons:

s(t) = A cos (ω0 t+ϕ (t) )


= A cos (ω0 t) cos (ϕ (t)) -A sin (ω0 t) sin (ϕt)
= A cos (ω0 t) -Aϕ (t) sin (ω0 t) .

On en déduit alors le spectre de s(t):



S (ω) = Aπ [δ (ω − ω0 ) + δ (ω + ω0 )] − [φ (ω − ω0 ) − φ (ω + ω0 )] .
j
Ce spectre est très proche de celui de la modulation DBAP. On peut donc
constater que la largeur de bande dans ce cas précis est environ de 2b.

Modulation de fréquence à grand indice.


Dans ce cas, le théorème de Woodmark nous permet de dire que le spectre
d’énergie aura la même forme que la densité de probabilité du signal. Ceci
nous donne une bonne idée de la forme du spectre et en particulier ceci nous
permet de relier la largeur de bande à une grandeur dépendante du signal
modulant m(t). En effet, la densité de probabilité de kf m (t) prend des
valeurs entre −kf |m (t)|max et +kf |m (t)|max . Ainsi, nous pouvons dire
que la largeur de bande nécessaire pour la transmission est:

B = 2kf |m (t)|max .
8.6. LA MODULATION DE FRÉQUENCE 213

Ceci est assez étonnant puisque la largeur de bande pour ce type de mod-
ulation est liée à l’amplitude du signal modulant et pas du tout au spectre
de m(t).

Modulation de fréquence dans le cas général


Dans le cas général, on ne peut rien dire de la forme du spectre. La seule
chose qu’on puisse évaluer est la largeur de bande utile. Celle-ci est donnée
par la règle de Carlson en remplaçant la fréquence ωm par la fréquence
maximale du signal modulant m(t), soit b.
B = 2 (β + 1) b = 2 (kf |m (t)|max + b) .
Cette règle est complètement empirique, mais elle est assez bonne et très
utilisée.
On peut retrouver le résultat dans le cas des modulations à faible et à
grand indice:
Bf aible indice = 2 (β + 1) b ∼
= 2b
Bgrand indice = 2 (β + 1) b ∼
= 2βb = 2kf |m (t)|max .
On peut constater que contrairement aux modulations linéaires, la modula-
tion de fréquence nécessite une largeur de bande qui dépend non seulement
de la largeur de bande du signal modulant, mais aussi de l’amplitude de
celui-ci.

8.6.4 Démodulation
Nous n’allons voir ici qu’un type de démodulation; il en existe d’autres mais
c’est le plus facile à réaliser et le moins coûteux.
D’un point de vue mathématique, si on dérive le signal s(t) nous aurons1 :
 
d d
s (t) = A ω0 + ϕ (t) cos (ω0 t + ϕ (t))
dt dt
= A (ω0 + kf m (t)) cos (ω0 t + ϕ (t)) .
On constate donc que l’enveloppe de ce signal est proportionnelle à m(t).
Par conséquent, en utilisant un filtre dérivateur puis en faisant une détection
d’enveloppe (comme pour la modulation DBAP), nous retrouverons le signal
m(t). Ce principe de démodulation très simple s’appelle un discriminateur.
Une autre méthode basée sur le principe de la boucle à verrouillage de
phase est aussi très utilisée.
1
Il faudrait aussi dériver le cos, mais admettons qu’on peut inclure la phase du sin dans
la constante A pour retrouver le cos.
Malheureusement, ces avantages ont un coût: la largeur de bande utile est en général supérieure à
celle utilisée pour les modulations linéaires.

8.7 Le multiplexage fréquentiel et l'hétérodynage


Jusqu'à présent, nous avons toujours vu des techniques permettant de transmettre un message.
Nous allons maintenant voir comment transmettre plusieurs messages en même temps sur un
214 CHAPITRE 8. APPLICATIONS EN TÉLÉCOMMUNICATION
canal unique.

M1 ωbg bg
M2 ω bg
M3 ω

bg
S multi ω

ω1 ω2 ω3

Figure 20 Spectre du signal modulé


Figure 8.20 Multiplexage en fréquence.

Pour transmettre
8.6.5 nConclusion bg
messages mk t de même largeur de bande b, on va utiliser n porteuses ω k .Le
spectre du signal modulé aura la forme de celui de la Figure 20. Tous les messages
La modulation
s'échelonnent sur l'axe desdefréquences.
fréquence présente de nombreux avantages par rapport
aux modulations linéaires. Elle est beaucoup plus résistante au bruit. De
plus, comme
Pour démoduler chacunlede signal modulé a messages,
ces différents une enveloppe constante,
il faudrait avoirlanmodulation
systèmes dededémodulation
(un pour fréquence est insensible
chaque porteuse). aux pose
Ceci perturbations non linéaires.
un problème techniqueMalheureusement,
parce que les systèmes de
ces avantages ont un coût: la largeur de bande utile est
démodulation sont en général réglés pour fonctionner à une fréquence bien en général supérieure
précise et il est très
délicat de àfaire
cellevarier
utilisée pour
cette les modulations linéaires.
fréquence.

La solution8.7qui a Multiplexage
été proposée pour résoudre ce problème
fréquentiel technique est d'utiliser une fréquence
et Hétérodynage
intermédiaire. Le principe est le suivant: on déplace le spectre du signal modulé de sorte à
ramener leJusqu’à
spectreprésent,
du signalnous bg
t autour
mkavons de la
toujours vufréquence intermédiaire
des techniques permettantω ide
. Cette
trans-opération est
facile à réaliser
mettre àun
l'aide d'un oscillateur
message. à fréquence
Nous allons variable.
maintenant Ensuite, on
voir comment démodule le signal à
transmettre
l'aide d'unplusieurs
démodulateur à fréquence
messages en mêmefixe ω i . sur un canal unique.
temps
Pour transmettre n messages mk (t) de même largeur de bande b, on va
Le schéma de la nFigure
utiliser 21 résume
porteuses ce principe
ωk .Le spectre de démodulation
du signal modulé aura ladeforme
plusieurs signaux. Cette
de celui
démodulation est dite hétérodyne.
de la Figure 8.20. Tous les messages s’échelonnent sur l’axe des fréquences.
Pour démoduler chacun de ces différents messages, il faudrait avoir n
systèmes de démodulation (un pour chaque porteuse). Ceci pose un problè-
me technique parce que les systèmes de démodulation sont en général réglés
pour fonctionner à une fréquence bien précise et il est très délicat de faire
varier cette fréquence.

 2003 Christophe Deutsch, Leslie A. Rusch 147


Chapitre 8 : Applications en télécommunication Analyse des
Signaux

8.7. MULTIPLEXAGE FRÉQUENTIEL ET HÉTÉRODYNAGE 215

ωI ω1 ω2 ω3
démodulation du
premier canal

démodulation du
deuxième canal

démodulation du
troisième canal

Figure8.21
Figure 21 Démodulation hétérodyne
Démodulation hétérodyne.

La solution qui a été proposée pour résoudre ce problème technique est


d’utiliser une fréquence intermédiaire. Le principe est le suivant: on déplace
le spectre du signal modulé de sorte à ramener le spectre du signal mk (t)
autour de la fréquence intermédiaire ωi . Cette opération est facile à réaliser
à l’aide d’un oscillateur à fréquence variable. Ensuite, on démodule le signal
à l’aide d’un démodulateur à fréquence fixe ωi .
Le schéma de la Figure 8.21 résume ce principe de démodulation de
plusieurs signaux. Cette démodulation est dite hétérodyne.

148  2003 Christophe Deutsch, Leslie A. Rusch

Vous aimerez peut-être aussi