Traitement du Signal
Auteurs: G. Chardon , R. Combes, J. Fiorina,
E. Lahalle, J. Picheral, P. Rodriguez,
C. Soussen, G. Valmorbida, A. Wautier
CentraleSupélec, Avril 2024
TA B L E D E S M AT I È R E S
Résumé 7
Notations 9
1 bases mathématiques 11
1.1 Espaces vectoriels de dimension finie 11
1.1.1 Définition 11
1.1.2 Applications linéaires 12
1.1.3 Norme, produit scalaire 12
1.2 Espaces de Banach 13
1.2.1 Espaces ` p 14
1.2.2 Espaces L p 14
1.3 Espaces de Hilbert 15
1.3.1 Séries de Fourier 16
1.4 Distributions 16
1.4.1 Distributions tempérées 19
1.4.2 Distributions à support compact 19
1.5 Variables et processus aléatoires 20
1.5.1 Brefs rappels de statistiques 23
2 systèmes linéaires invariants 25
2.1 Notion de signal 25
2.1.1 Définitions 25
2.1.2 Représentations énergétiques 26
2.2 Convolution 26
2.2.1 Cas continu : convolutions de fonctions 27
2.2.2 Cas discret 28
2.2.3 Signaux modélisés par des distributions 28
2.2.4 Propriétés du produit de convolution 30
2.3 Notion de système 30
2.3.1 Définition 30
2.3.2 Propriétés des systèmes 31
2.4 Filtres linéaires convolutifs 32
2.4.1 Définition 33
2.4.2 Filtres à réponse impulsionnelle finie (FIR) 34
2.4.3 Filtre à réponse impulsionnelle infinie (IIR) 36
2.4.4 Équations aux différences 36
2.5 Fonctions propres 37
2.6 Conclusion 38
3 représentation fréquentielle 39
3.1 Transformée de Fourier à temps continu 40
3.1.1 Transformée de Fourier des signaux dans L1 40
3.1.2 Transformée de Fourier des signaux dans L 2 42
3.1.3 Transformée de Fourier dans S 0 43
4 table des matières
3.1.4 Quelques exemples classiques 47
3.2 Décomposition en série de Fourier 48
3.2.1 Signaux à support limité 48
3.2.2 Signaux périodiques 49
3.3 Transformée de Fourier à temps discret 49
3.3.1 Transformée de signaux dans `1 50
3.3.2 Transformée des signaux dans `2 51
3.3.3 Quelques résultats classiques 52
3.4 Transformée de Fourier Discrète 53
3.5 Application au filtrage linéaire 54
3.5.1 Filtrage dans le domaine de Fourier 54
3.5.2 Synthèse d’un filtre FIR par TFD 57
3.6 Analyse spectrale 58
3.6.1 Fenêtrage temporel de signaux à temps continu 59
3.6.2 Résolution spectrale 59
3.6.3 Fenêtrage temporel de signaux à temps discret 61
3.7 Conclusion 62
4 echantillonnage et reconstruction 65
4.1 Echantillonnage 65
4.2 Reconstruction 68
4.2.1 Signaux à bande limitée dans [− B, B] 68
4.2.2 Théorème de Shannon 69
4.2.3 Démonstration du théorème de Shannon 70
4.2.4 Signaux à bande limitée dans [ A, B] 72
4.3 L’échantillonnage en pratique 73
4.3.1 Filtre anti-repliement 73
4.3.2 Reconstruction non idéale 73
4.4 Conclusion 74
5 signaux modélisés par des processus aléatoires 75
5.1 Définition et caractérisation des processus aléatoires 75
5.1.1 Définition 75
5.1.2 Lois fini-dimensionelles 77
5.1.3 Processus gaussien 78
5.1.4 Moyenne et autocorrélation 78
5.2 Processus stationnaires 80
5.2.1 Stationnarité stricte 80
5.2.2 Stationnarité au sens large 80
5.2.3 Densité spectrale de puissance 82
5.2.4 Bruit blanc 84
5.2.5 Filtrage linéaire de processus 86
5.2.6 Processus autorégressif 88
5.3 Conclusion 90
6 estimation basée sur des modèles aléatoires 91
6.1 Estimateur de la moyenne d’un processus aléatoire 92
6.2 Estimation de la fonction d’autocorrélation 93
6.3 Estimation de la DSP : périodogramme 96
table des matières 5
6.3.1 Définition 96
6.3.2 Propriétés statistiques du périodogramme 98
6.3.3 Variantes de la méthode du périodogramme 99
6.4 Estimation paramétrique de la DSP 102
6.4.1 Principe 102
6.4.2 Cas d’un signal modélisé par un processus AR 102
6.5 Estimation linéaire optimale 104
6.5.1 Définition et propriétés 105
6.5.2 Prédiction d’un processus aléatoire 106
6.5.3 Filtre de Wiener pour le débruitage 108
6.6 Conclusion 111
Bibliographie 114
RÉSUMÉ
contexte et enjeux
Le monde numérique produit des volumes importants de signaux
de toutes sortes (audio, images, vidéo, mesures physiques) dans des
domaines aussi variés que la santé, les télécommunications, l’indus-
trie ou l’environnement. L’extraction d’information de ces données
est de plus en plus nécessaire pour le diagnostic médical, la compres-
sion de données, la suppression de bruits parasites d’un signal au-
dio, etc. Ce cours introduit des méthodes pour aborder différents pro-
blèmes comme le filtrage, la transmission, le débruitage de signaux,
ou l’analyse spectrale.
organisation
Les méthodes présentées reposent sur des concepts mathématiques
tels que les espaces de Hilbert, les distributions, et les vecteurs aléa-
toires. Ces concepts sont revisités au chapitre 1. Le chapitre 2 intro-
duit les notions de signaux et de systèmes, en particulier les filtres
linéaires convolutifs. Le chapitre 3 étudie les transformées Fourier, un
outil incontournable du traitement du signal. Les différentes transfor-
mations sont introduites pour des signaux à temps continu et à temps
discret, et utilisées pour analyser le contenu fréquentiel des signaux
(analyse spectrale) et pour caractériser les filtres linéaires dans le do-
maine fréquentiel. La théorie de l’échantillonnage introduite au cha-
pitre 4 définit les conditions sous lesquelles l’information contenue
dans un signal est conservée lors de sa discrétisation. Le théorème de
Shannon est le résultat fondamental permettant d’assurer la recons-
truction exacte d’un signal à bande limitée. Enfin, les chapitres 5 et
6 introduisent un cadre probabiliste pour caractériser les propriétés
statistiques de signaux, vus comme des processus aléatoires. L’ana-
lyse de signaux stationnaires repose sur la fonction d’auto-corrélation
(domaine temporel) et la densité spectrale de puissance (domaine fré-
quentiel), introduites formellement au chapitre 5. Le chapitre 6 pré-
sente les techniques d’estimation de ces caractéristiques à partir de
données expérimentales, avec des applications au débruitage, au fil-
trage, à la prédiction de données, et à l’analyse spectrale.
N O TAT I O N S
Vecteurs
x ∈ Cn vecteur
x [k ] ou xk k-ème coordonnée du vecteur
Représentations fréquentielles
(F x )( f ) ou X ( f ) transformée de Fourier
(F x )(ν) ou X (ν) transformée de Fourier à temps discret
X ∈ Cn transformée de Fourier discrète d’un vecteur x ∈ Cn
Variables aléatoires
Xk variable aléatoire à l’instant k
Produits scalaires et normes
Z
( x , y ) L2 produit scalaire dans L2 (R), égal à x y∗ dλ
R
1
Z
( x , y ) L2 produit scalaire dans L2 (0, T ), égal à x y∗ dλ
T [0,T ]
( x , y) produit scalaire dans `2 (Z), égal à ∑ x [k ] y∗ [k ]
k ∈Z
Z
p
k . kLp norme L p , avec k x k L p = | x (t)| p dt
R
= ∑ | x [k]| p
p
k . kp norme `p, avec kxk p
k
Distributions
h T , ϕi image d’une fonction test ϕ par la distribution T
Dirac vs. Kronecker
δa distribution de Dirac décentrée : hδa , ϕi = ϕ( a)
δ = δ0 distribution de Dirac centrée : hδ , ϕi = ϕ(0)
T peigne de dirac : T = ∑ δkT
k ∈Z
δ[k] fonction de Kronecker, δ[k ] = 1 si k = 0, 0 sinon
10 table des matières
Exponentielles complexes
e f (t) = exp(2iπ f t) exponentielle complexe de fréquence f
nt
en (t) = exp 2iπ exponentielle complexe utilisée pour les séries de Fourier
T
[notation simplifiée pour en/T ]
eν [k ] = exp(2iπνk ) exponentielle complexe discrète de fréquence ν
en ∈ C N Version discrétisée de la fonction exp(2iπnt) sur [0, 1[ :
n o
en = exp(2iπ nk N ) , k = 0, . . . , N − 1
1
B A S E S M AT H É M AT I Q U E S
Le but de ce chapitre est de poser les bases mathématiques de ce
cours : espaces fonctionnels, opérations de base sur les signaux, rap-
pels de probabilité, et de donner des liens avec les problématiques
abordées dans le cours de traitement du signal.
On appellera signal une fonction, une distribution, ou une suite
numérique, dépendant le plus souvent du temps (signal audio, té-
lécommunications), de l’espace (image, données géographiques), ou
des deux (vidéo).
1.1 espaces vectoriels de dimension finie
1.1.1 Définition
On appelle espace vectoriel sur un corps K (ici, R ou C) un en-
semble E muni d’une loi de composition interne + de E × E dans E,
et d’une loi de composition externe · de K × E dans E.
Ces lois sont telles que ( E, +) est un groupe, que · vérifie des pro-
priétés d’associativité et de distributivité par rapport à +, et que l’élé-
ment neutre de · soit l’élément neutre de la multiplication de K.
Les espaces vectoriels en dimension finie admettent une base, c’est-
à-dire une famille B de N vecteurs (ei )1≤i≤ N telle que tout vecteur
x de E s’écrive comme une combinaison linéaire des éléments de la
base de façon unique. On appelle coordonnées de x dans la base B
les xi tels que :
N
x= ∑ x i ei .
i =1
Toutes les bases d’un même espace vectoriel contiennent le même
nombre N de vecteurs. On appelle N la dimension de l’espace vecto-
riel.
application en traitement du signal : Les signaux en di-
mension finie seront membres d’un tel espace. Pour un signal sonore,
on peut penser à l’amplification ou à l’atténuation pour la multiplica-
tion par un scalaire, et au mixage de deux sons pour l’addition.
12 bases mathématiques
1.1.2 Applications linéaires
On appelle application linéaire une application L de E dans F telle
que pour tout u et v dans E, et λ dans K,
L (u + v) = L (u) + L (v)
L(λu) = λL(u).
La propriété de linéarité permet de simplifier cette description. En
se donnant une base B E de E, et B F de F, on montre que les coeffi-
cients de y = L(x) sont donnés par :
N
yn = ∑ anm xm , (1)
n =1
pour N la dimension de E, et amn des éléments de K, dépendant de
L et du choix des bases. On appelle A la matrice de l’application L
dans les bases B E et B F . C’est le tableau à deux entrées contenant les
éléments anm , et on définit le produit matriciel
y = Ax (2)
par l’équation (1). On peut donc représenter L par sa matrice A,
simple tableau de nombres (aisément manipulable par un calcula-
teur), et écrire le résultat de son application à un vecteur comme un
produit matriciel (2), très simple à implémenter.
Certaines applications de E dans E sont de plus diagonalisables.
Le résultat y = Ax de leur application à un vecteur x se résume à
multiplier les coefficients de x dans une base bien choisie (de vecteurs
propres, tels que L(un ) = λn un ) :
yn = λn xn .
Une telle description permet une interprétation et un calcul plus
simple de l’action de L sur des vecteurs de E.
application en traitement du signal : on s’intéressera en
traitement du signal à une classe particulière d’applications linéaires
(en dimension finie ou pas), qui en plus d’être linéaires, sont inva-
riantes par translation, et qu’on appellera filtres. De la même façon
qu’on décrit une application linéaire par une matrice, un filtre sera
décrit par sa réponse impulsionnelle. L’équivalent du produit matri-
ciel sera la convolution. La transformée de Fourier jouera le rôle de
la diagonalisation.
1.1.3 Norme, produit scalaire
On appelle norme N (·) sur E une application de E dans R+ , véri-
fiant les axiomes suivants :
1.2 espaces de banach 13
— séparabilité : N (x) = 0 ⇒ x = 0,
— homogénéité : N (λx) = |λ| N (x),
— inégalité triangulaire : N (x + y) ≤ N (x) + N (y).
Un espace vectoriel muni d’une norme est appelé espace vectoriel
normé.
Une norme permet de définir une topologie, et donc de parler de
convergence, par exemple d’une suite de vecteurs xn approximant un
vecteur x. On notera que pour des espaces de dimension finie sur les
corps R ou C, toutes les normes sont équivalentes et définissent donc
la même topologie : la notion de convergence ne dépend pas alors de
la norme choisie.
On rencontre souvent les normes suivantes :
N
— |xk1 = ∑ | x i |,
i=
v1
uN
— kxk2 = t ∑ | x i |2 ,
u
i =1
— kxk∞ = max | xi |
1≤ i ≤ N
Un espace de dimension finie muni d’un produit scalaire est dit
préhilbertien. Un produit scalaire (hermitien, si K = C) est une appli-
cation bilinéaire (sesquilinéaire) vérifiant les propriétés suivantes :
— symétrie : (x, y) = (y, x)∗ ,
— positivité : (x, x) ∈ R+ ,
— définie : (x, x) = 0 ⇔ x = 0. p
Un produit scalaire induit une norme kxk = (x, x). En particulier,
le produit scalaire (x, y) = ∑iN=1 xi yi∗ induit la norme k · k2 . L’égalité
de Cauchy-Schwarz nous indique que
|(x, y)| ≤ kxkkyk. (3)
On peut définir dans ces espaces des bases orthonormales, i.e., des
bases (ei )1≤i≤ N telles que (ei , e j ) = 1 si i = j, et 0 sinon. Dans ce cas,
les coefficients de décomposition de x sur la base (ei )1≤i≤ N
N
x= ∑ x i ei (4)
i =1
sont directement donnés par :
xi = (x, ei ). (5)
1.2 espaces de banach
Tout espace de dimension finie admet une base, on peut donc tou-
jours représenter un vecteur par ses coordonnées, et toutes les normes
définies sur un espace vectoriel donné sont équivalentes. De plus,
tout espace vectoriel de dimension finie sur R ou C est complet.
14 bases mathématiques
La situation est autrement plus complexe en dimension infinie. On
appelle espace de Banach un espace vectoriel normé et complet. Nous
focaliserons notre attention sur deux types d’espaces de Banach.
1.2.1 Espaces ` p
Pour p ≥ 1, l’espace ` p est l’espace des suites ( x [n])n∈Z telles que
∑n∈Z | x [n]| p < ∞. On s’intéressera en particulier :
— aux suites intégrables `1 , k x k1 = ∑ |x[n]|,
n ∈Z
— aux suites d’énergie finie `2 , k x k22 = ∑ | x [n]|2 ,
n ∈Z
— aux suites bornées `∞ , k x k∞ = sup | x [n]|.
n ∈Z
On note δ[n] la suite définie par
1 si n = 0,
δ[n] = (6)
0 sinon.
δ est appelée fonction de Kronecker ou impulsion de Kronecker.
Remarque. La notation δ sera aussi utilisée pour désigner la distribu-
tion de Dirac, qu’on peut interpréter comme la limite d’une suite de fonc-
tions définies sur R. Au contraire de la distribution de Dirac, la fonction
de Kronecker δ[k ] est une suite définie sur Z.
1.2.2 Espaces L p
De même, les espaces L p ( I ), pour 1 ≤ p ≤ ∞ et I un intervalle,
sont des espaces de Banach. On définit d’abord L p (RI ), l’ensemble
des fonctions mesurables x définies sur I telles que I | x | p dλ < ∞.
L’espace L p ( I ) est alors l’ensemble des classes d’équivalence de L p ( I )
par la relation "égal presque partout". On s’intéressera en particulier :
— aux fonctions intégrables L1 (R), k x k L1 = R |Rx | dλ,
R
— aux fonctions d’énergie finie L2 (R), k x k2L2 = R | x |2 dλ,
— aux fonctions essentiellement bornées L∞ (R), k x k L∞ = sup | x |.
On notera bien que ces espaces ne prennent pas en compte la régu-
larité des fonctions (i.e., les fonctions de L p n’ont aucune raison d’être
continues), et qu’ils n’ont pas de relation d’inclusion entre eux (sauf
si I est borné, auquel cas L p ( I ) ⊂ Lq ( I ) si p > q).
application en traitement du signal : les espaces ` p servi-
ront pour modéliser les signaux à temps discret, les espaces L p pour
les signaux à temps continu. En particulier, dans le cas p = 2 déve-
loppé dans la section suivante, on parle de signaux d’énergie finie, où
l’énergie est k · k22 .
1.3 espaces de hilbert 15
1.3 espaces de hilbert
Le cas particulier de L2 ( I ) mérite un peu plus d’attention. Dans le
cas où l’intervalle I n’est pas borné, on définit le produit scalaire dans
L2 ( I ) par : Z
( x, y) L2 = xy∗ dλ. (7)
R
Si I est borné, on choisit de normaliser le produit scalaire par la lon-
gueur de I 1 . Ainsi, le produit scalaire sur L2 ([0, T ]) est défini par :
1
Z
( x, y) L2 = xy∗ dλ. (8)
T [0,T ]
Le produit scalaire vérifie évidemment l’inégalité de Cauchy-Schwarz.
L2 ( I ) est alors un espace de Hilbert, i.e., un espace de Banach muni
d’un produit scalaire. De plus, L2 est séparable (il existe un sous-
ensemble dénombrable dense dans L2 ). Il existe donc une base hil-
bertienne (ei )i∈Z de L2 ( I ) : toute fonction x de L2 s’écrit comme la
somme d’une série
x = ∑ c i ei , (9)
i ∈Z
où la convergence se fait en norme L2 . De plus, la famille (ei )i∈Z est
orthonormale. Les coefficients ci sont donnés par
ci = ( x, ei ) L2 . (10)
Le théorème de représentation de Riesz est une propriété impor-
tante des espaces de Hilbert : une forme linéaire continue ` sur un
espace de Hilbert H peut toujours s’écrire
∀ x ∈ H, `( x ) = ( x, x` ) H
où x` ∈ H. On peut donc, par l’intermédiaire du produit scalaire,
confondre H et son dual.
On peut également définir les espaces de Sobolev H m , dont les
fonctions x sont telles que x et ses dérivées jusqu’à l’ordre m (au sens
des distributions) soient dans L2 . Ces espaces permettent de prendre
en compte la régularité des fonctions. Pour le cas particulier de H 1 ,
le produit scalaire est :
( x, y) H1 = ( x, y) L2 + ( x 0 , y0 ) L2 .
application en traitement du signal : la construction de
bases d’espaces de Hilbert tels que L2 (R) est très importante en trai-
tement du signal, puisqu’elle est liée à la décomposition des signaux
en temps continu. On peut citer par exemple les bases d’ondelettes
discrètes, les bases de cosinus locaux, et pour les signaux à bande
limitée, les bases de sinus cardinaux, qui permettront de les échan-
tillonner sans perte d’information.
1. pour des raisons qui deviendront plus claires au paragraphe 1.3.1.
16 bases mathématiques
1.3.1 Séries de Fourier
L’espace L2 ([0, T ]) des fonctions de carré intégrable définies sur
[0, T ] est un espace de Hilbert séparable. Une base orthonormale clas-
sique de L2 ([0, T ]) est la base de Fourier définie par :
nt
en (t) = exp i2π , n ∈ Z. (11)
T
Les coefficients cn de la décomposition
x= ∑ c n en (12)
n ∈Z
nt
x (t) = ∑ cn exp i2π (13)
n ∈Z
T
sont donnés par :
cn = ( x, en ) L2
1 nt
Z
= x (t) exp −i2π dt (14)
T [0,T ] T
application en traitement du signal : la série de Fourier
permet de décomposer un signal périodique de période T (signal de
parole, note de musique, etc.) en sommes d’harmoniques. L’apparte-
nance de la fonction à un espace de Sobolev H m garantit la décrois-
sance rapide des coefficients.
1.4 distributions
Comme vu plus haut, dans un espace de Hilbert H (par exemple
L2 ), il est possible d’identifier les vecteurs de H avec les formes li-
néaires continues sur H. C’est notamment le cas pour les espaces de
dimension finie. Par contre, pour L p en général, ce n’est plus le cas.
On peut montrer que pour p > 1, le dual de L p est isomorphe à Lq ,
avec 1/p + 1/q = 1. Pour les espaces L p définis sur un intervalle
borné (par exemple [0, 1]), on remarque que pour p > 2, le dual L p
n’est pas égal à L p , et est même strictement plus gros (en effet, c’est
Lq , avec q = p/( p − 1) < p). On peut donc faire grossir le dual en
limitant l’espace de départ.
Cette idée est poussée à l’extrême par les distributions, qui forment
l’espace D 0 (R) des formes linéaires continues sur l’espace D(R) des
fonctions C ∞ à support compact, appelées fonctions test. L’espace de
départ étant ici très restreint, son dual est gigantesque.
En effet, parmi les distributions, on trouve les distributions régu-
lières associées aux fonctions localement intégrables (et donc, toutes
les fonctions de L p pour 1 ≤ p ≤ ∞). Dans ce cas, l’image d’une fonc-
tion test ϕ par la distribution Tx associée à la fonction x est donné par
Z
h Tx , ϕi = xϕ dλ. (15)
R
1.4 distributions 17
Cependant, toutes les distributions ne sont pas associées à des fonc-
tions. En particulier, la distribution δ de Dirac
hδ, ϕi = ϕ(0) (16)
ne peut pas s’écrire comme l’intégrale de ϕ contre une fonction. Plus
généralement, on définit δa par
hδa , ϕi = ϕ( a). (17)
On a en particulier
δ0 = δ. (18)
Attention : ne pas confondre la distribution de Dirac δ avec la fonc-
tion de Kronecker δ[k ] définie en (6). Cette dernière est une suite
numérique.
On définit également le peigne de Dirac comme la somme de dis-
tributions de Dirac espacées de a :
a = ∑ δna . (19)
n ∈Z
Égalité et convergence au sens des distributions sont définies par :
T = S ⇔ ∀ ϕ ∈ D(R), h T, ϕi = hS, ϕi ,
Tn → T ⇔ ∀ ϕ ∈ D(R), h Tn , ϕi → h T, ϕi .
Toute distribution est dérivable, et sa dérivée est encore une distri-
bution, définie par
T 0 , ϕ = − T, ϕ0 , (20)
qui étend l’intégration par parties quand T est une fonction suffisam-
ment régulière. En particulier, la fonction de Heaviside x = 1R+ n’est
pas dérivable au sens classique, mais sa dérivée au sens des distribu-
tions est la distribution de Dirac δ (remarque : la valeur de 1R+ en
zéro n’a, du point de vue des distributions, aucune importance). Ce
résultat peut se généraliser de la façon suivante : avec I = [ a, b] un in-
tervalle de R et x une fonction dérivable, la dérivée de x1 I est donnée
par
( x1 I )0 = x 0 1 I + x ( a)δa − x (b)δb . (21)
Les discontinuités de la fonction font apparaître des distributions de
Dirac dans la dérivée, avec des amplitudes égales à celles des sauts.
Un changement de variable affine χ( x ) = ax + b est défini de la
façon suivante :
1 D E
h T ◦ χ, ϕi = T, ϕ ◦ χ−1 . (22)
| a|
Cette définition est consistante avec le fait que si T est la distribu-
tion régulière associée à une fonction localement intégrable f , (22)
18 bases mathématiques
-4 -3 -2 -1 0 1 2 3 4
Figure 1 – Fonction de Heaviside H = 1R+ , distribution de Dirac δ =
δ0 et peigne de Dirac a pour a = 1.
s’identifie avec le calcul de l’intégrale de ( f ◦ χ) ϕ avec la formule de
changement de variable.
Pour la distribution de Dirac et χ( x ) = ax − b, on a :
1
δ0 ◦ χ = δ . (23)
| a| b/a
application en traitement du signal : les distributions
sont utiles pour modéliser les systèmes linéaires invariants dans le
temps, définis plus tard dans le document, par des convolutions. En
particulier, l’élément neutre de la convolution est la distribution δ.
L’opérateur δa agit comme un retard sur un signal, avec un décalage
en temps égal à a. On utilisera parfois la notation δ(t − a) à la place
de δa , pour rendre ce retard plus explicite. On gardera bien à l’esprit
qu’une distribution n’est pas une fonction de t, et que cette notation
n’est rien d’autre qu’un abus commode. Notons que la distribution
de Dirac peut être vue comme la limite, au sens des distributions,
d’une suite d’impulsions d’intégrale 1 et de supports de plus en plus
concentrés autour de zéro.
1.4 distributions 19
Le peigne de Dirac sera important pour l’étude de l’opération d’échan-
tillonnage (passage d’un signal en temps continu à un signal en temps
discret).
1.4.1 Distributions tempérées
On définit l’espace de Schwartz S comme l’ensemble des fonctions
ϕ C ∞ sur R telles que
∀α, β ∈ N, sup tα ϕ( β) (t) < ∞, (24)
t ∈R
c’est-à-dire qu’elles, et leur dérivées, décroissent plus vite que n’im-
porte quelle puissance négative de |t|.
Les membres de son dual S 0 sont appelées distributions tempérées.
Les fonctions test étant dans l’espace de Schwartz (D ⊂ S ), les distri-
butions tempérées sont également des distributions (S 0 ⊂ D 0 ).
Quelques exemples de distributions tempérées :
— fonctions localement intégrable à croissance au plus polyno-
miale
— distribution de Dirac
— peigne de Dirac
1.4.2 Distributions à support compact
Avant de définir les distributions à support compact, on rappelle
que le support d’une fonction, noté supp( ϕ), est défini comme l’adhé-
rence de l’ensemble des valeurs x pour lesquelles ϕ( x ) 6= 0.
Définition 1.1. Une distribution T ∈ D 0 (R) est dite nulle sur un
ouvert O de R si pour tout ϕ ∈ D(R) telle que supp( ϕ) ⊂ O ,
h T, ϕi = 0.
Par exemple, on peut facilement vérifier que δ est nulle sur R∗ et
que pour x ∈ L1 (R), Tx est nulle sur O équivaut à x|O = 0 presque
partout.
On étend à présent le concept de support aux distributions.
Définition 1.2 (Support d’une distribution). Le support d’une
distribution T ∈ D 0 (R) est le complémentaire du plus grand ouvert
sur lequel T est nulle.
Exemple 1.1.
— Si ai ∈ R et αi ∈ C, supp(∑ik=1 αi δai ) = { a1 , . . . , ak }.
— Si x ∈ L1 (R), supp( Tx ) = supp( x ).
20 bases mathématiques
Définition 1.3 (Distributions à support compact). On note
E 0 (R) le sous-espace vectoriel de D 0 (R) formé des distributions à
support compact.
(k)
E 0 (R) contient les distributions de Dirac δa , leurs dérivées δa quel-
quesoit k ∈ N, et l’ensemble des fonctions x ∈ L1 (R) à support
compact (vues comme des distributions régulières). E 0 (R) contient
en particulier l’espace des fonctions tests : D(R) ⊂ E 0 (R).
On a de plus l’emboîtement suivant :
E 0 (R) ⊂ S 0 (R) ⊂ D 0 (R). (25)
application en traitement du signal : Les distributions
tempérées forment le cadre le plus général pour la transformée de
Fourier. Elle permettent notamment de calculer la transformée de
Fourier d’une distribution de Dirac ou d’un peigne de Dirac, mais
aussi d’une exponentielle complexe eν (t) = exp(i2πνt), qui ne sont
ni dans L1 , ni dans L2 .
1.5 variables et processus aléatoires
Étant donné un espace Ω muni d’une tribu F et d’une mesure
P telle que P(Ω) = 1 (on parle d’espace probabilisé), une variable
aléatoire X est une application mesurable de (Ω, F ) dans (R, B). Une
variable aléatoire complexe Xc peut se décomposer comme la somme
Xc = Xr + iXi où Xr et Xi sont des variables aléatoires réelles.
La loi de la variable aléatoire X est la mesure PX sur R telle que
PX ( A) = P( X −1 ( A)). L’espérance de X est définie par :
Z
E( X ) = X (ω )dP(ω )
ZΩ
= x dPX ( x ), (26)
R
et sa variance Var( X ) par :
Z
Var ( X ) = | X (ω ) − E( X )|2 dP(ω )
Ω
Z
= | x − E( X )|2 dPX ( x ). (27)
R
On peut également caractériser une variable aléatoire par sa fonc-
tion de répartition :
FX ( x ) = P( X ≤ x ) (28)
et sa fonction caractéristique
ϕ X (t) = E(exp(itX )). (29)
Si la loi PX ( x ) est absolument continue par rapport à la mesure de
Lebesgue (i.e., dPX = f X dλ), on parle de loi à densité. Un cas très
1.5 variables et processus aléatoires 21
important de loi à densité est la loi normale N (µ, σ2 ), de moyenne µ
et de variance σ2 , définie par :
( x − µ )2
1
f X (x) = √ exp − . (30)
2πσ2 2σ2
Les vecteurs aléatoires sont des variables aléatoires de Ω dans R N .
Leur loi de probabilité est une mesure sur R N .
Pour un couple de variables aléatoires ( X, Y ), on définit la cova-
riance par :
Cov( X, Y ) = E ( X − E( X )) (Y − E(Y ))∗
(31)
Z
= ( x − E( X ))(y − E(Y ))∗ dPXY ( x, y)
R2
en notant X∗ la conjuguée hermitienne de X (i.e., la matrice transposée
conjuguée).
La moyenne d’un vecteur aléatoire X est µX = E(X) et la matrice
de covariance est :
ΣX = E((X − µX )(X − µX )∗ ), (32)
dont les coefficients valent ΣX,nm = Cov( Xn , Xm ).
La matrice de covariance d’un vecteur aléatoire est toujours her-
mitienne semi-définie positive. En effet, quelque soit le vecteur a =
( a j )1≤ j≤ N , a∗ Σ X a = Var (( a, X )) ≥ 0.
Un vecteur aléatoire gaussien est, par définition, tel que toute com-
binaison linéaire de ses composantes suit une loi normale. Un vecteur
aléatoire gaussien réel X est entièrement défini par sa moyenne µ et
sa matrice de covariance Σ. Sa fonction caractéristique est :
1 t
ϕX (t) = exp iµX t − t Σt .
t
(33)
2
Si de plus Σ est inversible, ce vecteur aléatoire admet une densité
donnée par :
1 1 t −1
f X (x) = exp − (x − µX ) Σ (x − µX ) . (34)
(2π ) N/2 |Σ|1/2 2
La figure 2 donne un exemple de vecteur gaussien. Il est à noter qu’il
n’est pas suffisant que les lois marginales des composantes du vecteur
soient normales pour que le vecteur soit gaussien, comme le montre
l’exemple de la figure 3.
Un processus aléatoire à temps discret ( Xn (ω )) est une suite de va-
riables aléatoires pour n ∈ Z. Ce concept généralise celui de vec-
teurs aléatoire. Un processus est dit gaussien si tout vecteur extrait
du processus est gaussien. Des réalisations du processus ( Xn (ω )),
i.e., des valeurs du processus obtenues pour des ω donnés, sont aussi
appelées trajectoires. La figure 4 montre des réalisations d’un proces-
sus aléatoire simple, où les Xk prennent comme valeur -1 et 1, et où
Xk+1 = Xk avec probabilité 9/10, Xk+1 = − Xk avec probabilité 1/10.
22 bases mathématiques
Figure 2 – Réalisations d’un vecteur gaussien ( X, Y ), de moyenne
1 1
µ = (1, 2), de matrice de covariance Σ = . Les
1 2
lois de toute combinaison linéaire X et Y sont normales.
Figure 3 – Réalisations d’un vecteur aléatoire ( X, Y ), où Y =
X1|X |<1 − X1|X |≥1 , et X est une variable normale de loi
N (0, 1). Les lois marginales de X et Y sont normales, mais
X − Y ne suis pas une loi normale. ( X, Y ) n’est pas donc
un vecteur gaussien.
1.5 variables et processus aléatoires 23
Figure 4 – Six trajectoires d’un processus aléatoire à valeurs −1 ou 1.
application en traitement du signal : de nombreux si-
gnaux peuvent être modélisés par des processus aléatoires, au sens où
il est utile de les considérer comme des réalisations d’un processus
aléatoire. Ce type de modélisation est, par exemple, très utile pour
des signaux de parole non voisée (chuchotement, consonnes telles
que /ch/, /s/, /f/), pour lesquels il est plus informatif de donner
les caractéristiques du processus aléatoire les ayant produits, plutôt
que les valeurs de leurs trajectoires spécifiques, compte tenu de la
variabilité entre les trajectoires. En traitement du signal, on manipu-
lera l’autocorrélation d’un signal (entre deux instants n et m), égale à
E( Xn Xm∗ ), qui coïncide avec l’élément Σ
X,nm lorsque X est centré.
1.5.1 Brefs rappels de statistiques
Le but de la statistique est d’estimer des caractéristiques d’une va-
riable aléatoire (moyenne, variance, paramètres d’une famille de lois
de probabilité, etc.) à partir de réalisations de cette variable aléatoire.
Par exemple, à partir d’un nombre fini de lancés de dé, on cherche à
estimer la probabilité de chaque face du dé.
Voici un exemple simple d’estimation. La moyenne empirique µ̂ N
est un estimateur de la moyenne µ d’une variable aléatoire X. Avec
des données Xn (mutuellement) indépendantes et identiquement dis-
tribuées (i.i.d) pour 1 ≤ n ≤ N,
N
1
µ̂ N =
N ∑ Xn . (35)
n =1
24 bases mathématiques
Cet estimateur est également une variable aléatoire. On peut calculer
son espérance et sa variance :
E(µ̂ N ) = E( X ) (36)
N
1
Var(µ̂ N ) =
N2 ∑ Var(Xn ) (37)
n =1
1
= Var( X ). (38)
N
Cet estimateur est non biaisé (son espérance est l’espérance de X,
quantité à estimer), et consistant (sa variance tend vers 0 quand le
nombre de données tend vers l’infini).
application en traitement du signal : comme vu plus
haut, il est fréquent de considérer un signal comme la réalisation
d’un processus aléatoire. Avec quelques hypothèses supplémentaires
(stationnarité, ergodicité), nous verrons qu’il est possible d’estimer
les paramètres d’un processus aléatoire avec une unique réalisation.
Par exemple, on peut estimer les paramètres d’un modèle de produc-
tion de parole à partir d’un enregistrement unique. Le problème de
l’estimation de la fréquence d’une sinusoïde dans du bruit fera égale-
ment appel à ce formalisme.
2
S Y S T È M E S L I N É A I R E S I N VA R I A N T S
Ce chapitre étudie les filtres linéaires et invariants, qui sont des
outils fondamentaux en traitement du signal. Après quelques défi-
nitions élémentaires pour décrire les signaux à temps continu et à
temps discret, on introduit le produit de convolution de deux signaux
et liste ses principales propriétés mathématiques. On étudie les pro-
priétés des filtres linéaires convolutifs, et montre finalement que les
signaux exponentiels complexes sont fonctions propres d’un filtre li-
néaire. A ce titre, ils caractérisent le filtre dans le domaine fréquentiel.
2.1 notion de signal
2.1.1 Définitions
On désigne par signal déterministe, ou plus simplement signal, une
fonction d’une ou plusieurs variables de temps ou d’espace, à va-
leurs dans R ou C en général. On distingue deux grandes classes de
signaux, à temps continu et à temps discret.
Un signal (à temps) continu, appelé signal analogique, est une fonc-
tion d’une variable continue t ∈ R. On la notera
x: R → C
t 7 → x ( t ).
La variable t peut représenter le temps, mais aussi l’espace (t = ( x, y)
dans le cas d’une image), la longueur d’onde, etc.
Un signal (à temps) discret est une suite numérique
x = { x [ k ], k ∈ Z}.
Très souvent, un signal discret est obtenu en échantillonnant les valeurs
d’un signal à temps continu à différents instants tk , k ∈ Z. On a ainsi :
x [ k ] = x c ( t k ), ∀ k ∈ Z
en notant xc le signal continu associé au signal discret x. Pour cette
raison, les signaux discrets sont aussi appelés signaux échantillonnés.
Notons qu’un signal numérique est un signal discret et quantifié,
i.e., ne pouvant prendre qu’un nombre fini de valeurs. La quantifi-
cation est l’opération q = Q( x ) qui transforme un signal à valeurs
26 systèmes linéaires invariants
continues (x [k] ∈ R) en un signal à valeurs discrètes. Par exemple, si
q est à valeurs dans N, q[k ] est l’entier le plus proche de x [k ].
Les signaux déterministes seront vus comme des objets mathéma-
tiques qui vivent dans des espaces fonctionnels comme L p (R) (temps
continu) ou ` p (Z) (temps discret). Par opposition aux signaux dé-
terministes, on définit les signaux stochastiques comme des processus
aléatoires. Ces représentations seront étudiées aux chapitres 5 et 6.
2.1.2 Représentations énergétiques
Soit x un signal déterministe à temps continu. On définit, quand
elles existent, les grandeurs suivantes :
1
Z
— La puissance moyenne Px = lim | x (t)|2 dt
T →∞ 2T [− T,T ]
Z
— L’énergie Ex = | x (t)|2 dt = k x k2L2 .
R
Un signal d’énergie finie vérifie donc x ∈ L2 (R), et Px = 0. Des
définitions analogues s’appliquent dans le cas discret, avec Ex = k x k22 .
On définit l’intercorrélation entre deux signaux d’énergie finie par :
Z
∀τ ∈ R, γxy (τ ) = x (t) y∗ (t − τ ) dt (cas continu) (39)
R
∀n ∈ Z, γxy [n] = ∑ x [k] y∗ [k − n] (cas discret) (40)
k
L’intercorrélation est égale au produit scalaire entre x et la version
retardée de y :
γxy (τ ) = ( x , y( · − τ )) (cas continu)
γxy [n] = ( x , y[ · − n]) (cas discret)
On définit le Rapport Signal-Sur-Bruit (RSB, ou SNR pour Signal-to-
Noise Ratio) pour quantifier le niveau de perturbation d’un signal lors
de sa transmission dans un réseau de communication. En notant u le
signal utile (i.e., non bruité) et x = u + b le signal bruité (en supposant
le bruit b additif), le SNR est respectivement défini par :
Pu Eu
SNR = ou SNR = (41)
Pb Eb
pour des signaux de puissance et d’énergie finie. Le SNR est le plus
souvent exprimé en dB :
SNRdB = 10 log10 (SNR). (42)
2.2 convolution
La convolution est une opération fondamentale en traitement du
signal. Nous la définissons successivement dans les espaces L p , pour
les signaux discrets (espaces ` p ), et pour des distributions.
2.2 convolution 27
2.2.1 Cas continu : convolutions de fonctions
Définition 2.1 (Convolution de deux fonctions). Soient deux
fonctions x : R → C et y : R → C. Le produit de convolution
de x et y, noté x ∗ y, est la fonction, si elle est définie, définie par :
Z
∀t ∈ R, ( x ∗ y)(t) = x (θ )y(t − θ )dθ (43)
ZR
= x (t − θ )y(θ )dθ. (44)
R
( x ∗ y)(t) est parfois noté x ∗ y(t). On privilégiera l’écriture ( x ∗
y)(t) pour bien marquer que ( x ∗ y)(t) dépend de toutes les valeurs
de y(θ ).
La convolution n’est pas toujours définie. Par exemple, ∀t, (1R ∗
1R )(t) = ∞. Par ailleurs, la convolution a un pouvoir régularisant (cf.
cours de CIP). Par exemple, pour les fonctions discontinues x = y =
1[− T , T ] , où T > 0, x ∗ y est la fonction "triangle" (continue) de largeur
2 2
2T et d’amplitude T :
( x ∗ y)(t) = ( T − |t|) 1[−T,T ] (t). (45)
La convolution est définie partout (éventuellement presque par-
tout) en fonction de l’espace dans lequel vivent les signaux x et y.
Théorème 2.1. La convolution de deux fonctions de L p et Lq est
définie dans les cas suivants :
x y x∗y définie
L1 L1 L1 presque partout
L1 L2 L2 presque partout
L1 L∞ L∞ partout
L2 L2 L∞ partout
La norme de x ∗ y est bornée par le produit des normes de x et y.
Les démonstrations, élémentaires, sont laissées en exercice.
Pour aller plus loin...
Le théorème 2.1 est généralisé par l’inégalité de Young. Avec p, q, r ∈ [1, ∞]
et
1 1 1
+ = 1+ ,
p q r
la convolution de x ∈ L p et de y ∈ Lq est dans Lr , avec la borne
k x ∗ y kr ≤ k x k p k y k q .
28 systèmes linéaires invariants
Remarque. L’expression (43) est proche de la définition de l’intercorré-
lation (39). Pour x et y ∈ L2 (R), γxy (τ ) est égal au produit scalaire
entre x et le signal retardé y( · − τ ). En notant ȳ(t) = y∗ (−t), on a
γxy = x ∗ ȳ. (46)
2.2.2 Cas discret
Définition 2.2 (Convolution dans le cas discret). Soient x =
{ x [k], k ∈ Z} et y = {y[k], k ∈ Z}. Le produit de convolution de x
et y est la suite x ∗ y , si elle est définie, définie par :
∀n ∈ Z, ( x ∗ y)[n] = ∑ x [k] y[n − k] (47)
k ∈Z
= ∑ x [ n − k ] y [ k ]. (48)
k ∈Z
( x ∗ y)[n] est parfois noté x ∗ y[n]. On privilégie l’écriture ( x ∗ y)[n].
Les conditions d’existence sont similaires au cas continu. On peut
donc écrire la convolution de deux signaux `1 (Z), de deux signaux
dans `2 (Z), d’un signal `1 (Z) avec un signal `∞ (Z), etc.
2.2.3 Signaux modélisés par des distributions
Il est nécessaire d’étendre la convolution aux distributions pour
pouvoir définir certains filtres comme les filtres à retard (55) y =
δτ ∗ x. Le lecteur est redirigé vers le chapitre 1 pour une définition
des espaces de distributions sur lesquels nous travaillons.
Convolution d’une fonction C ∞ et d’une distribution
On définit d’abord la convolution d’une fonction C ∞ (R) avec une
distribution comme extension directe de la définition (44).
Définition 2.3. Soit x ∈ C ∞ (R) et Y ∈ D 0 (R). On suppose que
l’une des hypothèses suivantes est satisfaite :
1. x ∈ D(R) et Y ∈ D 0 (R) ;
2. x ∈ S(R) et Y ∈ S 0 (R) ;
3. x ∈ C ∞ (R) et Y ∈ E 0 (R).
On définit la fonction x ∗ Y par
∀t ∈ R, ( x ∗ Y )(t) = hY , x (t − · )i (49)
où x (t − · ) désigne la fonction θ 7→ x (t − θ ).
2.2 convolution 29
Théorème 2.2. Sous les hypothèses précédentes, x ∗ Y ∈ C ∞ (R).
De plus, pour tout k ∈ N, ( x ∗ Y )(k) = x (k) ∗ Y = x ∗ Y (k) .
Exemple 2.1. Pour Y = δa et x ∈ C ∞ (R), (49) implique :
∀t ∈ R, ( x ∗ δa )(t) = x (t − a). (50)
Pour aller plus loin...
Définition 2.4 (Convolution de distributions). Soient X ∈ E 0 (R) et
Y ∈ D 0 (R). La convolution X ∗ Y est la distribution définie par :
∀φ ∈ D(R), h X ∗ Y , φi = h X , θ 7→ hY, φ( · + θ )ii (51)
= hY , θ 7→ h X, φ( · + θ )ii (52)
Cette définition possède un lien direct avec la définition (43)-(44) de la convo-
lution de deux fonctions x et y. Soient x ∈ L1 (R) et y ∈ L1 (R). D’après le
théorème 2.1, x ∗ y ∈ L1 (R). La distribution régulière associée s’écrit :
Z
∀φ ∈ D(R), Tx∗y , φ = ( x ∗ y)(t)φ(t)dt
R
Z Z
= x (θ ) y(t − θ )dθ φ(t)dt
R R
Z Z
= y(t − θ ) φ(t) dt x (θ )dθ
R R
Z Z
= y(u) φ(u + θ ) du x (θ )dθ
R R
Z
= x (θ ) Ty , φ( · + θ ) dθ (53)
R
en utilisant le théorème de Fubini pour intervertir les deux intégrales. (53)
s’identifie clairement avec (51). De façon similaire, on peut établir un lien
direct entre (52) et (44).
Remarque. Le produit de convolution de deux distributions n’est donc pas
toujours défini. En raison de l’emboîtement E 0 ⊂ S 0 ⊂ D 0 , la définition (avec
X ∈ E 0 , Y ∈ D 0 ) couvre les cas suivants :
— X ∈ D, Y ∈ D0 ;
— X et Y ∈ E 0 . On a alors X ∗ Y ∈ E 0 ;
— X ∈ E 0 et Y ∈ S 0 . On a alors X ∗ Y ∈ S 0 ;
Exemple 2.2.
— Pour X = δa ∈ E 0 (R), on a pour Y ∈ D 0 (R),
∀φ ∈ D(R), hδa ∗ Y , φi = hY, φ( · + a)i .
Pour a = 0, on en déduit que δ ∗ Y = Y.
— Dans le cas particulier où Y = y ∈ C 0 (R), on a :
Z Z
hδa ∗ y , φi = y(t) φ(t + a) dt = y(t − a) φ(t) dt
R R
On a donc (au sens des distributions) (δa ∗ y)(t) = y(t − a), qui géné-
ralise (50) à la convolution de δa et d’une fonction continue.
30 systèmes linéaires invariants
2.2.4 Propriétés du produit de convolution
Les propriétés sont énoncées quelque soit la nature des signaux x,
y et z sous réserve que les quantités manipulées sont bien définies.
— Commutativité : x ∗ y = y ∗ x
— Associativité : x ∗ (y ∗ z) = ( x ∗ y) ∗ z
— Distributivité : x ∗ (y + z) = ( x ∗ y) + ( x ∗ z)
— Élément neutre (cas continu) : distribution de Dirac δ0 = δ :
δ ∗ y = y.
— Élément neutre (cas discret) : fonction de Kronecker δ[k ] :
δ ∗ y = y.
— Translation : x (t − τ ) = ( x ∗ δτ )(t)
— Dérivation (éventuellement au sens des distributions) : dtd ( x ∗
dy
y) = dx
dt ∗ y = x ∗ dt
— Support (éventuellement au sens des distributions) : supp( x ∗
y) ⊂ supp( x ) + supp(y) = {t1 + t2 : t1 ∈ supp( x ), t2 ∈ supp(y)}.
— Intercorrélation : γxy = x ∗ ȳ avec ȳ(t) = y∗ (−t).
2.3 notion de système
2.3.1 Définition
Un système est une application y = S( x ) de l’espace des signaux
d’entrée x vers celui des signaux de sortie y. Les espaces considérés
sont typiquement les espaces L p pour des signaux continus et ` p pour
des signaux discrets. Un système est représenté par le schéma "boîte
noire" de la figure 5.
Entrée x Système S Sortie y
Figure 5 – Représentation d’un système.
Un système modélise des transformations subies par un signal,
comme l’altération d’un signal physique (signal audio, onde électro-
magnétique) lors de sa transmission, ou l’amélioration de son contenu
après traitement (débruitage d’un enregistrement sonore, déconvolu-
tion pour retirer le flou dans une image). On ne considérera que les
systèmes mono entrée - mono sortie.
2.3 notion de système 31
2.3.2 Propriétés des systèmes
Définition 2.5 (Homogénéité). Un système est dit homogène en
entrée/sortie, si l’entrée et la sortie sont des signaux de même nature
(continue ou discrète).
Définition 2.6 (Linéarité). Un système S est linéaire si pour toute
combinaison linéaire x = a1 x1 + a2 x2 (avec a1 , a2 ∈ R), on a
S ( x ) = a1 S ( x1 ) + a2 S ( x2 ).
Ainsi, le signal de sortie S( x ) s’exprime comme la superposition
des signaux S( x1 ) et S( x2 ) avec les mêmes poids a1 et a2 que dans la
décomposition x = a1 x1 + a2 x2 .
Remarque. Les systèmes physiques sont très rarement linéaires. Un mo-
dèle S est une équation qui représente le comportement attendu d’un phé-
nomène conformément aux lois de la physique. On procède souvent à une
linéarisation autour d’un point dit de fonctionnement (ou point d’équi-
libre) du système pour aboutir à un modèle linéaire.
Les définitions qui suivent sont données dans le cas de signaux à
temps continu. Des définitions identiques s’appliquent aux signaux à
temps discret. On rappelle que (δτ ∗ x )(t) = x (t − τ ) est un décalage
dans le temps du signal x (t), aussi appelé translation. Pour τ > 0, le
signal δτ ∗ x est une version retardée de x (t).
Définition 2.7 (Invariance par translation). Un système S est dit
invariant par translation si pour toute entrée x et pour tout τ ∈ R,
S(δτ ∗ x ) = (S( x )) ∗ δτ . (54)
Autrement dit, la sortie du filtre associée au signal retardé coïncide
avec la version retardée du signal de sortie S( x ), avec le même retard.
Définition 2.8 (Filtre linéaire homogène). Un filtre linéaire est
un système qui vérifie les deux propriétés de linéarité et d’invariance
par translation.
La convolution y = h ∗ x est un cas important de filtrage linéaire,
où h (appelé réponse impulsionnelle) caractérise le filtre. On peut vé-
rifier à partir des propriétés du produit de convolution (section 2.2.4),
que ce système est linéaire (trivial) et invariant par translation, car la
sortie associée à un signal retardé s’écrit :
h ∗ (δτ ∗ x ) = (h ∗ x ) ∗ δτ .
Deux exemples remarquables s’obtiennent dans les cas où h = δτ
(système à retard) et h = 1R+ (intégrateur).
32 systèmes linéaires invariants
Exemple 2.3.
— Retard : y = δτ ∗ x ou y = δ[ · − n] ∗ x :
y ( t ) = x ( t − τ ), ou y [ k ] = x [ k − n ]. (55)
— Intégrateur : y = 1R+ ∗ x ou y = 1N ∗ x :
Z t k
y(t) =
−∞
x (τ )dτ, ou y[k] = ∑ x [n] (56)
n=−∞
Définition 2.9 (Système causal). Un système est causal si sa ré-
ponse à un instant donné ne dépend que des valeurs de l’entrée aux
instants précédents (éventuellement de la valeur à l’instant présent).
Exemple 2.4. L’intégrateur défini en (56) est un système causal. En
revanche, le calcul de la moyenne dans un intervalle centré
Z t+ T
1
y(t) = x (θ )dθ (57)
2T t− T
n’est pas causal, car il faut connaître la valeur de l’entrée x (θ ) pour θ > t
pour calculer y(t).
Si la causalité semble naturelle pour des systèmes physiques (l’effet
ne précède pas à la cause), il faut envisager l’existence de systèmes
non causaux dans le cas de traitement en temps différé (offline). Par
exemple, lorsque la totalité d’un signal a été enregistré ou stocké dans
une mémoire tampon, on peut effectuer a posteriori des calculs de
moyenne comme (57) sur une fenêtre centrée autour d’un instant t.
La stabilité d’un système peut être caractérisée de diverses ma-
nières. Nous retenons la définition au sens Entrée Bornée, Sortie Bor-
née (EBSB).
Définition 2.10 (Stabilité Entrée Bornée, Sortie Bornée). Le sys-
tème S est stable si pour toute entrée x ∈ L∞ (R), S( x ) ∈ L∞ (R).
2.4 filtres linéaires convolutifs
Comme nous l’avons vu, un filtre linéaire est un système linéaire et
invariant (SLI), que nous supposons homogène en entrée/sortie. On
s’intéresse aux filtres définis par une convolution.
2.4 filtres linéaires convolutifs 33
2.4.1 Définition
Définition 2.11 (Réponse impulsionnelle). Soit S un filtre li-
néaire dont la relation entrée-sortie est associée à une convolution :
y = S( x ) = h ∗ x (58)
(sous réserve que h ∗ x soit bien défini). Le signal h est appelé réponse
impulsionnelle du filtre. C’est possiblement une distribution.
Comme la distribution de Dirac δ = δ0 (contexte continu) ou la
fonction de Kronecker δ[k ] (contexte discret) est l’élément neutre de
la convolution, on a
h = S ( δ ), (59)
D’où le nom de réponse impulsionnelle : h est la réponse du filtre à
une impulsion (de Dirac ou de Kronecker suivant le contexte).
Interprétations du calcul de la convolution
Prenons l’exemple d’un système discret et d’une entrée impulsion-
nelle (x [k ] = δ[k ]). La sortie y[k ] = h[k ] s’identifie avec la réponse
impulsionnelle, comme le montre la figure 6.
u[k ] = d[k ]
y[k ] = h[k ]
1 y[k ]
u[k ] 1
S.L.I.
k
K -1 0 1 2 3 4 K k
K -1 0 1 2 3 4 K
Figure 6 – Réponse impulsionnelle d’un SLI
Considérons maintenant une entrée quelconque x [k]. En connais-
sant la réponse impulsionnelle, la sortie
y[k ] = (h ∗ x )[k ] = ∑ x [n] h[k − n]
n ∈Z
s’obtient comme combinaison linéaire des versions retardées de h (les
signaux k 7→ h[k − n]) pondérées par les amplitudes des impulsions
x [n]. Comme le produit de convolution est commutatif, on a aussi
y[k] = ∑ h[n] x [k − n]
n ∈Z
h[n] peut-être interprétée comme une séquence de pondération : le
terme h[n] pondère la valeur de l’entrée passée de n instants (c’est-à-
dire x [k − n]) pour contribuer au calcul de y à l’instant k.
34 systèmes linéaires invariants
Stabilité
La stabilité EBSB du filtre est garantie si
h ∈ L1 (R) (cas continu)
h ∈ ` (Z)
1
(cas discret)
En effet, d’après le théorème 2.1, ces conditions impliquent que si x
est borné (x ∈ L∞ (R), respectivement `∞ (Z)), alors h ∗ x est borné.
Causalité
En écrivant la définition de la convolution (ici dans le cas continu) :
Z
y(t) = (h ∗ x )(t) = h(θ ) x (t − θ )dθ
R
il apparaît que le filtre est causal si et seulement si h(t) = 0 pour
t < 0 (respectivement h[k ] = 0 pour k < 0), c’est-à-dire
supp(h) ⊂ R+ (cas continu)
supp(h) ⊂ N (cas discret)
La relation entrée-sortie s’écrit alors
Z Z
y(t) = h(θ ) x (t − θ ) dθ = h(t − θ ) x (θ ) dθ.
R+ ]−∞,t]
et prend la forme
Z Z
y(t) = h(θ ) x (t − θ ) dθ = h(t − θ ) x (θ ) dθ.
[0,t] [0,t]
si x (t) = 0 pour t < 0. Des expressions similaires s’obtiennent dans
le cas discret.
Remarque. Pour un système discret stable, h[n] tend vers 0 quand |n|
tend vers l’infini : une valeur de l’entrée passée très éloignée de l’instant
k contribue peu à la valeur de la sortie à cet instant.
2.4.2 Filtres à réponse impulsionnelle finie (FIR)
Définition 2.12. On appelle filtre FIR (Finite Impulse Response,
ou filtre RIF en français) un filtre dont le support de la réponse im-
pulsionnelle est borné (de durée finie).
Exemple 2.5 (Filtre dérivateur). Ce filtre réalise la différence entre deux
points consécutifs, d’où son nom de dérivateur. La sortie y du filtre est :
y [ k ] = x [ k ] − x [ k − 1] (60)
2.4 filtres linéaires convolutifs 35
En identifiant cette équation avec
y[k] = ∑ h[n] x [k − n]
k ∈Z
on obtient la réponse impulsionnelle :
1 si n = 0,
h[n] = −1 si n = 1,
0 sinon.
Le support de h est {0, 1}. Il est borné, donc h est un filtre RIF.
h[k ]
1
k
K -1 0 2 3 4 K
-1
Figure 7 – Réponse impulsionnelle d’un filtre dérivateur.
Exemple 2.6 (Filtre à moyenne glissante). Ce filtre calcule la valeurs
du signal sur une fenêtre de 2K + 1 points centrée sur le point courant :
K
1
y[k] = ∑ x [k − n]
2K + 1 n=−
(61)
K
Le filtre n’est pas causal car y[k ] dépend d’entrées postérieures à l’instant
k. En identifiant (61) avec (h ∗ x )[k ], il vient :
1 si |n| ≤ K,
h[n] =
0 sinon.
Le support de h est {−K, . . . , K }. Il est borné, donc h est un filtre RIF.
h[k ]
1
2K + 1
k
-K -1 0 1 2 K K
Figure 8 – Réponse impulsionnelle d’un filtre moyenneur.
36 systèmes linéaires invariants
2.4.3 Filtre à réponse impulsionnelle infinie (IIR)
Définition 2.13. On appelle filtre IIR (Infinite Impulse Response,
ou filtre RII en français) un filtre dont la réponse impulsionnelle est
à support infini.
h[k ]
K
k
K -1 0 1 2
Figure 9 – Réponse impulsionnelle d’un filtre IIR causal.
Exemple 2.7. Lissage exponentiel causal
La figure 9 montre la réponse impulsionnelle d’un filtre pour lequel
h[n] = αn avec 0 < α < 1. La relation entrée-sortie s’écrit :
∞
y[k] = ∑ α n x [ k − n ]. (62)
n =0
2.4.4 Équations aux différences
La relation entrée/sortie d’un filtre peut-être décrite par une convo-
lution, mais aussi par une équation récursive entre les sorties à diffé-
rents instants. Prenons une équation aux dérivées ordinaires du type :
y ( t ) − α 1 y 0 ( t ) − . . . − α p y ( p ) ( t ) = β 0 x ( t ) + . . . + β m x ( m ) ( t ), t ∈ R+
(avec p conditions initiales à t = 0). Sa discrétisation par la méthode
de différences finies conduit à une équation du type :
p m
y[k] = ∑ ai y [ k − i ] + ∑ b j x [k − j] (63)
i =1 j =0
où les paramètres ai et b j sont indépendants de k. Cette équation est
appelée équation aux différences finies d’ordre p.
Comme la réponse impulsionnelle h coïncide avec la sortie du filtre
pour l’entrée x [k ] = δ[k ], il vient
p
∀k > m, h[k] = ∑ ai h [ k − i ] (64)
i =1
p
∀k ∈ {0, . . . , m}, h[k] = ∑ a i h [ k − i ] + bk . (65)
i =1
2.5 fonctions propres 37
En supposant le système causal, ces équations permettent de déduire
h en résolvant un système linéaire.
2.5 fonctions propres
En dimension finie, les valeurs et vecteurs propres d’une appli-
cation linéaire, donnent des informations capitales sur son action
sur un vecteur. Le théorème suivant montre que tous les systèmes
linéaires invariants stables admettent les signaux exponentiels com-
plexes comme fonctions propres, i.e., telles que la sortie du filtre pour
ces fonctions soit proportionnelle à l’entrée.
Théorème 2.3. Les exponentielles complexes définies par
e f (t) = exp(i2π f t)
sont fonctions propres des systèmes linéaires invariants stables.
Si le système admet une réponse impulsionnelle h ∈ L1 , les valeurs
propres correspondantes sont données par la transformée de Fourier
de h, appelée réponse fréquentielle :
Z
H( f ) = h(t) exp(−i2π f t)dt (66)
R
Théorème 2.4. Les exponentielles complexes discrètes définies par
eν [k ] = exp(i2πνk )
sont fonctions propres des systèmes linéaires invariants discrets
stables.
Si le système admet une réponse impulsionnelle h ∈ `1 , les valeurs
propres correspondantes sont données par la transformée de Fourier
à temps discret de h :
H (ν) = ∑ h[k] exp(−i2πνk) (67)
k ∈Z
Démonstration. (Cas continu) Soit τ ∈ R. On remarque que e f ∗ δ−τ =
exp(i2π f τ )e f . Par invariance temporelle et linéarité de S, on a donc :
S(e f ) ∗ δ−τ = S(e f ∗ δ−τ ) = exp(i2π f τ )S(e f ).
On en déduit que
∀τ, S(e f )(0 + τ ) = exp(i2π f τ ) S(e f )(0)
c’est-à-dire S(e f ) = S(e f )(0) e f . Donc e f est une fonction propre de S.
Dans le cas où S admet une réponse impulsionnelle h ∈ L1 , la valeur propre
associée à e f est donnée par :
Z
S(e f )(0) = (e f ∗ h)(0) = h(t) exp(−i2π f t)dt.
R
38 systèmes linéaires invariants
On remarquera que dans le cas discret, les signaux eν et eν+n sont
identiques pour n ∈ Z, et que H (ν) est périodique de période 1.
Pour aller plus loin...
La réponse fréquentielle d’un filtre peut être mesurée en faisant agir le filtre
sur une exponentielle complexe, et en mesurant le facteur selon lequel elle
est amplifiée ou atténuée, et déphasée. C’est en pratique impossible, une
exponentielle complexe ayant un support infini. Cependant, dans le cas d’un
filtre stable (et causal) de réponse impulsionnelle h ∈ L1 , la réponse à une
exponentielle complexe limitée aux temps positifs e f 1R+ tend vers la réponse
à l’exponentielle complexe e f quand t tend vers l’infini.
En effet, la différence entre les deux réponses est donnée par :
Z
S(e f )(t) − S(e f 1R+ )(t) = S(e f 1R− )(t) = e f (t − τ )h(τ )1]t,+∞[ (τ )dτ
R
qui tend vers 0 quand t → +∞ par convergence dominée.
On peut donc mesurer la réponse fréquentielle en introduisant une exponen-
tielle complexe à partir de t = 0 dans le système, et en attendant l’extinction
du régime transitoire.
2.6 conclusion
Les liens entre systèmes linéaires invariants et transformée de Fou-
rier ont une importance capitale en traitement du signal : ils justi-
fient l’analyse fréquentielle des systèmes (par exemple, le tracé de
diagrammes de Bode n’est rien d’autre que la détermination des va-
leurs propres d’un système). En effet, la connaissance de la réponse
fréquentielle H ( f ) d’un système permet, par transformée de Fourier
inverse, de reconstituer sa réponse impulsionnelle, et donc de prédire
son action sur n’importe quel signal d’entrée. Le chapitre 3 rappelle
les propriétés importantes de la transformée de Fourier utiles à l’ana-
lyse des systèmes linéaires invariants.
En temps continu, le lien entre réponse impulsionnelle et réponse
fréquentielle n’a été donné ici que quand la réponse impulsionnelle
est une fonction intégrable. Or, de nombreux filtres admettent comme
réponse impulsionnelle une distribution (comme dans le cas élémen-
taire des systèmes à retard, dont la réponse impulsionnelle est une
distribution de Dirac translatée). L’extension de la transformée de
Fourier aux distributions tempérées, permettant l’analyse fréquen-
tielle de ces systèmes, est également introduite dans le chapitre 3.
3
R E P R É S E N TAT I O N F R É Q U E N T I E L L E
Dans ce chapitre, nous introduisons les transformées de Fourier,
des transformées linéaires appliquées à des signaux à temps continu
et temps discret. Cet outil permet de représenter les signaux dans
le domaine fréquentiel. Par exemple, le contenu de signaux audio
s’interprète aisément si les signaux sont exprimés dans le domaine
fréquentiel. De plus, la représentation fréquentielle simplifie certains
traitements car une convolution dans le domaine temporel se traduit
par un simple produit terme à terme dans le domaine fréquentiel.
Le principe de l’analyse fréquentielle d’un signal est de rechercher
une décomposition du type
Z
x (t) = X ( f ) exp(2iπ f t) d f (68)
R
qu’on peut interpréter comme une décomposition du signal x sur l’es-
pace des signaux exponentiels e f : t 7→ exp(2iπ f t). (68) généralise au
cas de signaux non périodiques la décomposition en série de Fourier,
bien connue dans le cas de signaux périodiques.
Organisation du chapitre
On présentera successivement les quatre transformées de Fourier :
— La transformée de Fourier à temps continu, pour un signal x (t)
à temps continu, de support infini.
— La décomposition en série de Fourier, pour un signal à temps
continu et de support compact (ou pour un signal périodique).
— La transformée de Fourier à temps discret, pour un signal x [k ]
à temps discret et de support infini.
— La transformée de Fourier discrète, pour un signal à temps dis-
cret de support fini, représenté comme un vecteur x ∈ C N .
On présentera enfin des applications de ces résultats en traitement
du signal dans le cadre du filtrage linéaire et de l’analyse spectrale.
40 représentation fréquentielle
3.1 transformée de fourier à temps continu
La transformée de Fourier (TF) d’un signal x : R → C, t 7→ x (t) est
la fonction F x : R → C définie 1 par :
Z
∀ f ∈ R, F x ( f ) = e−2iπ f t x (t)dt. (69)
R
De même, la transformée de Fourier conjuguée d’un signal x est la
fonction F ∗ x : R → C définie par :
Z
∀ f ∈ R, F ∗ x ( f ) = e2iπ f t x (t)dt (70)
R
Le module |F x ( f )| est le plus souvent utilisé pour donner une re-
présentation graphique de la transformée de Fourier, appelée spectre
du signal x. Cependant, deux signaux peuvent avoir une TF de même
module en étant sensiblement différents dans le domaine temporel.
Notations. F x ( f ) doit être compris comme (F x )( f ). S’il est nécessaire
d’expliciter la dépendance de x par rapport à t, on utilisera F { x (t)} ( f ).
On utilisera très souvent la notation courte X := F x. Ainsi,
Z
∀ f ∈ R, X ( f ) = e−2iπ f t x (t)dt. (71)
R
Remarque. Si x n’est pas dans L1 (R), les intégrales (69) et (70) sont
possiblement divergentes. Ces définitions ne sont donc plus valides. Ce-
pendant, nous verrons que la TF peut être définie sous une forme généra-
lisée pour une large classe de signaux.
Commençons par définir la transformée de Fourier dans L1 (R),
avant d’aborder les extensions à l’espace L2 (R) et à l’espace S 0 (R)
des distributions tempérées. Le lecteur est redirigé vers le polycopié
de CIP pour les preuves des premiers théorèmes.
3.1.1 Transformée de Fourier des signaux dans L1
La définition de la TF est la plus simple pour x ∈ L1 (R), car l’inté-
grale (69) est définie en tout point f . Notons que pour f = 0, on a :
Z
X (0) = x (t)dt. (72)
R
Notons également que la TF d’une fonction paire (x (−t) = x (t)) est
une fonction paire (X (− f ) = X ( f )). De même, la TF d’une fonction
impaire est une fonction impaire. De plus, si x est à valeurs réelles,
alors X est à symétrie hermitienne : ∀ f , X (− f ) = X ∗ ( f ).
1. On trouve parfois la définition alternative : X (ω ) = √1
R
2π R exp(−iωt ) x ( t )dt.
3.1 transformée de fourier à temps continu 41
Théorème 3.1. Soit x ∈ L1 . Sa transformée de Fourier satisfait
— X ∈ L∞ ,
— X ∈ C 0,
— (Riemann-Lebesgue) lim X ( f ) = 0,
| f |→∞
— Si x ∈ L1 et supp( x ) est borné, alors X ∈ C ∞ (R).
D’après le théorème précédent, la TF d’un signal dans L1 est conti-
nue et bornée. En revanche, X n’est pas nécessairement dans L1 ,
comme le montre l’exemple ci-dessous.
Exemple 3.1 (Fenêtre rectangulaire). Soit x = 1[− T , T ] . On calcule
2 2
Z
X( f ) = e−2iπ f t dt = T sinc ( Tπ f ) (73)
[− T2 , T2 ]
où la fonction sinus cardinal est définie par
(
sin(θ )
si θ 6= 0
sinc (θ ) := θ (74)
1 si θ = 0
La TF de la fenêtre rectangulaire paire est donc à valeurs réelles,
mais n’est pas dans L1 (R). Elle s’annule pour f = Tk , k ∈ Z∗ . X (0)
coïncide avec son intégrale, cf. (72), égale à T.
0.5
0
−5 −4 −3 −2 −1 0 1 2 3 4 5
t
2
1
0
−1
−5 −4 −3 −2 −1 0 1 2 3 4 5
f
Figure 10 – Fenêtre rectangulaire de largeur 2 et sa TF. La TF est un
sinus cardinal qui s’annule si f est multiple de 1/2 et
non nul.
42 représentation fréquentielle
Table 1 – Propriétés de la transformée de Fourier, avec e f0 (t) =
exp(2iπ f 0 t).
z(t) Z( f )
Linéarité (αx + βy)(t) αX ( f ) +βY( f )
1 f
Dilatation / Contraction x (αt) |α|
X α
Dualité de la TF (F X )(t) X (− f )
Produit x (t) y(t) ( X ∗ Y )( f )
Convolution ( x ∗ y)(t) X( f ) Y( f )
Retard x (t − τ0 ) e−τ0 ( f ) X ( f )
Modulation e f0 (t) x (t) X( f − f0 )
Dérivée x (n) ( t ) (2iπ f )n X ( f )
Produit par tn tn x (t) F x (n) ( f )/(−2iπ )n
Propriétés
Les principales propriétés de la TF sont listées dans le tableau 1
et démontrées en annexe. On retiendra que la TF d’un signal dilaté
est la version contractée de la TF du signal de départ, avec le même
facteur de dilatation/contraction (α, 1/α). On retiendra aussi que la
TF d’un produit de convolution est égale au produit simple des TF.
Inversement, la TF d’un produit de fonctions est égale au produit de
convolution de leurs TF. Un cas d’application important de ce résul-
tat est le suivant : la TF d’un signal retardé est égale à la version
modulée de la TF du signal de départ (et inversement). Ces résultats
se déduisent de ceux sur la TF du produit de convolution et du pro-
duit, en notant que x (t − τ0 ) = (δτ0 ∗ x )(t). Les TF de δτ0 et e f0 sont
données dans le tableau 2.
Une propriété fondamentale est que la transformée de Fourier conju-
guée F ∗ est l’opérateur inverse de la transformé de Fourier.
Théorème 3.2. Si x ∈ L1 (R) et F x ∈ L1 (R), alors on a
F ∗ F x (t) = x (t) presque partout.
La transformée de Fourier inverse s’écrit donc :
Z
x (t) = e2iπ f t X ( f ) d f . (75)
R
3.1.2 Transformée de Fourier des signaux dans L2
La transformée de Fourier se prolonge en une isométrie de L2 (R)
dans L2 (R).
3.1 transformée de fourier à temps continu 43
Définition 3.1. Soit x ∈ L2 (R). On pose xn = x1[−n,n] pour n ∈
Z. La TF de x est la limite dans L2 :
L2
X = lim Xn (76)
n→∞
de la suite Xn des transformées de Fourier (dans L1 ) des fonctions xn .
La transformée de Fourier conjuguée se prolonge de façon similaire.
Le lecteur est redirigé vers le cours de CIP pour de plus amples
détails. Les principales propriétés sont énoncées ci-dessous.
Théorème 3.3 (Plancherel-Parseval). La TF est une isométrie de
L2 (R) dans L2 (R). Elle préserve la norme et le produit scalaire :
— ∀ x ∈ L2 (R), k X k = k x k.
— ∀ x, y ∈ L2 (R), ( X, Y ) = ( x, y).
La première propriété s’interprète comme la conservation de l’éner-
gie (Ex = k x k2 = EX ) quelque soit la représentation, temporelle ou
fréquentielle, choisie pour le signal.
Théorème 3.4 (Transformée de Fourier inverse). Pour tout x ∈
L2 (R), F F ∗ x = F ∗ F x = x presque partout.
3.1.3 Transformée de Fourier dans S 0
Les propriétés de la TF sur l’espace de Schwartz S(R) (voir dé-
finition (24)) sont à la base de la généralisation de la TF aux distri-
butions. Tout d’abord, notons que S(R) ⊂ L2 (R) ∩ L1 (R). De plus,
contrairement à D(R), S(R) est stable par transformée de Fourier (cf.
polycopié du cours de CIP).
Lemme 3.1. ∀ ϕ ∈ S(R), F ϕ ∈ S(R).
C’est la raison pour laquelle on se place dans l’espace des distribu-
tions tempérées T ∈ S 0 (R) pour généraliser la TF.
Définition 3.2. Soit T ∈ S 0 (R). La transformée de Fourier de T est
la distribution tempérée F T ∈ S 0 (R) définie par :
∀ ϕ ∈ S(R), hF { T } , ϕi = h T, F ϕi . (77)
L’espace E 0 (R) des distributions à support compact étant inclus
dans S 0 (R), la définition précédente reste valable pour T ∈ E 0 (R).
44 représentation fréquentielle
Remarque. L’expression (77) est une généralisation du lemme suivant
aux distributions.
Lemme 3.2. Si x et ϕ ∈ S(R), alors F x ϕ et ϕF x ∈ L1 (R), et
Z Z
Fx ϕ = x F ϕ.
R R
R
hF { T } , ϕi dans (77) joue le rôle de R
F x ϕ ici.
Appliquons maintenant la définition au calcul de la TF de la distri-
bution de Dirac.
Exemple 3.2 (TF d’un Dirac). Soit f 0 ∈ R. Pour ϕ ∈ S(R),
Z
F δ f0 , ϕ = δ f0 , F ϕ = (F ϕ)( f 0 ) = e−2iπ f0 t ϕ(t)dt = he− f0 , ϕi.
R
On a donc
F δ f 0 = e− f 0 , (78)
En particulier, pour f 0 = 0,
F δ = 1R . (79)
Théorème 3.5 (Transformée de Fourier inverse). La TF est un
isomorphisme de S 0 (R) dans lui-même, et la transformée de Fourier
inverse F −1 = F ∗ est la distribution définie par :
∀ ϕ ∈ S(R), hF ∗ { T } , ϕi = h T, F ∗ ϕi .
Exemple 3.3 (TF de l’exponentielle complexe). Soit f 0 ∈ R. En
réitérant le calcul de l’exemple précédent pour la TF inverse, on trouve
F ∗ δ f0 = e f0 , d’où
F e f0 = F F ∗ δ f0 = δ f0 . (80)
Il en découle que les TF des distributions associés aux signaux trigono-
métriques sont données par
e f 0 + e− f 0 δ− f0 + δ f0
F {cos(2π f 0 t)} = F =
2 2
e f 0 − e− f 0 δ− f0 − δ f0
F {sin(2π f 0 t)} = F = .
2i 2i
Nous avons en particulier pour f 0 = 0 :
F 1R = δ0 = δ.
3.1 transformée de fourier à temps continu 45
magnitude
1
0.5
0
−4 −3 −2 −1 0 1 2 3 4
t
2
phase
0
−2
−4 −3 −2 −1 0 1 2 3 4
t
1
Fx
0.5
0
−4 −3 −2 −1 0 1 2 3 4
f
Figure 11 – Fonction e f0 (t) = exp(2iπ f 0 t) pour f 0 = 1 : variations
temporelles de l’amplitude et de la phase, tracé de sa TF.
1
0
−1
−4 −3 −2 −1 0 1 2 3 4
0.6 t
0.4
0.2
0
−4 −3 −2 −1 0 1 2 3 4
f
Figure 12 – Fonction cos(2π f 0 t) pour f 0 = 1 : représentations tempo-
relle et fréquentielle.
Le calcul de la TF d’un peigne de Dirac repose sur le lemme suivant.
Lemme 3.3 (Formule sommatoire de Poisson). Pour ϕ ∈ S(R) et
T > 0, on a
1 k
∑
T k ∈Z
ϕ
T
= ∑ F ϕ(kT ). (81)
k ∈Z
Démonstration. La preuve est disponible dans le recueil de TD de CIP avec des
hypothèses un peu plus faibles :
1. ϕ ∈ L1 (R) ∩ C 0 (R),
2. ∃ M > 0, ∃α > 1 : ∀ x ∈ R, | ϕ( x )|(1 + | x |α ) ≤ M,
46 représentation fréquentielle
3. ∑k∈Z |F ϕ(kT )| < ∞.
Ces hypothèses sont toutes vérifiées pour ϕ ∈ S(R), car :
1. S(R) ⊂ L1 (R) ∩ C ∞ (R),
2. ϕ est à décroissance rapide, voir (24),
3. d’après le lemme 3.1, F ϕ ∈ S(R). F ϕ est donc à décroissance rapide.
Théorème 3.6 (TF d’un peigne de Dirac). Soit T > 0. Alors le
peigne de Dirac T vérifie T ∈ S 0 (R). De plus, on a :
1
F T = 1 (82)
T T
Démonstration. En appliquant (81) aux fonctions test ϕ, on a :
1 1 k
T k∑
∀ ϕ ∈ S(R), h 1 , ϕi = ϕ
T T
∈Z
T
= ∑ (F ϕ)(kT )
k ∈Z
=h T , F ϕi
= hF T , ϕ i.
d’où l’égalité (82).
2
1
0
−4 −3 −2 −1 0 1 2 3 4
2 t
1
0
−4 −3 −2 −1 0 1 2 3 4
f
Figure 13 – Peigne de Dirac : représentations temporelle T et fré-
quentielle T1 1 pour T = 12 .
T
3.1 transformée de fourier à temps continu 47
Table 2 – TF de fonctions et distributions usuelles. Certaines expres-
sions (lignes 1 et 2 par exemple) sont symétriques du fait
de la propriété de dualité : (F F x )(t) = x (−t).
x x ∈ ... X
1[−T,T ] L1 (R) f 7→ 2T sinc (2πT f )
1
t 7→ sinc (2π f 0 t) L2 (R) 1
2 f 0 [− f0 , f0 ]
1R S 0 (R) δ
δ S 0 (R) 1R
e f0 S 0 (R) δ f0
δτ0 S 0 (R) e−τ0
δ− f0 + δ f0
t 7→ cos(2π f 0 t) S 0 (R)
2
δ f0 − δ− f0
t 7→ sin(2π f 0 t) S 0 (R)
2i
T S 0 (R) 1
T 1
T
t2
t 7→ √1
σ 2π
exp(− 2σ 2) L1 (R) f 7→ exp(−2σ2 π 2 f 2 )
3.1.4 Quelques exemples classiques
Les résultats les plus classiques sont récapitulés dans le tableau 2.
On détaille maintenant le calcul très classique de la TF d’une fonction
triangle. Soit
|t|
4[−T,T ] (t) = 1− 1[−T,T ] (t) (83)
T
1
0.5
0
−4 −3 −2 −1 0 1 2 3 4
0.6 t
0.4
0.2
0
−4 −3 −2 −1 0 1 2 3 4
f
Figure 14 – Fonction 4[−T,T ] pour T = 1 : représentations temporelle
et fréquentielle.
48 représentation fréquentielle
la fonction "triangle" centrée en 0, d’amplitude 1 et de support [− T, T ].
Comme
1
4[−T,T ] = 1[− T , T ] ∗ 1[− T , T ] , (84)
T 2 2 2 2
on déduit l’expression de la TF d’une porte, cf. (73), et de la propriété
sur la TF du produit de convolution, que :
F 4[−T,T ] ( f ) = T sin2c ( Tπ f ) . (85)
3.2 décomposition en série de fourier
3.2.1 Signaux à support limité
Le théorème de décomposition en série de Fourier est énoncé pour
des signaux à support limité, dans l’intervalle [0, T ]. L’espace L2 ([0, T ])
est muni du produit scalaire ( x , y) = T1 [0,T ] xy∗ dλ.
R
Théorème 3.7. Tout signal x ∈ L2 ([0, T ]) est décomposable dans la
base hilbertienne de L2 ([0, T ]) formée par les fonctions :
ek : [0, T ] → C
kt
t 7→ exp 2iπ
T
La décomposition s’écrit
x= ∑ c k ek (86)
k ∈Z
où
Z T
1 kt
ck = ( x , ek ) = exp −2iπ x (t) dt. (87)
T 0 T
On a de plus l’égalité de Parseval :
1
Z
k x k2L2 (0,T ) =
T [0,T ]
| x (t)|2 dt = ∑ | c k |2 . (88)
k ∈Z
La série (86) converge dans dans L2 . Sous certaines hypothèses, on
a des propriétés de convergence simple et uniforme.
Théorème 3.8 (Dirichlet). Si x est C 1 par morceaux, alors (86) est
valable en tout point t où x est continue. Si x est de plus continue, la
convergence de la série de Fourier vers x est uniforme.
3.3 transformée de fourier à temps discret 49
3.2.2 Signaux périodiques
La transformée de Fourier de signaux périodiques est définie au
sens des distributions. Soit x un signal T-périodique et x T := x1[0,T ]
son motif période. On écrit ∀t, x (t) = ∑k∈Z x T (t − kT ), ou encore
x = xT ∗ T. (89)
On suppose que x T ∈ L1 (0, T ), de telle sorte que XT ∈ C ∞ (R). D’après
le théorème 3.6, la transformée de Fourier de x s’écrit :
1
X = F { xT ∗ T} = XT 1 .
T T
On a donc
X= ∑ ck δ k
T
(90)
k ∈Z
où
1 k
ck = XT
T T
Z T
1 kt
= exp −2iπ x (t) dt (91)
T 0 T
sont égaux aux coefficients de Fourier de x T définis en (87).
On retiendra qu’une fonction périodique possède un spectre de
raies conformément à (90). Inversement, on montre dans la pro-
chaine section que la transformée de Fourier d’un signal à temps
discret est périodique.
3.3 transformée de fourier à temps discret
La transformée de Fourier d’un signal à temps discret (TFTD) x :
Z → C est définie par
∀ν ∈ R, F x (ν) = X (ν) = ∑ x[k] e−2iπνk (92)
k ∈Z
lorsque cette série converge (notamment pour x ∈ `1 (Z)). Dans le
cas contraire, la définition (92) n’est plus valide. Ceci étant, la TFTD
peut être définie pour des classes plus étendues de signaux (dans
`2 (Z), pour des signaux périodiques) en utilisant le formalisme des
distributions.
On notera X := F x, et on utilisera F { x [k ]} (ν) lorsqu’il est néces-
saire d’expliciter la dépendance de x par rapport à k.
50 représentation fréquentielle
Remarque (fréquence réduite, hautes et basses fréquences). La
transformée de Fourier à temps discret est un signal
X: R → C
ν 7→ X (ν)
périodique de période 1. La variable ν est appelée fréquence réduite.
X (ν) étant 1-périodique, les basses fréquences correspondent à ν ≈ 0,
mais aussi à ν ≈ ` pour ` ∈ Z. Les hautes fréquences correspondent à
ν ≈ 21 + `, ` ∈ Z.
| X (ν)| est généralement représenté sur une période, pour ν ∈ [0, 1] (avec
la fréquence la plus haute ν = 21 au centre de la figure, et les fréquences
les plus basses ν = 0 et 1 aux extrémités) ou pour ν ∈ [− 12 , 12 ] (avec la
fréquence nulle au centre de la figure, et les hautes fréquences ν ≈ ± 12
aux extrémités).
3.3.1 Transformée de signaux dans `1
Les propriétés de la TFTD dans le cas de signaux dans `1 (Z) sont
analogues à celles de la TF pour les signaux L1 .
Théorème 3.9. Soit x ∈ `1 . La TFTD satisfait
— X ∈ L∞ ;
— X ∈ C 0.
Nous avons également, à partir de la définition,
X (0) = ∑ x [k] . (93)
k ∈Z
Exemple 3.4 (Fenêtre rectangulaire). Considérons la fenêtre (discrète)
rectangulaire de largeur 2N + 1 donnée par
N
1[− N,N ] [k ] = ∑ δ[k − n]
n=− N
La TFTD s’écrit :
(
N sin(π (2N +1)ν)
n o si ν 6= 0
F 1[− N,N ] (ν) = ∑ e−2iπkν = sin(πν)
2N + 1 si ν = 0.
k =− N
On remarque que le sinus cardinal obtenu dans le cas continu, cf. (73)
est remplacé ici par un rapport de sinus.
3.3 transformée de fourier à temps discret 51
1[−4,4] [k ]
0.5
0
−8 −6 −4 −2 0 2 4 6 8
10
F 1[−4,4] (ν)
8 k
6
4
2
0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
Figure 15 – Fenêtre rectangulaire discrète 1[− N,N ] : représentations
temporelle et fréquentielle (en module). Comme pour
tout signal discret, la TFTD est 1-périodique.
3.3.2 Transformée des signaux dans `2
Théorème 3.10. L’opérateur F définissant la TFTD est une iso-
métrie (bijective) de `2 (Z) dans L2 ([0, 1]), ce qui se traduit par la
conservation du produit scalaire et de l’énergie (égalité de Parseval) :
Z
∀ x, y ∈ ` (Z),
2
∑ x [k] y ∗
[k] =
[0,1]
X (ν)Y ∗ (ν) dν
k ∈Z
Z
∑ |x[k]|
2
∀ x ∈ `2 (Z), = | X (ν)|2 dν.
k ∈Z [0,1]
La transformation inverse est donnée par
Z
x [k] = X (ν) e2iπkν dν (94)
[0,1[
Remarque. (92) n’est rien d’autre que la décomposition en série de Fou-
rier de la fonction (1-périodique) X = F x. Les coefficients de cette décom-
position s’expriment comme les produits scalaires de X avec les signaux
exponentiels complexes, voir (94). X étant 1-périodique, son énergie est
définie comme l’intégrale de | X (ν)|2 sur une période, comme [0, 1].
Les principales propriétés de la TFTD sont résumées dans le ta-
bleau 3. De même que pour la TF de signaux continus, la TFTD d’une
convolution est le produit des TFTD de chaque signal discret. Inverse-
ment, la TFTD d’un produit est le produit de convolution circulaire
des TFTD. X et Y étant des fonctions 1-périodiques, la convolution
circulaire ~ est définie par :
Z
∀ν ∈ R, ( X ~ Y )(ν) = X (θ ) Y (ν − θ ) dθ. (95)
[0,1[
52 représentation fréquentielle
Table 3 – Propriétés de la transformée de Fourier à temps discret.
z[k] Z (ν)
Linéarité αx [k ] + βy[k ] αX (ν) + βY (ν)
Dualité F { X (ν)} [k] X (−ν)
Retard x [k − k0 ] e−2iπνk0 X (ν)
Modulation e2iπν0 k x [k ] X (ν − ν0 )
Produit x [k] y[k] ( X ~ Y )(ν)
Convolution ( x ∗ y)[k] X (ν) Y (ν)
Table 4 – Récapitulatif des transformées de Fourier de signaux à
temps discret. La TFTD est à chaque fois 1-périodique.
x [k] x ∈ ... X
δ[k ] (fonction de Kronecker) `1 (Z) 1R
δ[k − k0 ] `1 (Z) ν 7→ exp(−2iπνk0 )
N
sin(π (2N + 1)ν)
1[− N,N ] [k ] = ∑ δ[k − n] `1 (Z) ν 7→
sin(πν)
n=− N
∞
1Z [ k ] = ∑ δ[k − n] ` ∞ (Z) 1 (peigne de Dirac)
n=−∞
exp(2iπν0 k ) ` ∞ (Z) ∑ δν +` 0
(peigne de Dirac)
`∈Z
1
cos(2πν0 k ) ` ∞ (Z) ∑ (δ−ν0 +` + δν0 +` )
2 `∈ Z
1
sin(2πν0 k ) ` ∞ (Z) ∑ (δν0 +` + δ−ν0 +` )
2i `∈ Z
3.3.3 Quelques résultats classiques
Le tableau 4 récapitule des résultats classiques de TFTD. Certains si-
gnaux considérés comme les exponentielles complexes, ne se trouvent
ni dans `1 ni dans `2 , mais dans `∞ . La définition de la TFTD de tels
signaux est (très) subtile et ne sera pas détaillée ici. Le lecteur inté-
ressé est redirigé vers le livre [5]. On retiendra que la TFTD d’une
sinusoïde discrète est la somme de deux peignes de Dirac, et que la
TFTD d’une fonction porte n’est pas égale à un sinus cardinal mais à
un rapport de deux sinus.
Remarque (Méthode de calcul). Pour les signaux dans `1 , la TFTD
se calcule par la formule (92). Pour des signaux n’étant pas dans `1 , il
convient de combiner les résultats classiques du tableau 4 avec les pro-
priétés énoncées dans le tableau 3 : TFTD d’un signal retardé, modulé,
d’une combinaison linéaire, etc.
3.4 transformée de fourier discrète 53
phase magnitude
1
0.5
0
−8 −6 −4 −2 0 2 4 6 8
2 k
0
−2
−8 −6 −4 −2 0 2 4 6 8
1
k
Fx
0.5
0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
nu
Figure 16 – Exponentielle complexe exp(2iπν0 k ) : représentations
temporelle (amplitude et phase) et fréquentielle pour
ν0 = 0, 25. La TFTD est 1-périodique.
3.4 transformée de fourier discrète
La transformée de Fourier discrète (à ne pas confondre avec la
TFTD) est l’outil utilisé en pratique pour traiter un signal numérique.
Contrairement à la TFTD, elle s’applique à un signal discret de lon-
gueur finie, représenté par un vecteur x = { x0 , . . . , x N −1 } ∈ C N .
Définition 3.3 (Transformée de Fourier Discrète). La Transfor-
mée de Fourier Discrète (TFD) est l’application linéaire
CN → CN
x 7→ X = F N x
où F N ∈ C N × N est la matrice définie par
nk
F N [n, k ] = e−2iπ N (96)
pour n et k ∈ {0, . . . , N − 1}.
La TFD permet de définir une représentation fréquentielle Xn , n ∈
{0, . . . , N − 1} du signal x avec
N −1 N −1
∑ ∑
kn
Xn = F N [n, k ] xk = e−2iπ N xk . (97)
k =0 k =0
On note que F N est une matrice symétrique de Vandermonde, dont
l’inverse est égale (à un facteur multiplicatif près) à sa conjuguée.
54 représentation fréquentielle
Théorème 3.11 (TFD inverse). La Transformée inverse de la
TFD est l’opération linéaire x = F− 1
N X, où
1 ∗
F− 1
N = F . (98)
N N
Ainsi, la TFD inverse prend la forme
N −1
1
∑
nk
xk = e2iπ N Xn pour k ∈ {0, . . . , N − 1}. (99)
N n =0
Remarque. (99) s’interprète comme la décomposition de x dans la base
orthogonale formée par les signaux exponentiels complexes de fréquence
n nk
N , notés en = {exp(2iπ N ), k = 0, . . . , N − 1} :
N −1
1
x= ∑ N
Xn en (100)
n =0
Le théorème de Parseval garantit la conservation de l’énergie (à un
facteur multiplicatif près).
Théorème 3.12 (Parseval). Pour x ∈ C N , on a kF N xk22 = N kxk22 .
Démonstration. kF N xk22 = (F N x)∗ (F N x) = x∗ F∗N F N x = x∗ ( NI)x = N kxk22 .
Les calculs de produit matrice-vecteur du type F N x et F− 1
N X coûtent
2
habituellement O( N ) opérations élémentaires (additions et multipli-
cations). Cependant, on dispose d’algorithmes rapides (appelés FFT,
pour Fast Fourier Transform) pour effectuer ces calculs en O( N log( N ))
opérations, en exploitant la structure particulière de la matrice F N .
3.5 application au filtrage linéaire
3.5.1 Filtrage dans le domaine de Fourier
Considérons un filtre convolutionnel de réponse impulsionnelle h.
La relation entrée-sortie s’écrit y(t) = (h ∗ x )(t) ou y[k ] = (h ∗ x )[k ].
Cette relation est simplifiée dans le domaine fréquentiel car la TF
(TFTD) d’un produit de convolution est le produit des TF (TFTD).
Filtres à temps continu
Définition 3.4 (Réponse fréquentielle). La relation entrée-sortie
d’un filtre s’écrit dans le domaine fréquentiel sous la forme :
∀ f ∈ R, Y ( f ) = H ( f ) X ( f ) (101)
3.5 application au filtrage linéaire 55
où H ( f ) = (F h)( f ) est appelée réponse fréquentielle ou fonction
de transfert.
Les exponentielles complexes e f sont fonctions propres des filtres
(cf. section 2.5). La sortie associée s’écrit :
y = H( f ) e f . (102)
Le module et la phase de H ( f ) s’interprètent comme le gain en am-
plitude et le déphasage subis par le signal e f au passage dans le filtre.
Exemple 3.5. Un filtre passe-bas idéal est caractérisé par la réponse fré-
quentielle H ( f ) = 1[− f c , f c ] ( f ) en notant f c la fréquence de coupure. Il
élimine les hautes fréquences correspondant aux discontinuités (sauts des
valeurs du signal) et au bruit contenu dans le signal, et produit une
version lissée du signal de départ. D’après le tableau 2, sa réponse impul-
sionnelle s’écrit
h(t) = 2 f c sinc (2π f c t).
Le filtre n’est ni causal, ni à réponse impulsionnelle finie, d’où son ap-
pellation “idéal”. En pratique, on a recours à des techniques de fenêtrage
pour concevoir un filtre causal et stable dont la réponse fréquentielle est
une bonne approximation de 1[− f c , f c ] .
Filtres à temps discret
Définition 3.5. La relation entrée-sortie d’un filtre à temps discret
s’écrit dans le domaine fréquentiel sous la forme :
∀ν, Y (ν) = H (ν) X (ν) (103)
où H (ν) = (F h)(ν) est la réponse fréquentielle. Les TFTD étant
périodiques, elle sont calculées sur un intervalle de longueur 1 (géné-
ralement, pour ν ∈ [0, 1[ ou ν ∈ [− 21 , 12 [).
Définition 3.6. Un filtre numérique est dit :
— passe-haut s’il laisse passer les hautes fréquences :
1
H (ν) 6= 0 pour νc ≤ |ν| ≤
2
et coupe les basses fréquences :
H (ν) ≈ 0 pour |ν| ≤ νc ,
en notant νc ∈ (0, 12 ) la fréquence de coupure ;
— passe-bas s’il laisse passer les basses fréquences (H (0) 6= 0) et
coupe les hautes fréquences (H (± 21 ) = 0) ;
56 représentation fréquentielle
— passe-bande s’il ne laisse passer qu’un intervalle de fréquences
(H (ν) 6= 0 ⇐⇒ |ν| ∈ [ν1 , ν2 ], avec 0 < ν1 < ν2 < 12 ) ;
— coupe-bande s’il coupe les fréquences dans un certain intervalle
(H (ν) ≈ 0 ⇐⇒ |ν| ∈ [ν1 , ν2 ], avec 0 < ν1 < ν2 < 12 ).
Exemple 3.6. Le filtre dérivateur est défini par y[n] = x [n] − x [n − 1].
Sa réponse impulsionnelle s’écrit
h [ k ] = δ [ k ] − δ [ k − 1] (104)
(cf. section 2.4.2). Le support de h vaut donc {0, 1}. La réponse fréquen-
tielle du filtre s’écrit :
H (ν) = h[0] + h[1] exp(−2iπν)
= 1 − exp(−2iπν)
= 2i exp(−iπν) sin(πν). (105)
h est un filtre passe-haut car H (0) = 0 et les valeurs maximales de
| H (ν)| sont atteintes pour |ν| = 21 .
Exemple 3.7. Le filtre à moyenne glissante est défini par
L
1
y[n] = ∑ x [ n − k ].
2L + 1 k=− L
On montre que sa réponse fréquentielle s’écrit
sin(2π (2L + 1))
H (ν) =
(2L + 1) sin(πν)
C’est un filtre passe bas.
1 0.1
h[n]
h[n]
0 0.05
-1 0
-10 -5 0 5 10 -10 -5 0 5 10
Time (Samples) Time (samples)
2 1
|H( )|
|H( )|
1 0.5
0 0
-2 -1 0 1 2 -0.5 0 0.5
Frequency) Frequency
Figure 17 – Réponses impulsionnelle et fréquentielle des filtres dé-
rivateur (gauche) et à moyenne glissante (droite). Ces
filtres sont respectivement passe-haut et passe-bas.
3.5 application au filtrage linéaire 57
Équations aux différences
Certains filtres IIR sont caractérisés par des équations aux diffé-
rences du type :
p
∀k, y[k] = ∑ a` y[k − `] + x[k] (106)
`=1
où p est l’ordre du filtre. On a donc l’égalité des signaux :
p
y= ∑ a` y[ · − `] + x.
`=1
La réponse impulsionnelle du filtre étant de support infini, son calcul
n’est pas direct. En revanche, la réponse fréquentielle H (ν) se calcule
très simplement. On applique la propriété de la TFTD de signaux
retardés (tableau 3) :
p
∀ν, Y (ν) = ∑ a` e−2iπ`ν Y (ν) + X (ν). (107)
`=1
Par identification avec (103), on déduit que :
1
∀ν, H (ν) = p . (108)
1 − ∑`=1 a` e−2iπ `ν
3.5.2 Synthèse d’un filtre FIR par TFD
Considérons un filtre FIR causal, et notons p la taille de la réponse
impulsionnelle. La relation entrée-sortie s’écrit
p −1
y[n] = ∑ hk x [n − k ]
k =0
On a recours à la TFD pour calculer la réponse fréquentielle du filtre,
(F h)(ν), en des points ν particuliers.
La TFD opère sur le vecteur h = { hk , k = 0, . . . , p − 1} ∈ C p . Le vec-
teur H = FP h obtenu (cf. (97)) coïncide avec l’évaluation de (F h)(ν)
pour des fréquences multiples de 1p :
n
∀n ∈ {0, . . . , p − 1}, Hn = (F h) . (109)
p
Ainsi, F h est évaluée sur une grille fréquentielle dont le pas (égal à
l’espacement entre deux points sur cette grille) est 1p .
La technique de bourrage de zéros (ou zero-padding) consiste à
rajouter artificiellement des 0 dans le vecteur h afin d’améliorer la
représentation fréquentielle. Notons h0 = {h, 0 M− p } ∈ C M le vecteur
formé en ajoutant M − p zéros à la fin du vecteur h (avec M > p). La
58 représentation fréquentielle
Figure 18 – Calcul de la réponse fréquentielle d’un filtre FIR. A
droite, la TFTD (F h)(ν) est représentée en trait continu,
et son évaluation (pour 4 et 20 points fréquentiels, res-
pectivement) par TFD est en rouge. Le bourrage de zéros
(figures du bas) améliore la représentation fréquentielle.
TFD H0 = F M h0 évalue la réponse fréquentielle sur une grille de pas
1
M :
m
∀m ∈ {0, . . . , M − 1}, Hm0 = (F h) . (110)
M
L’intérêt du bourrage de zéros est illustré sur la Fig. 18 : le nombre
de points fréquentiels considérés est largement supérieur lorsque le
bourrage de zéros est pratiqué. Il en résulte une précision du tracé
(en rouge) beaucoup plus grande.
Une fois la réponse fréquentielle du filtre calculée, on peut calculer
la représentation fréquentielle de la sortie y = h ∗ x associée à une
entrée x donnée, par la formule Y (ν) = (F h(ν)) X (ν). Pour cela, on
veillera à calculer la TFTD X (ν) sur la même grille que la grille de cal-
1
cul de (F h)(ν), c’est-à-dire sur une grille de pas M en suivant (110).
3.6 analyse spectrale
L’analyse spectrale consiste à décomposer un signal comme une
somme de sinusoïdes. C’est un problème très classique rencontré
dans différents domaines allant de l’analyse du son à la localisation
radar, à l’analyse de la lumière émise par un corps céleste en astro-
3.6 analyse spectrale 59
−2
−4
0 2 4 6 8 10
t
Figure 19 – Fenêtrage rectangulaire : x (t) = s(t) 1[a,b] (t). Le signal
observé x est tracé en vert.
physique. La transformée de Fourier est l’outil naturel pour effectuer
cette décomposition.
3.6.1 Fenêtrage temporel de signaux à temps continu
En pratique, le signal x (t) qu’on cherche à analyser
T aTété
observé
pendant une durée finie, par exemple pour t ∈ − 2 , 2 . On peut
donc le modéliser comme le produit d’un signal idéal stationnaire
s(t), correspondant à un horizon infini, par une fenêtre rectangulaire :
x ( t ) = s ( t ) 1[ − T , T ] ( t ) (111)
2 2
On déduit des propriétés de la TF que :
X = S ∗ F 1[ − T , T ]
2 2
= S ∗ { T sinc (πT f )}. (112)
Prenons l’exemple du signal sinusoïdal s(t) = cos(2π f 0 t), dont la
TF s’écrit S = 12 (δ f0 + δ− f0 ). (112) se réécrit :
T
∀ f , X( f ) = (sinc (πT ( f − f 0 ) ) + sinc (πT ( f + f 0 ) )) . (113)
2
Graphiquement, les impulsions de Dirac (aussi appelées raies) en f =
± f 0 sont remplacées par des sinus cardinaux, toujours centrés en ± f 0 .
Leurs lobes primaires et secondaires sont représentés sur la figure 20.
3.6.2 Résolution spectrale
La notion de résolution spectrale est liée à la capacité à distinguer
des sinusoïdes proches. Dans le cas d’une fenêtre rectangulaire, on
définit la résolution comme la largeur du lobe principal du motif
60 représentation fréquentielle
−1
−4 −3 −2 −1 0 1 2 3 4
3
t
2
1
0
−1
−4 −3 −2 −1 0 1 2 3 4
f
Figure 20 – Sinusoïde avec fenêtrage rectangulaire : représentations
temporelle et fréquentielle.
1
0.5
0
−4 −2 0 2 4
t
1
0.5
0
−4 −2 0 2 4
f
Figure 21 – Fenêtre de Hann : représentations temporelle et fréquen-
tielle (en module).
T sinc (πT f ). Elle vaut T2 car sinc (πT f ) s’annule en f = ± T1 . La ré-
solution est donc d’autant meilleure que la durée d’observation est
longue. De plus, l’amplitude des lobes secondaires décroît relative-
ment lentement (en 1f ).
Dans le cas d’un signal ayant un contenu plus riche qu’une simple
sinusoïde, la présence de lobes multiples et leur superposition consti-
tue une difficulté pour distinguer des fréquences proches.
On peut atténuer, dans une certaine mesure, les effets du fenêtrage
rectangulaire en remplaçant (111) par
∀t ∈ R, x (t) = s(t) w[− T , T ] (t) (114)
2 2
où w[− T , T ] (t) est la fenêtre triangulaire 4[−T/2,T/2] définie en (83), ou
2 2
encore une fenêtre de forme plus spécifique, comme celle Hann :
2 πt
w[− T , T ] (t) = cos 1[ − T , T ] ( t ) (115)
2 2 T 2 2
3.6 analyse spectrale 61
Figure 22 – Effets de fenêtrage sur une sinusoïde : fenêtrages rec-
tangulaire (trait plein), triangulaire (pointillés noirs), de
Hann (pointillés jaunes).
représentée en Fig. 21. Ces fenêtres sont de largeur T et conduisent
à une décroissance rapide des lobes secondaires (en f12 ou f13 , respec-
tivement) au prix d’une résolution spectrale double ( T4 ), voir Fig. 22.
3.6.3 Fenêtrage temporel de signaux à temps discret
Pour un signal discret quelconque s[k ], le principe du fenêtrage
reste valable. Le signal fenêtré s’exprime par :
∀k ∈ Z, x [k] = s[k] w{0,...,N −1} [k] (116)
où w{0,...,N −1} est une version discrète des fenêtres précédentes (rec-
tangulaire, triangulaire ou Hann) de longueur N.
Pour calculer numériquement la TFTD de x, on ne conserve que
les points k pour lesquels w{0,...,N −1} [k ] 6= 0. On dispose donc d’un
vecteur x = { xk , k = 0, . . . , N − 1} de longueur N, en notant xk = x [k ].
La technique du bourrage de zéros introduite dans la section 3.5.2
consiste à ajouter artificiellement M − N zéros à ce vecteur, pour M >
N. La TFD du vecteur x augmenté fournit une évaluation de F x (ν)
sur la grille fréquentielle
m
νm = , m = 0, . . . , M − 1
M
1 m
de pas M . Notons X = TFD(x). En localisant la position (ν = M ),
l’amplitude et la phase des maxima locaux de | Xm |, on déduit les
paramètres des sinusoïdes contenues dans le signal de départ s[k ].
L’intérêt de la technique de bourrage de zéros est illustrée sur la
Fig. 23 dans le cas où M = 2N. On observe un gain notable de préci-
sion pour localiser la fréquence de la sinusoïde discrète.
62 représentation fréquentielle
Figure 23 – Représentations fréquentielles d’un signal discret de lon-
gueur N = 10. A droite, la TFTD X (ν) est représentée en
trait continu. Son évaluation par TFD est en rouge. Le cal-
cul est fait pour N points fréquentiels (figures du haut).
Pour un calcul avec M points fréquentiels (M > N), on
procède à un bourrage de zéros en ajoutant M − N zéros
au signal x [k ] (M = 25 pour les figures du bas).
3.7 conclusion
La transformée de Fourier est un outil fondamental permettant
d’analyser des signaux stationnaires. De nombreux signaux ne sont
pas stationnaires, on a alors recours à des outils plus sophistiqués
comme la transformée de Fourier à court terme ou la transformée en
ondelettes. Enfin, la TF joue un rôle majeur dans la compréhension de
l’échantillonnage de signaux continus. Cette opération est nécessaire
pour la transmission, le stockage et la reconstruction des signaux tem-
porels et sera détaillée au prochain chapitre.
annexe
Les propriétés sont présentées pour les TF de fonctions dans L1 .
3.7 conclusion 63
Linéarité. Soit z = αx + βy.
Z
Z( f ) = e−2iπ f t (αx (t) + βy(t)) dt
R
Z Z
=α e−2iπ f t x (t)dt + β e−2iπ f t y(t)dt
R R
= αX ( f ) + βY ( f )
Dilatation. Soit z(t) = x (αt).
Z
Z( f ) = e−2iπ f t x (αt)dt
R
1
Z
e−2iπ f α x (θ ) dθ
θ
=
R |α|
1 f
= X .
|α| α
Dualité de la TF. La transformée de Fourier inverse est donnée par
Z
x (t) = e2iπtη X (η )dη.
R
Nous avons donc
Z
x (−t) = e−2iπtη X (η )dη = (F X )(t)
R
Produit de convolution. Soit z = x ∗ y.
Z Z
Z( f ) = e−2iπ f t x (θ )y(t − θ )dθdt
ZR Z R
= e−2iπ f t x (θ )y(t − θ )dθdt
R R
Z Z
= e−2iπ f (t−θ ) e−2iπ f θ x (θ )y(t − θ )dθdt
ZR R Z
= e−2iπ f θ x (θ ) e−2iπ f (t−θ ) y(t − θ )dtdθ
R R
Z Z
−2iπ f θ
= e x (θ ) e−2iπ f τ y(τ )dτdθ
ZR R
Z
−2iπ f θ
= e x (θ )dθ e−2iπ f τ y(τ )dτ
R R
= X ( f ) Y ( f ).
Produit. Soit z = xy.
Z
Z( f ) = e−2iπ f t x (t)y(t)dt
R
Z Z
−2iπ f t 2iπtη
= e e F x (η )dη y(t)dt
R R
Z Z
−2iπ ( f −η )t
= e y(t)dt F x (η )dη
R R
Z
= F y( f − η )F x (η )dη
R
= ( X ∗ Y )( f ) (F y ∗ F x ) ( f )
64 représentation fréquentielle
Retard. Soit z(t) = x (t − τ ). On peut effectuer le calcul :
Z
Z( f ) = e−2iπ f t x (t − τ )dt
ZR
= e−2iπ f (θ +τ ) x (θ )dθ
R
Z
−2iπ f τ
=e e−2iπ f θ x (θ )dθ
R
= e − τ ( f ) X ( f ).
On arrive au même résultat de façon plus directe en notant que z =
δτ ∗ x, et en exploitant le résultat sur la TF du produit de convolution :
Z ( f ) = (F δτ )( f ) X ( f ) = e−τ ( f ) X ( f )
Modulation / Translation en fréquence.
Z
F (e f0 x )( f ) = e−2iπ f t e2iπ f0 t x (t) dt
ZR
= e−2iπ ( f − f0 )t x (t)dt
R
= X ( f − f 0 ).
On arrive directement au résultat en exploitant le résultat sur la TF
du produit terme à terme :
F (e f0 x ) = (F e f0 ) ∗ X = δ f0 ∗ X.
Dérivée. La TF existe si limt→∞ x (t) = 0. Une intégration par par-
ties conduit à :
Z
F x0 ( f ) = e−2iπ f t x 0 (t)dt
R
Z
−2iπ f a
= lim e x ( a) − e 2iπ f a
x (− a) + (2iπ f e−2iπ f t ) x (t) dt
a→∞ R
= (2iπ f ) X ( f ).
Par récurrence on conclut que
n o
F x (n) ( f ) = (2iπ f )n X ( f ).
Multiplication par tn . La dérivée de la TF est
d
Z
X0 ( f ) = e−2iπ f t x (t)dt
df R
d
Z
= (−2iπ ) e−2iπ f t tx (t)dt
df R
= (−2iπ )F {tx (t)} ( f )
1
Nous avons donc F {tx (t)} ( f ) = (−2iπ )
X ( f ). La propriété
1
F {tn x (t)} ( f ) = X( f )
(−2iπ )n
se déduit par récurrence.
4
ECHANTILLONNAGE ET RECONSTRUCTION
L’application d’un traitement numérique à un signal provenant du
monde réel, à temps continu, nécessite que le signal soit représenté
sous forme discrète, i.e., une suite de nombres (réels ou complexes),
qu’il est possible de stocker dans la mémoire d’un calculateur.
La notion de discrétisation a déjà été abordée dans les cours de
mathématiques :
— en CIP, l’existence de bases orthogonales des espaces de Hilbert
séparables, par exemple l’isomorphisme entre les fonctions L2
sur [0, 1] et les suites `2 (Z) donné par la série de Fourier,
— en EDP, discrétisation par éléments finis ou différences finies,
où la régularité des fonctions (au sens C k ou des espaces de
Sobolev) permet de montrer la convergence de la discrétisation
vers la fonction approximée.
Dans ce cours, la discrétisation des signaux est abordée sous l’angle
de l’échantillonnage, qui consiste à répondre à la question suivante :
sous quelles conditions est-il possible de reconstituer un signal à
temps continu x (t) à partir de ses valeurs xn à certains temps tn ?
Nous verrons dans le cas d’un échantillonnage uniforme qu’une
condition suffisante pour reconstituer un signal à partir de ses échan-
tillons est que sa transformée de Fourier soit à support compact, et
que le signal original peut-être reconstitué de façon simple à partir
de ses échantillons.
4.1 echantillonnage
Définition 4.1 (Echantillonnage). On appelle échantillonnage
l’opération qui construit un signal à temps discret xd [n] à partir
d’un signal à temps continu x (t). On se limitera ici à l’échantillon-
nage uniforme, c’est-à-dire, étant donnée une période d’échantillon-
nage Te > 0,
xd [n] = x (nTe ). (117)
On définit également la fréquence d’échantillonage f e = 1/Te .
Il est évidemment nécessaire que le signal x soit continu, sans quoi
l’équation (117) n’a pas de sens. On décide de se placer dans le cas
66 echantillonnage et reconstruction
1
0.5 0.5
|X|
x
0
0
-2 0 2 -4 -2 0 2 4
Temps [s] Fréquence f [Hz]
1
0.5 2
|X III |
x III
0 1
0
-2 0 2 -4 -2 0 2 4
Temps [s], T e = 0.25s Fréquence f [Hz], f e
= 4.00Hz
1
0.5 2
|X d |
xd
0 1
0
-10 -5 0 5 10 -1 -0.5 0 0.5 1
Indice n Fréquence réduite
Figure 24 – Echantillonnage pour f e = 4 Hz. Gauche : signaux x,
x et xd . Droite : leurs spectres. X ( f ) est f e -périodique,
son motif période est X ( f ) à un facteur multiplicatif près.
Xd (ν) est 1-périodique. Les graphes de | X ( f )| et | Xd (ν)|
sont identiques à un changement d’échelle près.
où x (t) est tel que sa transformée de Fourier est dans L1 . On sait en
effet que la transformée de Fourier d’une fonction L1 est continue
et bornée, et que les transformées de Fourier directe et inverse ont
(quasiment) les même propriétés, ce qui assure que x (t) est continu
et borné. Dans ce cas, le signal discret xd est dans `∞ .
On définit le signal x par :
x = ∑ x (nTe )δnTe (118)
n ∈Z
qu’on peut réécrire comme le produit de x et du peigne de Dirac Te :
x = Te x. (119)
x permet de relier le signal x (t) à temps continu et le signal xd [n]
à temps discret. En effet,
x = ∑ xd [n]δnTe . (120)
n ∈Z
La colonne de gauche de la figure 24 montre une représentation gra-
phique de ces trois signaux.
Le théorème suivant relie les TF de x, x et xd .
Théorème 4.1. Soit x (t) un signal dont la transformée de Fourier
X ( f ) est dans L1 , et x et xd définis comme plus haut. La transfor-
mée de Fourier X de x est donnée par :
X ( f ) = fe ∑ X ( f − n fe ) (121)
n ∈Z
4.1 echantillonnage 67
1
0.5 0.5
|X|
x 0
0
-2 0 2 -4 -2 0 2 4
Temps [s] Fréquence f [Hz]
1 1.5
0.5
|X III |
x III
0
1
-2 0 2 -4 -2 0 2 4
Temps [s], T e = 0.50s Fréquence f [Hz], f e
= 2.00Hz
1 1.5
0.5
|X d |
xd
0
1
-5 0 5 -2 -1 0 1 2
Indice n Fréquence réduite
Figure 25 – Echantillonnage pour f e = 2 Hz. Gauche : signaux x, x
et xd . Droite : leurs spectres. Dans le graphe de | X ( f )|,
les copies du motif | X ( f )| se superposent (repliement
spectral).
et la transformée de Fourier à temps discret de xd est donnée par :
Xd ( ν ) = f e ∑ X (ν f e − n f e ) . (122)
n ∈Z
f fe
Les séries convergent au sens L1 sur l’intervalle ]− 2e , 2 [, resp. sur
]− 12 , 12 [.
Démonstration. X est la TF du produit de Te et de x. C’est donc la convolution
des TF de ces deux signaux. D’après le théorème 3.6 sur la TF d’un peigne de
Dirac,
1
X (f) = 1 ∗ X ( f ) = f e ∑ X ( f − n f e ).
Te Te n ∈Z
N
∑
fe fe
Dans L1 (] − 2 , 2 [), la suite N→ X ( f − n f e ) est de Cauchy par le théorème
n=− N
f f
de convergence dominée, et convergente par complétude de L1 (] − 2e , 2e [).
La deuxième égalité du théorème s’obtient en calculant la transformée de Fourier
de (120) :
X (f) = ∑ xd [n]e−i2π f nTe = Xd ( f Te ),
n ∈Z
en posant ν = f Te = f / f e .
On retiendra que la TF d’un signal échantillonné à la fréquence f e
est f e -périodique avec une périodisation du motif X ( f ) tous les f e .
Inversement, la TF d’un signal périodique est un spectre de raies,
cf. section 3.2.
68 echantillonnage et reconstruction
Remarque (Cas d’une exponentielle complexe). Le théorème 4.1 ne
s’applique directement que si la transformée de Fourier X est dans L1 .
On peut cependant obtenir des expressions généralisées si X est une dis-
tribution à support compact. Prenons le cas d’une exponentielle complexe
/ L1 . Comme xd [n] = x (nTe ) =
x (t) = exp(2iπ f 0 t). Alors, X = δ f0 ∈
f
exp(2iπ f0e n), on calcule (voir tableau 4) :
Xd = ∑δ f0
f e −n
. (123)
n ∈Z
Ce résultat s’apparente à (122) dans la mesure où la raie spectrale pré-
f
sente en f = f 0 dans le signal X induit une raie en f0e − n pour tout
n ∈ Z dans le signal Xd . On notera que le facteur multiplicatif f e
dans (122) n’apparaît plus ici.
Interprétation du théorème 4.1
L’échantillonnage temporel équivaut à périodiser le spectre du si-
gnal. Il est en général impossible de reconstituer un signal à partir de
ses échantillons, car différentes copies du spectre peuvent se super-
poser (voir la figure 25).
Cependant, si les versions du spectre décalées de multiples de f e
ont des supports disjoints, comme c’est le cas sur la figure 24, il est
possible de reconstituer le spectre du signal original. Cette observa-
tion est formalisée dans la section suivante.
4.2 reconstruction
On montre dans cette partie que si un signal d’énergie finie est
à bande limitée et qu’il est échantillonné avec une période suffisam-
ment petite, il peut être reconstitué de manière exacte.
4.2.1 Signaux à bande limitée dans [− B, B]
Définition 4.2 (Signal à bande limitée). Un signal à bande li-
mitée est tel que le support de sa transformée de Fourier est inclus
dans [− B, B] pour B fini. On note PWB l’ensemble des signaux L2 à
bande limitée dans [− B, B]. PWB est donc l’image réciproque par la
transformée de Fourier de l’ensemble des fonctions L2 à support dans
[− B, B].
Par exemple, la fonction définie par x (t) = sinc (πt), où on rappelle
la définition de sinc donnée par l’équation (74) :
(
sin(θ )
si f 6= 0
sinc (θ ) := θ
1 si f =0
4.2 reconstruction 69
vérifie x ∈ PW 1 car sa TF vaut X = 1[− 1 , 1 ] . En utilisant les propriétés
2 2 2
de dilatation-contraction de la TF, la fonction définie par x B (t) =
sinc (2πBt) pour B > 0 vérifie x B ∈ PWB car XB = 2B 1
1[− B,B] .
Les fonctions de PWB vérifient l’hypothèse du théorème 4.1. En
effet, la TF d’une fonction x ∈ L2 est dans L2 , de plus toute fonction
X ∈ L2 à support compact est L1 .
4.2.2 Théorème de Shannon
Le théorème de Shannon, aussi appelé théorème d’échantillon-
nage, est un théorème fondamental qui établit les conditions de conser-
vation de l’information contenue dans un signal x (t) à bande limitée
lors de son échantillonnage.
Théorème 4.2 (Théorème de Shannon). Soit x ∈ PWB , et Te =
1/(2B). Alors, pour tout t ∈ R :
t − nTe
x (t) = ∑ x (nTe ) sinc π (124)
n ∈Z
Te
t − nTe
= ∑ xd [n] sinc π
n ∈Z
Te
Remarque. Comme x ∈ PWB implique x ∈ PWB0 avec B0 ≥ B, le
1
théorème est bien évidemment valable pour tout Te ≤ 2B .
Critère de Shannon pour un signal à bande limitée
Dans le cas d’une fonction d’énergie finie et à bande limitée dans
[− B, B], il est suffisant d’échantillonner à la fréquence
f e ≥ 2B (critère de Shannon)
pour reconstruire exactement le signal x (t) à partir de ses échantillons
xd [n]. Sans autre information (ex., des trous dans le spectre), cette
condition est également nécessaire : un échantillonnage à la fréquence
f e ne peut caractériser de façon unique que les signaux à spectre li-
mité dans la bande [− f e /2, f e /2].
Sur l’exemple de la figure 24, B = 1.5 Hz et f e = 4 Hz. Le critère
de Shannon est respecté ( f e ≥ 2B). Il n’est pas sur l’exemple de la
figure 25, où B = 1.5 Hz et f e = 2 Hz ( f e < 2B), d’où le phénomène
de repliement spectral.
Interprétation du théorème de Shannon
Dans l’équation (124), x (t) est interpolé à partir de ses échantillons
xd [n]. (124) s’interprète comme la convolution de x et de sinc (πt/ f e ).
La TF de cette convolution est égale au produit de la TF de x
70 echantillonnage et reconstruction
par la fenêtre rectangulaire 1[− B,B] (TF du sinus cardinal). Dans la
somme (121) et sous la condition x ∈ PWB , on note que :
— Pour n = 0, le support de la fonction f 7→ X ( f ) est inclus dans
[− B, B].
— Pour n 6= 0, le support de f 7→ X ( f − n f e ) est inclus dans
[n f e − B, n f e + B]. Ce support n’intersecte pas [− B, B].
La formule de reconstruction (124) peut donc s’interpréter comme
un filtrage passe-bas qui élimine les repliements du spectre du signal
original (induits par la discrétisation) pour les fréquences supérieures
à B. Les figures 26 et 27 montrent des reconstructions de signaux dans
les cas où le critère de Shannon est respecté ou non.
1
Signal continu
Reconstruction
Échantillons
Sinus cardinaux
0.5
-0.5
-4 -3 -2 -1 0 1 2 3 4
Figure 26 – Cas où le critère de Shannon est respecté. Reconstruction
du signal par la somme (124).
1
Signal continu
Reconstruction
Échantillons
Sinus cardinaux
0.5
-0.5
-4 -3 -2 -1 0 1 2 3 4
Figure 27 – Cas où le critère de Shannon n’est pas respecté. Recons-
truction du signal par la somme (124).
4.2.3 Démonstration du théorème de Shannon
Le théorème est démontré en deux étapes :
4.2 reconstruction 71
1. construction d’une base orthogonale de PWB , permettant d’as-
surer la convergence de (124) dans L2 .
2. analyse de la convergence simple de la série.
Base orthogonale de PWB
Lemme 4.1. La famille de fonctions sn définie par
1 sin(π (t − nTe )/Te )
sn (t) = √ , n∈Z (125)
Te π (t − nTe )/Te
est une base orthogonale de PWB . Les coefficients xn d’une fonction x ∈
PWB dans cette base sont donnés par :
√
xn = Te x (nTe ), (126)
et
x= ∑ xn sn (127)
n ∈Z
1
au sens L2 , où Te = 2B .
Démonstration. La base de Fourier de L2 ([− B, B]) est donnée par :
1 nf
∀n ∈ Z, Sn ( f ) = √ exp −i2π 1[− B,B] ( f ).
2B 2B
La transformée de Fourier étant une isométrie, les signaux obtenus par trans-
formée de Fourier inverse des Sn forment une base de PWB . Autrement dit, les
signaux {sn , n ∈ Z} forment une base de PWB . D’après l’identité de Parseval, les
coefficients Xn de X ( f ) dans la base {Sn } de L2 coïncident avec les coefficients
xn de x dans la base {sn } de PWB . Ces coefficients sont donnés par :
1 nf
Z
Xn = √ X ( f ) exp i2π df
2B [− B,B] 2B
où X = ∑n∈Z Xn Sn dans L2 . En interprétation l’intégrale comme la transformée
√ Fourier inverse de X ( f ), évaluée en t = n/(2B) = nTe , on trouve xn = Xn =
de
Te x (nTe ).
Convergence de la série
On démontre maintenant la convergence simple de la série.
La famille sn étant une base orthogonale, on observe que
k xn k22 = k x k2L2 (128)
ce qui montre que la suite ( xn )n∈Z est dans `2 . De plus, pour tout t, la
suite (sn (t))n∈Z est de carré intégrable. En interprétant (124) comme
le produit scalaire de ( xn )n∈Z et (sn (t))n∈Z , on déduit la convergence
de la série par l’inégalité de Cauchy-Schwarz.
On démontre, de plus, que la somme de la série est continue. Sur
l’intervalle t ∈ [− Te , Te ] :
— pour tout t, la suite xn sn (t) est sommable,
— pour tout n, t 7→ xn sn (t) est continue,
72 echantillonnage et reconstruction
−1
— pour tout t, | xn sn (t)| ≤ | xn | max(1, (π (|n| − 1)) ), sommable
comme produit de deux suites de `2 .
On en déduit la continuité de la série sur [− Te , Te ]. On peut reprendre
cette démonstration sur tout intervalle de la forme [− Te + kTe , Te +
kTe ] pour démontrer que continuité sur R entier. La somme de la
série étant continue, et égale à la fonction continue x (t) au sens L2 , la
série convergence simplement vers x (t) (pour tout t).
Pour aller plus loin...
Pour les signaux dont la TF est une distribution à support dans [− B, B] (ce
qui assure continuité et croissance au plus polynomiale), le théorème doit
être légèrement modifié. La fréquence d’échantillonnage f e = 1/Te doit être
strictement plus grande que 2B, et le signal x (t) est reconstruit par la formule
∀t ∈ R, x (t) = ∑ x (nTe )φ(t − nTe ) (129)
n ∈Z
où φ est choisie telle que sa transformée de Fourier Φ vérifie :
— Φ ∈ C∞ ,
— Φ( f ) = 1/ f e pour | f | ≤ B,
— Φ( f ) = 0 pour | f | ≥ f e /2.
La série (129) peut être écrite comme la convolution x ∗ φ. Sa TF vaut :
X ( f )Φ( f ) = f e ∑ X ( f − n f e ) Φ ( f ). (130)
n ∈Z
Les hypothèses sur Φ et sur le support de X ( f ) permettent de sélectionner
uniquement le terme de la série pour n = 0, i.e., de reconstituer X ( f ).
De plus, la régularité de Φ est nécessaire pour garantir la convergence simple
de (129). En effet, les échantillons x (nTe ) ne sont plus bornés, mais seulement
à croissance au plus polynomiale. La régularité de Φ implique que φ décroît
plus vite que tout polynôme, ce qui garantit la convergence de la série.
4.2.4 Signaux à bande limitée dans [ A, B]
Le théorème d’échantillonnage (théorème 4.2) est énoncé pour des
signaux à bande limitée dans [− B, B]. Les signaux dits « modulés »,
ayant un support inclus dans un intervalle non symétrique [ A, B],
peuvent évidemment être considérés comme des signaux à bande li-
mitée dans [−C, C ], avec C = max(| A|, | B|)). On peut alors appliquer
le théorème d’échantillonnage pour f e ≥ 2C. On montre dans ce qui
suit que la borne f e ≥ 2C peut être améliorée, permettant ainsi d’uti-
liser une fréquence d’échantillonnage inférieure à 2C.
Critère de Shannon pour un signal modulé
Soit x (t) un signal d’énergie finie et à bande limitée dans [ A, B].
En supposant la fréquence centrale A+ B
2 connue, il est possible de re-
construire x (t) à partir du signal échantillonné xd [n] à une fréquence
f e ≥ B − A. (131)
4.3 l’échantillonnage en pratique 73
En effet, le signal en « bande de base » (i.e., non modulé) s’écrit :
A+ B
y(t) = x (t) e−i2π 2 t = x (t) e−iπ ( A+ B)t . (132)
En utilisant les propriétés de la transformée de Fourier (cf. tableau 1
pour la TF d’un signal modulé),on montre facilement que y(t) est à
bande limitée dans − B−2 A , B−2 A . Le théorème de Shannon appliqué
à y(t) garantit alors la reconstruction exacte de y(t) pour f e ≥ B − A :
y(t) = ∑ y(nTe ) sinc (π (t − nTe )/Te ).
n ∈Z
En utilisant (132), on déduit la formule de reconstruction de x (t) :
x (t) = ∑ x (nTe ) sinc (π (t − nTe )/Te ) eiπ ( A+ B)(t−nTe ) .
n ∈Z
On remarque que cette formule fait intervenir A + B. Concrètement,
il est nécessaire de connaître la valeur de la fréquence centrale A+
2
B
pouvoir reconstruire le signal x (t).
4.3 l’échantillonnage en pratique
4.3.1 Filtre anti-repliement
Le théorème de Shannon suppose que le signal à échantillonner
a un spectre à support compact. Ce n’est évidemment pas toujours
le cas en pratique. Même quand le spectre du signal à échantillon-
ner est à support compact, il n’est pas toujours possible d’utiliser
une fréquence d’échantillonnage assez élevée. L’échantillonnage est
donc toujours précédé par un filtrage passe-bas du signal, coupant la
bande de fréquence au dessus de f e /2. Il est à noter que ce filtre est
forcément implémenté sous forme analogique.
4.3.2 Reconstruction non idéale
Les formules de reconstruction (124) et (129) posent plusieurs pro-
blèmes de mise en œuvre en pratique. En effet, la reconstruction de x
à un temps t nécessite la connaissance de tous les échantillons x (nTe ),
y compris ceux situés dans le futur. Le bloquage d’ordre zéro est une
technique simple permettant d’approximer le signal à reconstruire.
Le signal bloqué x̃ (t) est le signal en escalier défini par :
x̃ (t) = ∑ xd [n] 1[nTe ,(n+1)Te [ (t). (133)
n ∈Z
La reconstruction au temps t ne nécessite que la connaissance de
l’échantillon à l’instant précédent nTe , où n = bt/Te c.
Le bloqueur d’ordre zéro peut être analysé en écrivant :
x̃ = 1[0,Te [ ∗ x . (134)
74 echantillonnage et reconstruction
Signal continu
1 Reconstruction par blocage
Échantillons
0.5
-0.5
-4 -3 -2 -1 0 1 2 3 4
Temps t [s]
0.6 Signal continu
Reconstruction par blocage
0.4
|X(f)| 0.2
0
-10 -5 0 5 10
Fréquence f [Hz]
Figure 28 – Reconstruction par blocage d’ordre 0. Le filtrage du si-
gnal dans la bande utile et les copies du spectre atténuées
par le bloqueur sont visibles sur le spectre.
Le spectre de x̃ est donc donné par
−iπ f Te sin π f Te
X̃ ( f ) = X ( f ) Te e . (135)
π f Te
Les effets du blocage d’ordre zéro sont :
— l’introduction d’un décalage temporel de durée Te /2 (terme
e−iπ f Te ),
— un filtrage du signal dans la bande utile ((sin π f Te )/(π f Te )
n’est pas constant dans la bande utile),
— la présence de repliements du spectre atténués en 1/ f .
Les deux derniers effets peuvent être limités par l’utilisation d’un
filtrage analogique passe-bas appliqué à x̃.
4.4 conclusion
La théorie de l’échantillonnage permet de relier les spectres d’un si-
gnal continu x (t) et de sa version échantillonnée xd . Nous retiendrons
en premier lieu que l’échantillonnage d’un signal avec une période Te
se traduit par une périodisation du spectre avec la période f e = 1/Te .
De plus, l’information contenue dans x (t) est préservée si le critère
de Shannon est satisfait, à savoir f e ≥ 2B où B est la fréquence maxi-
male contenue dans le signal x. Dans ce cas, on peut (théoriquement)
reconstruire parfaitement x (t) à partir des valeurs de xd [n], n ∈ Z.
Si le critère de Shannon n’est pas satisfait, on utilise un filtre anti-
repliement (passe-bas) en amont de l’échantillonnage. Dans ce cas, le
signal reconstruit à partir des échantillons est une version approchée
du signal x (t), contenant ses composantes basse-fréquence.
5
S I G N A U X M O D É L I S É S PA R D E S P R O C E S S U S
A L É AT O I R E S
La théorie des signaux déterministes atteint ses limites pour traiter
et modéliser des signaux dont les valeurs ne sont pas parfaitement
connues (on ne peut alors pas décrire le signal par une fonction de
R dans R). Les processus aléatoires sont des modèles probabilistes
permettant de caractériser les propriétés statistiques des signaux et
de construire des traitements exploitant ces propriétés.
Prenons l’exemple d’une mesure physique entachée de bruit. Le
cadre déterministe ne permet pas de proposer un modèle qui expli-
citerait la valeur du bruit à chaque instant. Grâce aux processus aléa-
toires, il est possible de caractériser les propriétés statistiques du bruit
et du signal utile afin de débruiter le signal et réduire l’influence du
bruit (un tel traitement sera détaillé à la section 6.5.3).
Considérons un deuxième exemple : en traitement de la parole,
deux sons peuvent sembler identiques alors que les valeurs des deux
signaux associés sont très différentes. L’étude des propriétés statis-
tiques de ces signaux permet de classifier différents sons dans le cadre
de la reconnaissance vocale. A partir de ces propriétés statistiques, il
est aussi possible de synthétiser de nouveaux signaux très similaires
du point de vue auditif (par exemple pour la synthèse vocale). Ces
aspects seront à nouveau abordés dans la section 6.4.2.
5.1 définition et caractérisation des processus aléa-
toires
Les processus aléatoires (à temps discret) sont une généralisation
des vecteurs aléatoires afin de construire des modèles de signaux à
support infini contrairement aux vecteurs aléatoires, définis à partir
de N variables aléatoires scalaires et qui sont donc de dimension finie.
5.1.1 Définition
Nous nous limiterons aux processus aléatoires à temps discret.
76 signaux modélisés par des processus aléatoires
Définition 5.1 (processus aléatoire à temps discret). Un proces-
sus aléatoire discret noté Xn est une suite de variables aléatoires
{ Xn (ω )}n∈Z définies sur un espace de probabilité (Ω, F , P ).
En traitement du signal, l’indice n correspond à la variable d’évo-
lution du signal (par exemple le temps ou l’espace).
On appelle réalisation 1 du processus Xn , le signal déterministe,
noté x [n], construit à partir d’une réalisation de la famille de variables
aléatoires { Xn (ω )}n∈Z . Ainsi, pour ω donné, on a :
∀n ∈ Z, x [ n ] = Xn ( ω ).
Il convient de bien distinguer deux notions complémentaires :
— le processus aléatoire qui est une suite de variables aléatoires
modélisant les signaux,
— la/les réalisation(s) du processus qui sont les signaux observés.
En traitement du signal et en statistique, on utilise les réalisations
pour estimer les propriétés statistiques du processus aléatoire. La spé-
cificité du traitement du signal est que les propriétés du processus
aléatoire sont exploitées pour traiter les signaux observés afin d’amé-
liorer leur qualité (par ex. suppression de bruit, déconvolution pour
supprimer le flou introduit par un appareil de mesure).
Remarque. On utilise aussi les termes processus stochastiques ou
signaux aléatoires pour désigner les processus aléatoires. La réalisation
d’un processus aléatoire est aussi appelée trajectoire ou observation.
Exemple 5.1. Voici trois exemples de processus avec une représentation
de quelques-unes de leurs réalisations, voir Fig. 29 :
1. Suite de variables i.i.d Xn = An avec An ∼ N (0, σ2 )
2. Processus constant à valeur aléatoire : Yn = A avec A ∼ N (0, σ2 )
3. Modulation d’amplitude par des variables aléatoires
Zn = A cos(2πν0 n) + B sin(2πν0 n) où ( A, B) ∼ N (0 , Σ ).
1. En statistique, on parle de données plutôt que de réalisations.
5.1 définition et caractérisation des processus aléatoires 77
Figure 29 – Quelques réalisations de trois processus aléatoires.
Pour aller plus loin...
Processus aléatoire à temps continu.
La définition la plus générale d’un processus aléatoire est la suivante.
Définition 5.2. Un processus aléatoire X (ω, t) est une application définie
par
X : Ω × T −→ K
(ω, t) 7−→ X (ω, t),
où
— (Ω, E , P) est un espace probabilisé,
— K est un espace topologique ou mesurable (en général un espace
vectoriel réel ou complexe normé),
— T est un ensemble,
et telle que pour tout t ∈ T , l’application partielle
Ω −→ K
ω 7−→ X (ω, t)
soit une variable aléatoire.
La variable t est la variable d’évolution du signal, il s’agit en général du
temps ou de l’espace. Pour ω0 fixé, X (ω0 , t) est une réalisation du processus.
C’est un signal qui ne dépend plus que de la variable d’évolution t.
Selon l’ensemble défini par T , on obtient un processus à temps discret ou
continu :
— t ∈ R : processus continu
— t ∈ Z : processus discret (on note plutôt X (ω, n) avec n ∈ Z )
5.1.2 Lois fini-dimensionelles
Les lois fini-dimensionnelles sont la généralisation pour un proces-
sus aléatoire, de la loi de probabilité d’un vecteur aléatoire.
78 signaux modélisés par des processus aléatoires
Définition 5.3 (lois fini-dimensionnelles). Pour N > 0, les lois
fini-dimensionnelles d’ordre N sont les lois de probabilité jointes défi-
nies pour tout (n1 , n2 , . . . , n N ) ∈ Z N par
P( Xn1 ∈ [ a1 , b1 ], Xn2 ∈ [ a2 , b2 ], . . . , Xn N ∈ [ a N , b N ]).
Un processus aléatoire est entièrement décrit par l’ensemble de ses
lois fini-dimensionnelles. Cependant, il s’agit d’une caractérisation
complexe et difficile à expliciter. Elle est rarement utilisée en pratique.
5.1.3 Processus gaussien
Définition 5.4 (Processus gaussien). Un processus est gaus-
sien si ses lois fini-dimensionnelles sont normales : ∀ N > 0,
∀(n1 , n2 , · · · , n N ) ∈ Z N ,
( Xn1 , Xn2 , . . . , Xn N ) ∼ N (µn1 ,n2 ,...,n N , Σn1 ,n2 ,...,n N )
ou de manière équivalente, si toute combinaison linéaire finie de Xn
est une variable aléatoire gaussienne : ∀ N > 0, ∀(n1 , n2 , · · · , n N ) ∈
Z N , ∀(α1 , α2 , · · · , α N ) ∈ R N ,
N
∃µ, σ : ∑ α i Xn i
∼ N (µ, σ2 ).
i =1
Notons que la gaussianité des lois marginales de Xn n’implique pas
que le processus est gaussien. Il existe des processus non gaussiens
dont les variables aléatoires Xn sont gaussiennes pour tout n.
5.1.4 Moyenne et autocorrélation
Nous avons vu que la description complète d’un processus par
ses lois fini-dimensionnelles est une tâche difficile. On se contente
souvent de caractériser partiellement un processus par ses deux pre-
miers moments : la moyenne et l’autocorrélation. Par exemple, pour
caractériser différents phonèmes de parole, l’étude des deux premiers
moments du signal permet de distinguer un son /f/ d’un son /s/.
Une deuxième motivation pour s’intéresser à ces deux premiers
moments est que dans le cas particulier des processus gaussiens, ils
caractérisent entièrement le processus. Il est important de noter que
dans le cas général, il s’agit d’une caractérisation partielle.
5.1 définition et caractérisation des processus aléatoires 79
Définition 5.5 (Moyenne). On définit la moyenne (ou moment
d’ordre 1) d’un processus Xn par
µ X [ n ] = E( Xn ).
Définition 5.6 (Autocorrélation). On définit l’autocorrélation
(ou moment d’ordre 2) d’un processus Xn par
r X [n1 , n2 ] = E Xn1 Xn∗2 .
Remarque. Les variables aléatoires Xn appartiennent à L2 (Ω, F , P ) si
E(| Xn |2 ) < ∞. L’autocorrélation r X [n1 , n2 ] = E Xn1 Xn∗2 coïncide
avec le produit scalaire de Xn1 et Xn2 dans L2 (Ω, F , P ).
µ X et r X sont des signaux déterministes. µ X [n] donne la valeur
moyenne du processus à l’instant n, et r X [n1 , n2 ] donne la corrélation
du processus entre les instants n1 et n2 .
Pour la plupart des processus modélisant des phénomènes phy-
siques, r X [n1 , n2 ] décroît quand |n2 − n1 | devient grand. Intuitive-
ment, cela correspond au fait que deux échantillons pris à des instants
proches sont plus corrélés que deux échantillons éloignés.
Définition 5.7 (Intercorrélation). On définit l’intercorrélation
entre deux processus Xn et Yn par
r XY [n1 , n2 ] = E Xn1 Yn∗2
Remarque. L’intercorrélation d’un processus avec lui-même correspond
à son autocorrélation : r XX [n1 , n2 ] = r X [n1 , n2 ].
Définition 5.8 (Décorrélation). Les processus Xn et Yn sont dit
décorrélés si
∀n1 , n2 ∈ Z, r XY [n1 , n2 ] − µ X [n1 ]µY∗ [n2 ] = 0,
ou encore :
∀n1 , n2 ∈ Z, E ( Xn1 − µ X [n1 ])(Yn∗2 − µY∗ [n2 ]) = 0.
Remarque. Si Z = X + Y avec X et Y décorrélés et centrés alors :
r Z [ n 1 , n 2 ] = r X [ n 1 , n 2 ] + rY [ n 1 , n 2 ] .
80 signaux modélisés par des processus aléatoires
Pour aller plus loin...
On peut aussi définir le moment d’ordre 2 centré, dénommé autocovariance :
E (( Xn1 − µ X [n1 ])(Yn2 − µY [n2 ])∗ ). De la même manière, on définit aussi
l’intercovariance E (( Xn1 − µ X [n1 ])(Yn2 − µY [n2 ])∗ ). Si Xn et Yn sont centrés,
leur auto/inter-covariances coïncident avec leur auto/inter-corrélations.
5.2 processus stationnaires
La stationnarité est une propriété clé qui permet de nombreuses
simplifications calculatoires. Elle se traduit par le fait que les proprié-
tés statistiques ne changent pas au cours du temps. Un exemple tri-
vial de processus non stationnaire est un processus dont la moyenne
µ X [n] n’est pas constante en fonction de n.
5.2.1 Stationnarité stricte
Définition 5.9 (Stationnarité stricte). Un processus est dit stricte-
ment stationnaire si ses lois fini-dimensionnelles sont invariantes
par translation : pour tous N > 0 et k ∈ Z, les vecteurs aléatoires
( Xn1 , . . . , Xn N ) et ( Xn1 +k , . . . , Xn N +k ) ont des lois identiques.
La stationnarité au sens strict est en général difficile à établir et d’un
intérêt pratique limité. C’est pourquoi on s’intéresse uniquement à la
stationnarité au sens large.
5.2.2 Stationnarité au sens large
Définition 5.10 (Stationnarité au sens large (SSL)). Un processus
est dit stationnaire au sens large (SSL) (ou stationnaire d’ordre
deux ou stationnaire au sens faible) si :
— la moyenne ne dépend pas du temps :
∀n, µ X [n] = µ X
— il est de puissance finie : ∀n, E(| Xn |2 ) < ∞
— l’autocorrélation ne dépend que l’écart de temps entre les deux
instants considérés :
∀ n1 , n2 r X [ n1 , n2 ] = γ X [ n1 − n2 ].
Notons que si Xn est SSL, E(| Xn |2 ) = r X [n, n] est constant, et r X [n +
k, n] = E( Xn+k Xn∗ ) = E( Xn Xn∗−k ). On utilisera la notation simplifiée
γX [k ] := r X [n + k, n] = E( Xn+k Xn∗ ) (136)
5.2 processus stationnaires 81
pour l’autocorrélation. De même, l’intercorrélation entre deux proces-
sus conjointement stationnaires sera notée :
γXY [k] := E( Xn+k Yn∗ ). (137)
En résumé, il convient de distinguer la fonction d’autocorrélation
à deux variables r X [n1 , n2 ] (définie pour tous les processus) et la fonc-
tion d’autocorrélation γX [k ], définie uniquement pour les processus
stationnaires. Dans ce qui suit, tous les processus sont supposés sta-
tionnaires au sens large. Cela implique que leurs moments d’ordre
deux sont finis. On utilisera les notations γX et γXY .
Définition 5.11 (Variance). On définit la variance d’un processus
stationnaire Xn par :
σX2 = E(| Xn − µ X |2 ) = E(| Xn |2 ) − |µ X |2 .
Définition 5.12 (Puissance). La puissance d’un processus station-
naire Xn est la valeur de l’autocorrélation en zéro :
PX = E(| Xn |2 ) = γX [0] = σX2 + |µ X |2 .
Pour un processus centré, la puissance est égale à la variance.
Définition 5.13 (Rapport signal-sur-bruit). Le rapport signal-
sur-bruit quantifie la perturbation d’un processus stationnaire Xn =
Un + Wn , où Un est le signal utile et Wn le bruit perturbateur. Il est
défini par le rapport des puissances de Un et Wn . Il est le plus souvent
exprimé en dB :
E(|Un |2 )
SNRdB = 10 log10 . (138)
E(|Wn |2
Propriété. L’autocorrélation d’un processus stationnaire est finie et
maximale en zéro :
∀k ∈ Z, |γX [k]| ≤ γX [0].
Démonstration. Le résultat découle de l’inégalité de Cauchy-Schwarz avec
γX [k] = h Xn+k , Xn i (en notant h , i le produit scalaire entre variables aléatoires).
Par définition d’un processus stationnaire au sens large, γX [0] est fini.
Propriété. L’autocorrélation est à symétrie hermitienne :
∗
∀k ∈ Z, γX [k] = γX [−k]
82 signaux modélisés par des processus aléatoires
Démonstration. γX [−k] = E( Xn−k Xn∗ ) = E( Xn∗−k Xn )∗ = γX
∗ [ k ].
5.2.3 Densité spectrale de puissance
Il est important de pouvoir caractériser un processus aléatoire dans
le domaine fréquentiel. Par exemple, les signaux de télécommunica-
tion sont couramment modélisés par des processus aléatoires, et on
souhaite quantifier la bande spectrale utilisée par ces signaux pour
optimiser les canaux de transmissions. L’outil principal pour caracté-
riser les processus aléatoires stationnaires dans le domaine fréquen-
tiel est la Densité Spectrale de Puissance (DSP).
Définition 5.14. La Densité Spectrale de Puissance (DSP) d’un
processus aléatoire stationnaire Xn est définie par :
2
N
1
∀ν ∈ R, Γ X (ν) = lim E
N →∞ 2N + 1 k=− ∑ Xk e−i2πkν .
N
Théorème 5.1 (Wiener-Khinchin). La densité spectrale de puis-
sance est la transformée de Fourier de l’autocorrélation du processus :
∀ν ∈ R, Γ X (ν) = ∑ γX [k]e−i2πνk .
k ∈Z
Démonstration. Par définition de la DSP :
N 2
1
Γ X (ν) = lim E
N →∞ 2N + 1 k=−∑ Xk exp(−i2πkν) . (139)
N
On écrit :
N 2
1
N
ΓX (ν) = E
2N + 1 ∑ Xk exp(−i2πkν)
k =− N
!∗ !!
N N
1
=
2N + 1
E ∑ Xk exp(−i2πkν) ∑ Xk exp(−i2πkν)
k =− N k=− N
!
N N
1
=
2N + 1
E ∑ ∑ Xk∗ Xn exp(−i2π (n − k)ν)
k=− N n=− N
N N
1
= ∑ ∑ γ [n − k] exp(−i2π (n − k )ν)
2N + 1 k=− N n=− N X
2N
2N + 1 − |m|
= ∑ 2N + 1
γX [m] exp(−i2πmν)
m=−2N
2N + 1 − |m|
= ∑ max 0, γX [m] exp(−i2πmν)
m ∈Z
2N + 1
Si γX ∈ L1 , on peut borner les termes de la série par |γX [m]| et appliquer le
théorème de convergence dominée pour intervertir limite et somme. On trouve :
N →∞
N
Γ X (ν) = lim Γ X (ν) = ∑ γX [m] exp(−i2πmν).
m ∈Z
5.2 processus stationnaires 83
De plus, Γ X (ν) est continue.
/ L1 , il faut calculer la limite au sens des distributions pour montrer que
Si γX ∈
D E D E
lim Γ X N
, φ = ∑ γX [m]δm , Φ
N →∞ m ∈Z
où φ est une fonction test et Φ sa transformée de Fourier.
En pratique, on utilise plus fréquemment l’expression de la DSP
donnée par le théorème de Wiener-Khinchin car il est plus simple de
calculer la transformée de Fourier de l’autocorrélation du processus
que d’appliquer le passage à la limite et l’espérance à partir de la
définition de la DSP.
Propriété. La densité spectrale de puissance est réelle et positive :
∀ν, Γ X (ν) ∈ R+
Ces propriétés se déduisent directement de la définition.
Remarque. Si le processus Xn est réel, alors sa DSP Γ X (ν) est paire :
∀ν, Γ X (ν) = Γ X (−ν).
En effet, si Xn est réel, alors γX [k ] est réel. Comme γX est à symétrie her-
mitienne, on a γX [−k ] = γX [k ] pour tout k ∈ N. D’après les propriétés
de la transformée de Fourier, Γ X (ν) est paire.
Propriété. La puissance d’un processus stationnaire est égale à l’in-
tégrale de la densité spectrale de puissance :
Z 1/2
γ X [0] = Γ X (ν)dν.
−1/2
Démonstration. D’après le théorème de Wiener-Khinchin, l’autocorrélation est la
transformée de Fourier inverse de la DSP :
Z 1/2
γX [n ] = Γ X (ν)ei2πνn dν
−1/2
Pour n = 0 on retrouve l’expression de la puissance.
Ce résultat justifie la dénomination de densité spectrale de puis-
sance : en intégrant la densité dans le domaine spectral, on obtient
la puissance du processus. En intégrant la DSP dans une bande fré-
quentielle restreinte, on obtient la puissance du processus dans cette
bande de fréquence.
Méthodologie de calcul
La méthodologie usuelle pour calculer analytiquement la DSP d’un
processus aléatoire est la suivante :
84 signaux modélisés par des processus aléatoires
1. Calculer la moyenne µ X [n] = E( Xn )
2. Calculer l’autocorrélation : r X [k1 , k2 ] = E( Xk1 Xk∗2 )
3. Vérifier que le processus est SSL :
— µ X [k] = µ X ,
— r X [ k 1 , k 2 ] = γX [ k 1 − k 2 ]
4. Vérifier la cohérence des calculs à l’aide des propriétés de γX [k ] :
— γX [0] ≥ |γX [k ]|,
∗ [− k ].
— γX [ k ] = γX
5. Calculer la densité spectrale de puissance : Γ X (ν) = F γX (ν).
5.2.4 Bruit blanc
Le bruit blanc est un processus aléatoire couramment utilisé pour
modéliser différentes sources d’erreur :
— les erreurs de mesure liées à l’imperfection des capteurs (bruit
de mesure) ;
— l’inexactitude du modèle mathématique utilisé pour représen-
ter les données (bruit de modèle), lorsque ce modèle est trop
approximatif.
Le bruit blanc modélise alors la partie nuisible (non informative)
contenue dans les données. Dans certaines situations, il permet au
contraire de décrire la partie utile (informative) des données. Lorsque
le bruit blanc est placé en entrée d’un filtre, le signal aléatoire obtenu
en sortie décrit la diversité des signaux observables en pratique.
Définition 5.15 (bruit blanc au sens strict). Un processus Wn est
un bruit blanc au sens strict s’il vérifie les propriétés suivantes :
— Wn est un processus centré et stationnaire au sens large,
— γW [n] = σ2 δ[n],
— Wn et Wk sont indépendants si k 6= n.
Définition 5.16 (bruit blanc au sens large). Un processus Wn est
un bruit blanc au sens large (ou au sens faible) de variance σ2 s’il
vérifie les propriétés suivantes :
— Wn est un processus centré et stationnaire au sens large,
— γW [n] = σ2 δ[n].
Remarque.
— Un bruit blanc étant centré, sa puissance est égale à sa variance :
PW = σ2 .
— Un bruit blanc gaussien est un bruit blanc au sens strict car la dé-
corrélation implique l’indépendance pour les processus gaussiens.
5.2 processus stationnaires 85
Propriété. Si Wn est un bruit blanc au sens large, alors :
— Wn et Wm sont décorrélés pour n 6= m.
— Sa DSP est constante : ΓW = σ2 1R .
Le bruit blanc tire son nom de cette dernière propriété par analo-
gie avec la lumière blanche dont le spectre contient toutes les compo-
santes fréquentielles dans les mêmes proportions.
Convention. Dans toute la suite du polycopié, la dénomination courte
« bruit blanc » fait référence à un bruit blanc au sens large.
Exemple 5.2. Soit deux processus : un bruit blanc (à gauche sur la figure
30), et un bruit coloré (à droite). La figure 30 représente une réalisation
de chacun, leurs autocorrélations et leurs DSP.
— Réalisations : Du point de vue empirique, en observant une réali-
sation de chaque processus, on remarque qu’à gauche, pour le bruit
blanc, les valeurs successives semblent décorrélées entre elles ; tan-
Figure 30 – Comparaison des caractéristiques d’un bruit blanc
(gauche) et d’un bruit coloré (droite).
86 signaux modélisés par des processus aléatoires
dis qu’à droite, on observe une alternance positive/négative des va-
leurs traduisant une certaine corrélation.
Du point de vue théorique, on peut confirmer les commentaires précédents
à partir des caractéristiques des processus :
— Autocorrélation : l’autocorrélation du bruit blanc est de forme im-
pulsionnelle, tandis que l’autocorrélation du bruit coloré fait ressor-
tir la corrélation positive entre les échantillons espacés d’un nombre
de points pair et négative pour les intervalles impairs.
— Densité Spectrale de Puissance : la DSP du bruit blanc est
constante. Celle du bruit coloré comporte principalement des hautes
fréquences ce qui est cohérent avec les variations rapides observées
sur la réalisation.
5.2.5 Filtrage linéaire de processus
Le filtrage linéaire convolutif est l’une des principales opérations
utilisées en traitement du signal. L’objet de cette section est de déter-
miner les propriétés d’un processus filtré.
Formule des interférences
Figure 31 – Filtrage linéaire de deux processus aléatoires.
Théorème 5.2 (Formule des interférences). Soit :
— Xn et Xn0 deux processus aléatoires stationnaires au sens large,
— h et h0 les réponses impulsionnelles (`1 ) de deux filtres stables,
— les processus filtrés Yn et Yn0 sont définis par
Yn = (h ∗ X )n = ∑ h [ k ] Xn − k
k ∈Z
Yn0 = (h0 ∗ X 0 )n = ∑ h0 [k]Xn0 −k
k ∈Z
Alors :
— les processus filtrés Yn et Yn0 sont stationnaires,
— l’intercorrélation entre Yn et Yn0 est donnée par :
γYY0 = h ∗ h̄0 ∗ γXX 0
avec h̄0 [k] = h0∗ [−k ].
5.2 processus stationnaires 87
Démonstration.
γYY 0 [k] = E(Yn+k Yn0∗ )
= E∑ ∑ h [i ] h 0∗
[ j] Xn+k−i Xn0∗− j
i ∈Z j ∈Z
= ∑ ∑ h[i]h0∗ [ j]E(Xn+k−i Xn0∗− j )
i ∈Z j ∈Z
= ∑ h0∗ [ j] ∑ h[i]γXX0 [ j + k − i]
j ∈Z i ∈Z
= ∑h 0∗
[ j] g[ j + k] avec g = h ∗ γXX 0
j ∈Z
= ∑ h̄0 [− j] g[ j + k]
j ∈Z
= ∑ h̄0 [ j] g[k − j]
j ∈Z
= (h̄0 ∗ g)[k]
= (h̄0 ∗ h ∗ γXX 0 )[k]
Ce théorème (appelé formule des interférences) est très important
car il permet d’exprimer les moments d’ordre deux des processus
filtrés en fonction des réponses impulsionnelles des filtres et des mo-
ments des processus d’entrée.
Ce théorème se décline sur de nombreuses applications pratiques
dont quelques cas particuliers sont détaillés ci-dessous.
Autocorrélation et DSP d’un processus filtré
Corollaire 5.1. Soit
— Xn un processus stationnaire au sens large,
— h la réponse impulsionnelle (`1 ) d’un filtre stable.
Le processus filtré Yn = h ∗ Xn possède les propriétés suivantes :
— l’autocorrélation de Yn est : γY = h ∗ h̄ ∗ γX ,
— la DSP de Yn est : ΓY (ν) = | H (ν)|2 Γ X (ν).
Démonstration. On applique la formule des interférences avec : X 0 = X et h0 = h,
puis on utilise la propriété de la transformé de Fourier : F h̄(ν) = H ∗ (ν).
Ce corollaire important permet d’expliciter la DSP (et l’autocorréla-
tion) du processus filtré en fonction de celle du processus d’entrée.
Identification de la réponse d’un filtre linéaire
L’identification de la réponse impulsionnelle d’un filtre linéaire in-
connu est un problème classique. Une méthode consiste à introduire
un bruit blanc en entrée du filtre, et à calculer l’intercorrélation entre
ce bruit blanc et le signal mesuré en sortie du filtre.
88 signaux modélisés par des processus aléatoires
Corollaire 5.2. Soit
— Wn un bruit blanc,
— h la réponse impulsionnelle (`1 ) d’un filtre stable.
L’intercorrélation entre le bruit en entrée Wn et le processus filtré Yn =
h ∗ Wn est égale à la réponse impulsionnelle du filtre :
γYW [k ] = h[k ].
Démonstration. On applique la formule des interférences avec les entrées Xn :=
Wn et Xn0 := Wn , et les filtres h[n] et h0 [n] := δ[n].
Les signaux en sortie des filtres s’écrivent Yn = (h ∗ W )n et Wn = (h0 ∗ W )n .
Finalement, γYW = h ∗ h̄0 ∗ γWW = h ∗ δ ∗ γW = h.
5.2.6 Processus autorégressif
Les processus autorégressifs (AR) sont des modèles couramment
utilisés pour représenter des séries chronologiques aussi variées que
des mesures de pollution, des valeurs financières ou des phonèmes
de parole. Ils permettent de prédire des données futures à partir d’ob-
servations passées. Une deuxième raison justifiant l’utilisation des
modèles AR est que l’estimation de leurs paramètres est relativement
simple comme nous le verrons dans le chapitre 6.
Définition
Définition 5.17. (Processus autorégressif) Un processus autorégres-
sif (AR) d’ordre p est un processus obtenu par filtrage d’un bruit
blanc avec un filtre stable de fonction de transfert :
1
H (ν) = p , où a1 , . . . , a p ∈ R.
1 − ∑k=1 ak e−i2πkν
Relation temporelle : équation aux différences
D’après les résultats de la section 3.5.1, on peut définir un processus
AR dans le domaine temporel à l’aide d’une équation aux différences.
Théorème 5.3. Un processus autorégressif Yn d’ordre p s’écrit :
p
Yn = ∑ ak Yn−k + Wn (140)
k =1
où Wn est un bruit blanc.
Remarque. La réponse impulsionnelle du filtre est de durée infinie. Pour
exprimer la relation entrée-sortie, il est plus pertinent d’utiliser l’équation
aux différences finies qui ne fait intervenir qu’un nombre fini de termes
Yn−k (et donc de paramètres) pour décrire le filtre.
5.2 processus stationnaires 89
Paramètres d’un modèle AR
Un processus AR d’ordre p est donc entièrement décrit par :
— la variance σ2 du bruit blanc générateur Wn ,
— les coefficients { ak }1≤k≤ p de l’équation aux différences finies.
DSP d’un modèle AR
Un processus AR étant un bruit blanc filtré, sa DSP s’exprime aisé-
ment à l’aide du corollaire 5.1 :
2
1
ΓY ( ν ) = σ 2
p . (141)
1 − ∑k=1 ak e−i2πkν
Autocorrélation d’un modèle AR
Propriété. L’autocorrélation d’un processus AR satisfait :
p
∀k ≥ 0, γY [k] = ∑ ai γY [k − i] + σ2 δ[k] (142)
i =1
avec γY [k ] = γY [−k ] pour k < 0.
Démonstration.
γY [k] = E(Yn Yn−k )
p
! !
=E ∑ ai Yn−i + Wn Yn−k
i =1
p
= ∑ ai E (Yn−i Yn−k ) + E (Wn Yn−k )
i =1
p
= ∑ ai γY [k − i] + σ2 δ[k]
i =1
La relation E (Wn Yn−k ) = σ2 δ[k] se déduit de (140) et du fait que Wn est un bruit
blanc (E(Wi Wj ) = σ2 δ[i − j]). En effet, d’après (140), Yn−k ne dépend que de Wi
aux instants i ≤ n − k. On obtient :
— pour k > 0, E (Wn Yn−k ) = 0 ;
— pour k = 0,
E (Wn Yn−k ) = E (Wn Yn )
p
= E Wn ∑ ai Yn−i + Wn
i =1
p
= ∑ ai E(Wn Yn−i ) + E(Wn2 )
i =1
= 0 + σ2 .
90 signaux modélisés par des processus aléatoires
Les équations (142) obtenues pour 0 ≤ k ≤ p sont appelées équa-
tions de Yule-Walker. A partir de ces p + 1 équations linéaires, on
peut estimer les p + 1 paramètres du modèle, { a1 , a2 , . . . , a p , σ2 }. On
reviendra sur ce sujet au chapitre 6.
5.3 conclusion
On retiendra en premier lieu la définition d’un processus à temps
discret stationnaire et sa caractérisation par ses deux premiers mo-
ments (moyenne et fonction d’autocorrélation) dans le domaine tem-
porel, et par sa densité spectrale de puissance dans le domaine fré-
quentiel.
Un autre concept central est celui de bruit blanc. On retiendra que
la fonction d’autocorrélation d’un bruit blanc est impulsionnelle, et
que sa DSP est constante quelles que soient les fréquences.
Enfin, on retiendra que le filtrage d’un bruit blanc génère un pro-
cessus stationnaire (par exemple, un modèle AR). La formule des
interférences est un outil important pour caractériser le processus gé-
néré dans les domaines temporel et fréquentiel.
6
E S T I M AT I O N B A S É E S U R D E S M O D È L E S
A L É AT O I R E S
Au chapitre précédent, nous avons défini une panoplie d’outils ma-
thématiques pour modéliser les signaux à l’aide de processus aléa-
toires. En pratique, on dispose d’une ou plusieurs réalisations d’un
processus, à partir desquelles on souhaite estimer les paramètres du
processus : moyenne, autocorrélation, DSP ou autres paramètres du
modèle. L’objet du chapitre étant de définir des estimateurs, ce cha-
pitre fait appel à des concepts communs avec le cours de statistiques.
A titre d’exemple, considérons le traitement de la parole, pour le-
quel on souhaite identifier la nature des sons élémentaires (appelés
phonèmes) afin de réaliser la reconnaissance automatique ou la com-
pression de signaux audio. Certains phonèmes comme le /s/ ou le
/f/ peuvent être modélisés par un processus aléatoire autorégressif
(AR). En pratique, on dispose de l’enregistrement d’un signal audio
qui correspond à une seule réalisation. L’objectif est d’estimer les pa-
ramètres du modèle AR à partir de cette réalisation afin d’identifier
le type de phonème.
Dans l’ensemble de ce chapitre, on ne considère que les processus
à temps discret, stationnaires au sens large. Précisons les notations
que nous serons amenés à manipuler :
— un processus aléatoire est noté d’une lettre majuscule avec en
indice la variable d’évolution : Xn , n ∈ Z.
— le signal déterministe correspondant à une réalisation de ce pro-
cessus est noté avec une lettre minuscule : x [n], n ∈ Z.
— l’estimateur (ou la statistique) est noté avec un chapeau circon-
flexe : µ̂. Notons qu’il s’agit d’une variable (ou d’un processus)
aléatoire.
Remarque. x [k ] est appelé le k-ème échantillon (au sens de l’échantillon-
nage temporel, cf. chapitre 4) du signal x, c’est-à-dire la valeur du signal
x mesurée à l’instant k. De même, Xk sera appelé le k-ème échantillon du
processus aléatoire Xn (n ∈ Z). C’est la variable aléatoire Xn pour n = k.
Notons qu’en statistique, un « échantillon » d’une variable aléatoire Y
fait référence à une réalisation Y (ω ) pour un ω donné. Ce terme a donc
un sens complètement différent de l’échantillonnage temporel. Pour évi-
92 estimation basée sur des modèles aléatoires
ter toute confusion, par échantillonnage, nous ferons toujours référence à
l’échantillonnage temporel.
6.1 estimateur de la moyenne d’un processus aléatoire
L’une des difficultés de l’estimation en traitement du signal est liée
au fait qu’on ne dispose, en général, que d’une seule réalisation du
processus aléatoire. En d’autres termes, il n’est possible de réaliser
qu’une seule mesure du signal. Si on fait le parallèle avec une va-
riable aléatoire, cela reviendrait à essayer d’estimer sa moyenne ou sa
variance à partir d’une seule réalisation !
C’est pourquoi on ne traitera que le cas des signaux ergodiques
pour lesquels on peut remplacer l’estimateur empirique qui réalise
la moyenne statistique sur les réalisations par un estimateur utilisant
la moyenne temporelle des échantillons du processus. Evidemment,
cette approche n’a de sens que pour les signaux stationnaires pour
lesquels les grandeurs à estimer ne dépendent pas du temps.
Définition 6.1 (Estimateur de la moyenne). L’estimateur tempo-
rel de la moyenne à partir de N instants est défini par :
N −1
1
N
µ̂ X =
N ∑ Xn .
n =0
Propriété. Cet estimateur n’est pas biaisé.
N ) = E( µ̂ N ) − µ . On montre aisé-
Démonstration. Le biais est défini par biais(µ̂ X X X
N − 1
N) = 1
ment que E(µ̂ X N ∑n=0 E( Xn ) = µ X . Donc biais( µ̂ X ) = 0.
N
Définition 6.2 (Ergodicité d’ordre 1). Le processus stationnaire
Xn est dit ergodique d’ordre 1 si l’estimateur temporel de la moyenne
converge dans L2 vers le moment d’ordre 1 (i.e., la moyenne) du
processus :
1 N −1 L2
N
µ̂ X = ∑
N n =0
Xn −−−→ µ X
N →∞
ou de manière équivalente car l’estimateur n’est pas biaisé :
N
Var(µ̂ X ) −−−→ 0
N →∞
En pratique, on calcule une réalisation de la variable aléatoire µ̂ X N à
partir d’une unique réalisation x [n] = Xn (ω ) d’un processus station-
N (ω ) = 1 N −1
naire et ergodique Xn . Cette réalisation s’écrit : µ̂ X N ∑ n =0 x [ n ] .
L’ergodicité du processus permet donc de remplacer l’opérateur de
moyenne sur les réalisations du processus par une moyenne tempo-
relle sur les valeurs d’une unique réalisation.
6.2 estimation de la fonction d’autocorrélation 93
Exemple 6.1.
— un bruit blanc est ergodique à l’ordre 1. En effet,
N −1 N −1
1
N
Var(µ̂ X )=
N2 ∑
0
∑ E( Xn Xn∗0 )
n =0 n =0
N −1
1
=
N2 ∑ E(| Xn |2 ) car E( Xn Xn∗0 ) = 0, ∀n 6= n0
n =0
γ [0]
= X −−−→ 0.
N N →∞
— le processus à valeur aléatoire constante défini par ∀n, Xn = A
avec A ∼ N (0, σ2 ) n’est pas ergodique. En effet,
N −1 N −1
1
N
Var(µ̂ X )=
N2 ∑
0
∑ E( Xn Xn∗0 )
n =0 n =0
N −1 N −1
1
=
N2 ∑
0
∑ E( A2 )
n =0 n =0
2
=σ
ne converge pas vers 0.
6.2 estimation de la fonction d’autocorrélation
Définition 6.3 (Estimateur non biaisé de l’autocorrélation).
L’estimateur temporel non biaisé de l’autocorrélation est défini par :
1 N − k −1
γ̂XN,nb [k] =
N − k `= ∑ X`+k X`∗ pour 0 ≤ k < N,
0
∗
γ̂XN,nb [k ] = γ̂XN,nb [−k ] pour − N < k < 0.
Propriété. Cet estimateur est non biaisé pour tout k tel que |k | < N.
N,nb
Démonstration. On vérifie que E(γ̂X [k]) = γX [k] pour 0 ≤ k < N. Puis on
étend ce résultat aux valeurs négatives de k en exploitant que les fonctions γX et
N,nb
γX sont à symétrie hermitienne.
γ̂XN,nb [k ] fournit une estimation de la fonction d’autocorrélation uni-
quement pour |k | < N. Il est rarement utilisé car sa variance est très
élevée si k est proche de N. Dans le cas extrême |k | = N − 1, la
moyenne arithmétique qui intervient dans la définition de γ̂XN,nb [k ]
ne comporte qu’un terme (ce qui implique une variance élevée). Au
contraire, pour k = 0, la moyenne arithmétique comporte N termes.
Ainsi, la variance de γ̂XN,nb [0] est raisonnablement faible si N est grand,
voir les rappels de statistique dans la section 1.5.1 du chapitre 1.
94 estimation basée sur des modèles aléatoires
Définition 6.4 (Estimateur biaisé de l’autocorrélation). L’estima-
teur temporel biaisé de l’autocorrélation est défini par :
1 N − k −1
γ̂XN [k ] =
N `= ∑ X`+k X`∗ pour 0 ≤ k < N,
0
∗
N N
γ̂X [k ] = γ̂X [−k ] pour − N < k < 0.
La différence avec l’estimateur non biaisé est le facteur de normali-
sation, égal à N1 au lieu de N −|
1
k|
. Cet estimateur est biaisé car :
N − |k| N,nb N − |k|
E(γ̂X [k ]) = E
N
γ̂X [k ] = γ X [ k ]. (143)
N N
Le biais vaut :
biais(γ̂XN [k ]) = E(γ̂XN [k ]) − γX [k ]
N − |k|
= γX [ k ] − γX [ k ]
N
|k|
= γ X [ k ].
N
Il est nul pour k = 0 et devient important pour |k | proche de N. La
variance de cet estimateur est plus faible que celle de l’estimateur non
biaisé :
N − |k| 2
N nb
Var(γ̂X [k ]) = Var(γX [k]). (144)
N
Elle est proche de 0 pour k non nul et N suffisamment grand.
En statistique, l’erreur quadratique moyenne (EQM) est couram-
ment utilisée pour comparer des estimateurs. Elle s’écrit comme la
somme du biais au carré et de la variance. L’EQM des estimateurs
non biaisé et biaisé de la fonction d’autocorrélation s’écrit :
EQM γ̂XN,nb [k ] = 0 + Var γ̂XN,nb [k ] (145)
et
2
EQM γ̂XN [k ] = biais γ̂XN [k ] + Var γ̂XN [k] (146)
k2 2
= 2 γX [k] + Var γ̂XN [k] . (147)
N
L’estimateur biaisé est souvent privilégié car son EQM est plus
faible que celle de l’estimateur non biaisé. En effet, la plupart des
processus modélisant des phénomènes physiques ont une fonction
d’autocorrélation telle que |γX [k]| décroît rapidement en fonction de
|k|. Cela correspond au fait que deux échantillons pris à des instants
proches sont plus corrélés que deux échantillons très éloignés. Dans
ce cas, le terme de biais au carré qui intervient dans (147) est faible :
6.2 estimation de la fonction d’autocorrélation 95
2
— pour |k | faible, Nk 2 est proche de 0 ;
— Pour des valeurs modérées ou grandes de |k |, (γX [k ])2 est faible.
Comme la variance de l’estimateur biaisé est sensiblement plus faible
que celle de l’estimateur non biaisé, ceci explique que l’EQM de l’es-
timateur biaisé est la plus faible.
Pour aller plus loin...
Soit X N = ( X0 , X1 . . . , X N −1 ) le processus aléatoire tronqué sur N échan-
tillons temporels. C’est un vecteur aléatoire qui contient les variables aléa-
toires utilisées par les estimateurs définis ci-dessus.
Propriété. On peut écrire l’estimateur biaisé de l’autocorrélation comme
un produit de convolution :
N 1 N
γ̂X = X ∗ X̄ N
N
avec ∀k ∈ {0, . . . , N }, N := ( X N )∗ .
X̄− k k
Démonstration. Pour 0 ≤ k < N,
N − k −1
1
N
γ̂X [k] =
N ∑ X`+k X`∗
`=0
N −1
1
=
N ∑ ∗
Xm Xm −k avec m = `+k
m=k
N −1
1
=
N ∑ N N
Xm X̄k−m
m=k
1
= ( X N ∗ X̄ N )[k].
N
N [ k ] est à symétrie hermitienne. En exploitant la
De plus, la fonction γ̂X
définition de X̄ [k] pour k < 0, on vérifie facilement que X N ∗ X̄ N est
N
aussi à symétrie hermitienne. Ainsi, si − N < k < 0,
∗
N N
γ̂X [k] = γ̂X [−k]
1 N ∗
= X ∗ X̄ N [−k]
N
1
= ( X N ∗ X̄ N )[k].
N
Définition 6.5 (Ergodicité d’ordre 2). Le processus stationnaire
Xn est dit ergodique d’ordre 2 si l’estimateur non biaisé de sa fonction
d’autocorrélation converge en moyenne quadratique vers la fonction
d’autocorrélation du processus :
L2
∀k ∈ N, γ̂XN,nb [k] −−−→ γX [k]
N →∞
ou de manière équivalente, si
∀k ∈ N, Var(γXN,nb [k]) −−−→ 0.
N →∞
96 estimation basée sur des modèles aléatoires
L’ergodicité d’ordre 2 est une propriété indispensable pour estimer
la fonction d’autocorrélation à l’aide des estimateurs temporels.
6.3 estimation de la dsp : périodogramme
L’estimation de la DSP d’un processus à partir de données se résu-
mant à une unique réalisation du processus est un problème classique.
Le but est de caractériser un phénomène dans le domaine fréquentiel.
Exemple 6.2. En climatologie, une question consiste à retrouver la pé-
riodicité des variations climatiques liées aux oscillations de l’axe de la
terre. On cherche notamment à distinguer les variations climatiques liées
à l’activité humaine par rapport aux autres facteurs.
L’une des mesures les plus utilisées est la concentration en deutérium
dans les carottes glaciaires datant de plusieurs milliers d’années. On mo-
délise le signal de concentration en deutérium en fonction du temps par
un processus aléatoire. Evidemment, on ne dispose que d’une seule réalisa-
tion de ce processus. En estimant la DSP du processus, on peut retrouver
les principales périodicités qui correspondent aux pics de la DSP.
6.3.1 Définition
L’estimateur classique de la DSP est appelé périodogramme.
Définition 6.6 (Périodogramme). Le périodogramme sur N échan-
tillons temporels est un estimateur de la DSP défini comme la trans-
formée de Fourier de l’estimateur biaisé de l’autocorrélation :
N −1
Γ̂ X
N
(ν) = ∑ γ̂XN [k ] e−i2πkν
k =− N +1
ou de manière équivalente :
2
N −1
1
Γ̂ X
N
(ν) =
N ∑ Xk e −i2πkν
.
k =0
Démonstration. Notons X N = ( X0 , X1 . . . , X N −1 ) la troncature du processus aléa-
toire Xn sur N échantillons temporels. L’équivalence entre les deux définitions
N = 1 X N ∗ X̄ N :
s’obtient en utilisant γ̂X N
N N
Γ̂ X (ν ) = F γX (ν)
1
= F { X N ∗ X̄ N }(ν)
N
1
= F X N (ν)F X̄ N (ν)
N
1 ∗
= F X N (ν) F X N (ν)
N
1 2
= F X N (ν) .
N
6.3 estimation de la dsp : périodogramme 97
Rappelons la définition de la densité spectrale de puissance donnée
à la section 5.2.3 :
2
N
1
∀ν ∈ R, Γ X (ν) = lim E
N →∞ 2N + 1 k=− ∑ Xk e−i2πkν
N
On remarque que l’espérance et le passage à la limite ont été suppri-
més dans la définition du périodogramme. Ces deux simplifications
ont des conséquences importantes :
— Résolution spectrale limitée (biais) : Supprimer le passage à
la limite revient à réaliser une troncature sur N échantillons.
Le périodogramme est donc un estimateur biaisé. Ce biais est
asymptotiquement nul quand N devient grand.
— Variance élevée : supprimer l’espérance revient à réaliser une
moyenne empirique sur une unique réalisation. Il en résulte une
variance très élevée de l’estimateur. On peut montrer que ce
n’est pas un estimateur consistant, car sa variance ne tend pas
vers 0 quand N → ∞.
Pour calculer le périodogramme à partir d’une réalisation x [n] du
processus sur N échantillons temporels, on procède en deux temps.
On réalise la TFD de x [n] (avec en général un bourrage de zéros pour
affiner le tracé, voir section 3.6), puis on calcule le module au carré
de la TFD.
Exemple 6.3 (Variance du périodogramme). On considère un bruit
blanc filtré dont la DSP théorique est tracée en trais gras sur la figure 32.
Trois réalisations du périodogramme sont aussi représentées, obtenues en
filtrant trois réalisations différentes du bruit blanc. La longueur du signal
utilisé est de N = 40 échantillons sur la figure de gauche, et de N = 400
sur celle de droite. On remarque que :
Longueur N=40 échantillons Longueur N=400 échantillons
4.5 8
4 7
3.5
6
3
5
2.5
4
2
3
1.5
2
1
0.5 1
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
Fréquence réduite ( ) Fréquence réduite ( )
Figure 32 – Variance du périodogramme : comparaison de la DSP
théorique (trait gras) avec des réalisations du périodo-
gramme pour N = 40 et N = 400 échantillons.
98 estimation basée sur des modèles aléatoires
— l’estimation de la DSP par périodogramme est très différente de la
DSP théorique, cela illustre la variance élevée de l’estimateur.
— la dispersion des valeurs est très importante et ne diminue pas sur
la figure de droite lorsqu’on utilise plus d’échantillons, cela illustre
le fait que l’estimateur n’est pas consistant.
6.3.2 Propriétés statistiques du périodogramme
Biais et résolution spectrale
Propriété. Le périodogramme est biaisé :
E(Γ̂ X
N
(ν)) = (Γ X ~ TN )(ν)
2
1 sin (πNν)
où TN (ν) = N sin2 (πν) est la transformée de Fourier de la fenêtre
triangulaire t N [k ] = N −| k|
N 1|k |≤ N .
Démonstration. Par définition du périodogramme,
N −1
N
Γ̂ X (ν) = ∑ N
γ̂X [k] e−i2πkν .
k=− N +1
D’après (143), on déduit que :
N −1
N
E(Γ̂ X (ν)) = ∑ N
E γ̂X [k] e−i2πkν
k =− N +1
N −1
N − |k|
= ∑ N
γX [k] e−i2πkν
k =− N +1
= ∑ t N [k] γX [k] e−i2πkν .
k ∈Z
E(Γ̂ X
N ( ν )) s’écrit donc comme la TFTD du produit des fonctions t et γ , égale
N X
au produit de convolution circulaire de leurs TFTD d’après la section 3.3.2.
On retiendra que :
— le biais est lié à la troncature sur N points,
— le biais limite la résolution spectrale à N2 (pour rappel, la réso-
lution spectrale est définie comme la largeur du lobe principal,
voir section 3.6.2. Elle vaut N2 car TN s’annule pour ν = ± N1 ),
— le biais est asymptotiquement nul (quand N → ∞) : pour amé-
liorer la résolution, il suffit d’augmenter la durée de l’observa-
tion, c’est-à-dire le nombre de points N.
6.3 estimation de la dsp : périodogramme 99
Pour aller plus loin...
Loi asymptotique de l’estimateur
Propriété. Soit Xn un processus gaussien dont la DSP est non nulle :
∀ν ∈ [− 12 , 12 ], Γ X (ν) 6= 0. Dans le régime asymptotique (N → ∞), le
périodogramme suit une loi exponentielle de paramètre Γ 1(ν) :
X
1 − x
pΓ̂∞ (ν) ( x ) = e Γ X ( ν ) 1 x ≥0 .
X Γ X (ν)
La moyenne et la variance asymptotique du périodogramme valent :
µΓ̂∞ (ν) = Γ X (ν), Var(Γ̂∞ 2
X ( ν )) = Γ X ( ν ) .
X
Comme l’écart-type de l’estimateur est égal à la valeur que l’on cherche à
estimer, on conclut que l’estimateur du périodogramme est très imprécis.
6.3.3 Variantes de la méthode du périodogramme
Nous avons vu que le périodogramme est biaisé et possède une
variance élevée. Il existe différentes techniques pour limiter l’un ou
l’autre de ces effets. Dans ce qui suit, on présente le périodogramme
de Bartlett dont la variance est sensiblement réduite. Son principe est
de diviser le signal en K fenêtres, et à moyenner les périodogrammes
obtenus sur chacune de ces fenêtres, voir figure 33.
Figure 33 – Principe du périodogramme de Bartlett.
100 estimation basée sur des modèles aléatoires
Définition 6.7. Soit une troncature X0 , X1 . . . , X N −1 de N échan-
tillons du processus Xn , avec N = KL ( a ). Le périodogramme de
Bartlett sur K fenêtres de longueur L est défini par :
K −1 L −1 2
1 1
Γ̂ X
Bart
(ν) =
K ∑ Γ̂(k) (ν) avec Γ̂(k) (ν) =
L ∑ X`+kL e−i2πν` .
k =0 `=0
a. sans perte de généralité, on suppose que l’instant initial est n = 0.
Calculons le biais de cet estimateur. Le processus Xn étant station-
naire, E(Γ̂(k) (ν)) ne dépend pas de k. Donc ∀k, ∀ν, E(Γ̂(k) (ν)) =
E(Γ̂(0) (ν)). Le biais s’écrit :
biais(Γ̂ X
Bart
(ν)) = E(Γ̂ X
Bart
(ν)) − Γ X (ν)
= E(Γ̂(0) (ν)) − Γ X (ν)
= biais(Γ̂ XL (ν))
et coïncide avec le biais du périodogramme (non fenêtré) sur L échan-
tillons. D’après la section 6.3.2, la résolution spectrale est de L2 . Elle
est dégradée par rapport à celle du périodogramme calculé sur N
échantillons ( N2 ). Cette dernière valeur est K fois plus faible : N2 =
1 2
K L . Ce résultat illustre que l’effet de troncature est amplifié dans la
méthode de Bartlett, car on calcule des des périodogrammes sur des
fenêtres réduites de taille L = N K.
En revanche, moyenner K périodogrammes permet en général de
réduire sensiblement la variance de l’estimateur de la DSP. Pour
fixer les idées, prenons le cas d’un bruit blanc au sens strict. Pour tous
ν et j 6= k, les variables aléatoires Γ̂( j) (ν) et Γ̂(k) (ν) sont indépendantes
et ont des variances égales. Donc :
K −1
1
Var(Γ̂ X
Bart
(ν)) =
K2 ∑ Var(Γ̂(k) (ν))
k =0
K −1
1
=
K2 ∑ Var(Γ̂(0) (ν))
k =0
1
= Var(Γ̂(0) (ν))
K
Var(Γ̂ X
L ( ν ))
= .
K
D’après la section 6.3.2, Var(Γ̂ X
L ( ν )) → Γ ( ν )2 quand L → ∞, donc
X
Γ ( ν )2
Var(Γ̂ X
Bart ( ν )) → X
K . Dans le régime asymptotique (K fixé, L → ∞),
la variance du périodogramme de Bartlett est donc K fois plus faible
que celle du périodogramme non fenêtré sur N échantillons.
En pratique, le choix du nombre de fenêtres K est un compromis
entre biais et variance, comme illustré dans l’exemple ci-dessous.
6.3 estimation de la dsp : périodogramme 101
Exemple 6.4. On observe 10 000 échantillons temporels du processus
dont la DSP est tracée en gras sur la figure 34.
— La figure du haut présente trois réalisations du périodogramme
standard. On constate que la variance est trop importante pour
estimer correctement la DSP.
— La figure du centre présente les réalisations du périodogramme de
Bartlett en moyennant sur 50 fenêtres de longueur 200. La variance
est réduite, et le biais reste très faible : la courbe de Γ̂ X
Bart ( ν ), tracée
en pointillés, est quasiment confondue avec celle de Γ X (ν). Cet
estimateur apparaît comme un bon compromis.
— La figure du bas présente les réalisations du périodogramme de Bart-
lett en moyennant sur 500 fenêtres de longueur 20. La variance est
très faible, mais en contrepartie, le biais n’est plus négligeable.
Periodogramme standard
50
40
30
20
10
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Periodogramme de Bartlett M=50 fenêtres
50
40
30
20
10
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Periodogramme de Bartlett M=500 fenêtres
50
DSP Théorique
40 Espérence du périodogramme
Réalisations du périodogramme
30
20
10
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Figure 34 – Périodogramme de Bartlett : augmenter le nombre de
fenêtres permet de réduire la variance au détriment du
biais.
102 estimation basée sur des modèles aléatoires
6.4 estimation paramétrique de la dsp
6.4.1 Principe
Le périodogramme est un estimateur non paramétrique de variance
très élevée. L’approche paramétrique consiste à décrire le processus
stationnaire Xn par un modèle ayant quelques paramètres (par exemple,
le modèle autorégressif). En estimant ces paramètres à partir d’une
réalisation x [n], on peut en déduire une estimation de la DSP. Cette
approche nécessite de faire une hypothèse sur le modèle décrivant le
processus, mais conduit à des estimateurs de variance réduite.
L’estimation paramétrique s’applique par exemple au traitement
de la parole avec des modèles AR, ou à l’analyse vibratoire via l’esti-
mation des paramètres de sinusoïdes bruitées.
6.4.2 Cas d’un signal modélisé par un processus AR
D’après le théorème 5.3, le modèle AR d’ordre p s’écrit sous la
forme récursive :
p
Xn = ∑ ak Xn−k + Wn (148)
k =1
où Wn est un bruit blanc générateur de variance σ2 . Il y a donc p + 1
paramètres : a1 , . . . , a p , σ2 .
Estimation des paramètres du modèle AR à partir de données expérimentales
L’approche la plus classique s’appuie sur l’estimation de la fonction
d’autocorrélation du processus AR. Les équations de Yule-Walker (142)
permettent de relier linéairement les paramètres du modèle aux va-
leurs de l’autocorrélation :
p
∀k ≥ 0, γX [k] = ∑ a i γ X [ k − i ] + σ 2 δ [ k ].
i =1
Rassemblons ces équations pour k = 0, . . . , p. Comme la fonction
γX [k ] est paire, on obtient le système linéaire :
γ X [1] γ X [2] ··· γX [ p ] 1 a1 γ X [0]
γ X [0] γ X [1] ··· γ X [ p − 1] 0
a2 γ X [1]
.
γ X [1] γ X [0] ··· γ X [ p − 2] 0
.. = γX [2]
.. .. .. .. .
..
. . . . ap
γ X [ p − 1] γ X [ p − 2] · · · γ X [0] 0 σ 2 γX [ p ]
Concrètement, la fonction d’autocorrélation γX [k ] est remplacée
par son estimateur biaisé γ̂XN [k ], voir définition 6.4. La résolution du
système linéaire fournit une estimation des paramètres âk et σ̂2 .
6.4 estimation paramétrique de la dsp 103
Estimation de la DSP
La DSP d’un processus AR s’exprime analytiquement à partir de
ses paramètres, voir (141). Ainsi, l’estimateur de la DSP s’écrit :
σ̂2
Γ̂AR
X (ν) = p .
2
1− ∑ âk e −2πikν
k =1
La figure 35 illustre la réduction de la variance obtenue grâce à
l’estimation paramétrique. La DSP du processus est tracée en trait
épais. Le graphique du haut représente des réalisations de l’estima-
teur paramétrique tandis que celui du bas représente des réalisations
du périodogramme standard.
Figure 35 – Comparaison de l’estimation paramétrique de la DSP
avec le périodogramme standard.
104 estimation basée sur des modèles aléatoires
Exemple 6.5. Application au traitement de la parole
Certains sons de parole sont bien représentés par un modèle AR. Il s’agit
des phonèmes non voisés, pour lesquels les cordes vocales ne vibrent pas.
Les principaux sons non voisés sont les consonnes fricatives : /f/, /s/, etc.
et les voyelles chuchotées. Le modèle AR peut être interprété ainsi :
— les turbulences de l’air à l’entrée du conduit vocal correspondent à
un bruit blanc,
— les résonances du conduit vocal correspondent aux pôles du modèle
AR.
L’estimation des paramètres du modèle AR associé à un phonème permet
l’identification du phonème (reconnaissance vocale) ou la synthèse de nou-
veaux échantillons (débruitage et synthèse vocale). La figure 36 illustre
le traitement complet.
Figure 36 – Traitement de la parole et synthèse vocale.
6.5 estimation linéaire optimale
Dans de nombreuses applications, on cherche à estimer un proces-
sus aléatoire X à l’instant n à partir de P échantillons temporels d’un
processus aléatoire Y, modélisant les observations disponibles. Pour
que l’estimation soit possible, il est indispensable que les processus
X et Y soit corrélés. On supposera connues la fonction d’autocorréla-
tion de Y et la fonction d’intercorrélation entre X et Y. De plus, les
processus seront supposés centrés et à valeurs réelles.
Parmi les applications les plus courantes, on peut citer :
6.5 estimation linéaire optimale 105
— la prédiction : prédire la valeur du processus Xn à l’instant n à
partir de P observations antérieures : Xn−1 , . . . , Xn− P ,
— le débruitage : estimer Xn à l’instant n à partir d’observations
bruitées Yk = Xk + Wk à différents instants k,
— la déconvolution : estimer Xn à l’instant n à partir de mesures
entachées d’un flou Yk = (h ∗ X )k , où h est la réponse impul-
sionnelle d’un filtre passe-bas, modélisant le flou.
Dans la section suivante, on utilise les notations simplifiées U =
Xn ∈ R pour la variable aléatoire à estimer et Z ∈ RP pour le vecteur
aléatoire rassemblant les P variables aléatoires extraites du processus
Yn , correspondant aux observations.
6.5.1 Définition et propriétés
Définition 6.8 (Estimateur linéaire optimal). Soit Z un vecteur
aléatoire centré à valeurs dans RP et U une variable aléatoire réelle
centrée. Un estimateur linéaire de U à partir de Z s’écrit
P
Û (h) = ht Z = ∑ h p Zp (149)
p =1
où h regroupe les poids h p .
t Z où h
Un estimateur linéaire optimal s’écrit Û (hopt ) = hopt opt
minimise la variance de l’erreur d’estimation :
h 2 i
hopt = argmin E U − Û (h) . (150)
h
Théorème 6.1. Soit Σ Z = E(ZZt ) la matrice de covariance Z, sup-
posée inversible. Le vecteur de poids optimal est donné par :
hopt = Σ Z−1 E(ZU ). (151)
Démonstration. La variance de l’erreur d’estimation s’écrit :
h 2 i 2
E U − Û (h) = E U − ht Z
= E ht ZZt h − 2E(ht ZU ) + E(U 2 )
= ht Σ Z h − 2ht E(ZU ) + E(U 2 ).
Sa minimisation conduit à résoudre un problème d’optimisation quadratique :
n o
hopt = argmin J (h) := ht Σ Z h − 2ht E(ZU ) + E(U 2 ) .
h
Par hypothèse, la matrice Σ Z est inversible. En tant que matrice de covariance,
elle est symétrique définie positive. La fonction J est donc strictement convexe,
et le problème d’optimisation possède une unique solution, qui satisfait :
Σ Z hopt − 2 E(ZU ) = 0,
∇h J (h = hopt ) = 0 ⇐⇒ 2Σ
−1
d’où hopt = Σ Z E(ZU ).
106 estimation basée sur des modèles aléatoires
La solution Û associée au vecteur de poids hopt s’interprète comme
la projection orthogonale de U ∈ L2 (Ω, F , P ) sur le sous-espace vec-
toriel de L2 (Ω, F , P ) engendré par les variables Z1 , . . . , ZP . Le corol-
laire 6.1 exprime que le résidu de la projection, U − Û, est orthogonal
à ce sous-espace au sens du produit scalaire de L2 (Ω, F , P ).
Corollaire 6.1. L’erreur d’estimation est décorrélée des observations :
h
∀ p ∈ {1, . . . , P}, E U − Û (hopt ) Z p = 0.
Démonstration. En remarquant que hopt est constant (déterministe), on a :
t
E(Z (U − Û (hopt ) ) = E(Z U − Z hopt
Z)
= E(Z U − Z Zt hopt )
= E(Z U ) − E(Z Zt ) hopt
= E(ZU ) − Σ Z hopt
=0
d’après (151).
6.5.2 Prédiction d’un processus aléatoire
On applique la technique d’estimation linéaire optimale à la prédic-
tion d’un processus aléatoire. Dans différents contextes (par exemple,
la prédiction de l’évolution de valeurs financières), on est amené à
prédire la valeur d’un processus Xn à l’instant n (U = Xn ) à partir
de P valeurs passées, notées Z = ( Xn−1 , Xn−2 , . . . , Xn− P ). La fonction
d’autocorrélation γX est supposée connue.
Théorème 6.2. Le prédicteur linéaire optimal de Xn à partir de Z =
( Xn−1 , Xn−2 , . . . , Xn− P )t est donné par :
P
t
X̂n = hopt Z= ∑ [hopt ] p Xn− p (152)
p =1
où
−1
··· γ X [ P − 1]
γ X [0] γ X [1] γ X [1]
γ X [1] γ X [0] ··· γ X [ P − 2]
γ X [2]
hopt = . .
.. .. .. ..
..
. . . .
γ X [ P − 1] γ X [ P − 2] · · · γ X [0] γX [ P ]
Démonstration. L’expression de hopt découle du théorème 6.1 et de la relation
γX [k] = E( Xn+k Xn ) = γX [−k], X étant à valeurs réelles. Notons que comme Xn
est stationnaire, E(ZXn ) et Σ Z = E ZZt ne dépendent pas de n.
Remarque. (152) est une relation de convolution. Le prédicteur s’inter-
prète donc comme un filtre linéaire de réponse impulsionnelle hopt .
6.5 estimation linéaire optimale 107
Exemple 6.6. Sur la figure 37, le tracé du haut représente γX [k ]. On
remarque que les échantillons espacés d’environ 40 points sont fortement
corrélés. Le tracé du bas représente les coefficients hopt pour P = 50.
La figure 38 représente une réalisation x [n] du processus Xn , tracée en
gras. Les prédictions de x [n] réalisées à partir de P = 5 et P = 50 échan-
tillons temporels antérieurs sont tracées en trait fin. L’usage d’un plus
grand nombre d’échantillons antérieurs améliore la prédiction en tirant
parti de la corrélation élevée avec les échantillons temporels lointains.
Autocorrélation x
0.06
0.04
0.02
-100 -80 -60 -40 -20 0 20 40 60 80 100
Réponse impulsionnelle du filtre de prédiction h
0.4
0.2
-0.2
0 5 10 15 20 25 30 35 40 45 50
Figure 37 – Haut : autocorrélation du processus (γX ). Bas : réponse
impulsionnelle du filtre de prédiction (hopt ).
Prédiction avec P=5
1
Signal
Prédiction
0.5
-0.5
0 10 20 30 40 50 60 70 80 90 100
Prédiction avec P=50
1
Signal
Prédiction
0.5
-0.5
0 10 20 30 40 50 60 70 80 90 100
Figure 38 – Prédiction en utilisant P = 5 et P = 50 échantillons.
108 estimation basée sur des modèles aléatoires
Figure 39 – Modèle pour le débruitage : recherche du filtre optimal
h à appliquer aux données bruitées Yn .
6.5.3 Filtre de Wiener pour le débruitage
Dans cette section, l’estimation linéaire optimale est appliquée au
débruitage d’un signal. Le signal bruité est modélisé par un processus
Yn résultant de la somme d’un processus Xn (inconnu, non bruité) et
d’un processus Wn inconnu correspondant au bruit :
Yn = Xn + Wn
L’objectif est de reconstruire Xn en filtrant le signal Yn . La chaîne
de traitement est représentée en Fig. 39. On fait les hypothèses sui-
vantes :
— W et X sont décorrélés,
— les fonctions d’autocorrélation γX et γW sont connues.
Cas d’un filtre à réponse impulsionnelle finie
On traite ici l’estimation de Xn à partir de P observations passées.
On cherche donc à appliquer au processus Y un filtre h de durée P :
P −1
X̂n = (h ∗ Y )n = ∑ h p Yn− p .
p =0
Cette équation se récrit sous la forme X̂n = ht Z avec Z = (Yn , Yn−1 ,
. . . , Yn− P+1 )t . D’après le théorème 6.1, le filtre optimal est donné par
hopt = Σ Z−1 E(ZX ), avec
· · · · · · γY [ P − 1]
γY [0] γY [1]
γY [1] γY [0] · · · · · · γY [ P − 2]
ΣZ =
.. .. .. .. ..
. . . . .
γY [ P − 1] γY [ P − 2] · · · ··· γY [0]
et
γYX [0]
γYX [−1]
E(ZX ) = .
..
.
γYX [1 − P]
Comme W et X sont décorrélés, les éléments de ces matrices s’ex-
priment directement en fonction de γX et γW : pour k = 0, . . . , P − 1,
γY [k ] = γX [k ] + γW [k ] et γYX [−k ] = γX [−k ] = (γX [k ])∗ . Comme Xn
est à valeurs réelles, on a donc γYX [−k ] = γX [k ].
6.5 estimation linéaire optimale 109
Cas d’un filtre à réponse impulsionnelle infinie
On étend le résultat précédent à un filtre de réponse impulsionnelle
infinie. Autrement dit, on cherche à estimer Xn à partir d’un nombre
infini d’observations temporelles, Yn− p pour p ∈ Z. On montre que
la réponse fréquentielle du filtre optimal s’exprime directement en
fonction des densités spectrales de puissance de X et W.
Théorème 6.3 (Filtre de Wiener). Le filtre linéaire optimal pour le
débruitage, appelé filtre de Wiener, a pour équation de convolution :
X̂n = ∑ hopt p Yn− p
p ∈Z
où la fonction de transfert est donnée par :
Γ X (ν) 1
Hopt (ν) = = .
Γ X ( ν ) + ΓW ( ν ) 1 + ΓW (ν)/Γ X (ν)
Esquisse de démonstration. Le cas d’une réponse impulsionnelle infinie ne corres-
pond pas parfaitement au cadre du théorème 6.1, où le nombre d’observations
Yn− p est fini. Ceci étant, certains raisonnements restent valables, comme le fait
que X̂n est la projection orthogonale de Xn sur l’adhérence du sous-espace de
L2 (Ω, F , P ) engendré par les variables Yn− p . Ainsi, la décorrélation entre l’er-
reur d’estimation et les observations (corollaire 6.1) est assurée. On a donc :
E ( Xn − X̂n )Yn− p = 0 ∀ p, n ∈ Z
E( Xn Yn− p ) − E( X̂n Yn− p ) = 0
E( Xn ( Xn− p + Wn− p )) − E( X̂n Yn− p ) = 0
E( Xn Xn− p ) + E( Xn Wn− p ) − E( X̂n Yn− p ) = 0
γX [ p] + 0 − γX̂Y [ p] = 0,
donc γX = γX̂Y . D’après la formule des interférences, γX̂Y = hopt ∗ γY . De plus,
γY = γX + γW car Yn = Xn + Wn avec Wn et Xn décorrélés. Finalement,
γX = hopt ∗ γY = hopt ∗ (γX + γW ).
En appliquant la TFTD à l’expression précédente, on obtient :
Γ X (ν) = Hopt (ν)(Γ X (ν) + ΓW (ν))
d’où l’expression de Hopt (ν).
L’expression de la réponse fréquentielle s’interprète de la manière
suivante : le filtre atténue le signal Yn principalement dans les bandes
de fréquence où la DSP du bruit est plus grande que celle du signal
X. L’une des principales limites de cette approche est qu’elle né-
cessite la connaissance de la DSP du bruit et celle du processus à
débruiter.
110 estimation basée sur des modèles aléatoires
Exemple 6.7. Soit un processus bruité Yn = Xn + Wn . On suppose
connues les DSP Γ X (ν) et ΓW (ν), représentées en figure 40(a). La ré-
ponse fréquentielle Hopt (ν) du filtre de Wiener est représentée en poin-
tillé. Elle s’adapte au rapport signal-sur-bruit dans chaque bande de fré-
quence : lorsque la puissance du signal est importante par rapport à celle
du bruit, le gain du filtre est élevé pour préserver le contenu fréquentiel
de Y. Dans le cas contraire, le gain du filtre devient faible et le bruit est
atténué. La figure 40(b) représente des trajectoires temporelles des diffé-
rents processus sur un exemple simulé. En haut, le processus bruité Yn
est représenté avec le signal de référence (processus non bruité Xn utilisé
pour générer les données simulées Yn ) ; en bas, le processus débruité X̂n
est comparé avec Xn .
100
10-2
10-4
(a)
10-6
( ) : DSP Signal
X
W
( ) : DSP Bruit
H( ) : Fonction de transfert de Wiener
10-8
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Fréquence
Bruitage du signal
2
Signal
Signal bruité
1
-1
0 10 20 30 40 50 60 70 80 90 100
(b) Débruitage du signal
2
Signal
Signal débruité
1
-1
0 10 20 30 40 50 60 70 80 90 100
Figure 40 – Débruitage à l’aide du filtre de Wiener. (a) DSP du si-
gnal et du bruit (Γ X et ΓW ) et réponse fréquentielle du
filtre de Wiener (Hopt ). (b) Représentation temporelle
des processus Yn (bruité), Xn (signal inconnu) et X̂n (ver-
sion débruitée de Yn ).
6.6 conclusion 111
6.6 conclusion
On retiendra en premier lieu les expressions de l’estimateur de la
moyenne d’un processus, des estimateurs biaisé et non biaisé de la
fonction d’autocorrélation, et des estimateurs de la DSP, à savoir le
périodogramme standard et le périodogramme de Bartlett. La mé-
thode du périodogramme standard possède des limitations impor-
tantes en termes de biais (lié à la résolution spectrale) et de variance,
qui rendent l’estimation imprécise. Grâce à son effet de fenêtrage,
la méthode de Bartlett permet de réduire sensiblement la variance
de l’estimateur. Les techniques d’estimation paramétrique de la DSP
sont très efficaces lorsque le processus d’intérêt est modélisable à
l’aide de quelques paramètres (par exemple, pour les processus au-
torégressifs). Enfin, les techniques de filtrage linéaire optimal sont
utiles pour aborder divers problèmes de prédiction, débruitage et
déconvolution. Leur principe est de rechercher le meilleur filtre au
sens de l’erreur quadratique moyenne, ce qui conduit à résoudre un
problème d’optimisation dont les inconnues sont les coefficients du
filtre. Ce problème d’optimisation étant quadratique, sa résolution se
résume à l’inversion d’un système linéaire.
Les différentes techniques présentées sont illustrées par des simu-
lations fournies sur la page edunao du cours, dans le cadre de la
synthèse du son et du débruitage d’un signal audio. Les codes corres-
pondant à ces exemples sont disponibles sur edunao.
INDEX
autocorrélation, 79, 93 formule des interférences, 86
autocovariance, 80 formule sommatoire de
Poisson, 45
base hilbertienne, 15
bloquage d’ordre zéro, 73 intercorrélation, 26, 79
bourrage de zéros, 57, 61, 97 intercovariance, 80
bruit blanc, 84 invariance par translation, 31
causalité, 32 lois fini-dimensionnelles, 77
convolution, 26
moyenne, 79
débruitage, 108
décomposition en série de observation, 76
Fourier, 48
périodogramme, 96
densité spectrale de puissance,
périodogramme de Bartlett, 99
82, 96
peigne de Dirac, 17, 46
distributions, 16
prédiction, 106
échantillonnage, 65 processus aléatoire, 21
énergie, 26 processus autorégressif (AR),
équation aux différences finies, 88
36, 88 processus gaussien, 78
équation de Yule-Walker, 90 puissance, 26, 81
ergodicité, 92
quantification, 25
espace ` p , 14
espace L p , 14 réalisation, 76
espace de Schwartz, 19 réponse fréquentielle, 55
estimateur de réponse impulsionnelle, 33, 87
l’autocorrélation, 93 résolution spectrale, 59
estimateur de la moyenne, 92 rapport signal-sur-bruit, 26, 81
estimateur linéaire optimal,
104 signal à temps continu, 25
estimation paramétrique, 102 signal à temps discret, 25
signal numérique, 25
fenêtrage, 59 signal stochastique, 26, 76
filtrage de processus, 86, 109 spectre, 40
filtre anti-repliement, 73 stabilité EBSB, 32
filtre de Wiener, 108 stationnarité, 80
filtre FIR, 34 support, 19
filtre IIR, 36
fonction de Kronecker, 14 théorème de Shannon, 68
fonction de transfert, 55 traitement de la parole, 104
114 INDEX
trajectoire, 76 variance, 81
transformée de Fourier, 40 variante du périodogramme,
transformée de Fourier à 99
temps discret, 49 vecteur aléatoire, 21
transformée de Fourier
discrète, 53, 97
BIBLIOGRAPHIE
[1] S. Mallat. A wavelet tour of signal processing. Elsevier, Amsterdam,
troisième édition, déc. 2008.
[2] Jutten C. et al. L’héritage de Fourier, 250 ans après. Inter-
stices, revue scientifique en ligne, https://interstices.info/
l-heritage-de-fourier, Le Chesnay, nov. 2018.
[3] L. Schwartz. Théorie des distributions. Hermann, 1966.
[4] F. Golse. Distributions, analyse de Fourier, équations aux dérivées par-
tielles. Éditions de l’École Polytechnique, Palaiseau, oct. 2012.
[5] M. Vetterli, J. Kovacevic, and V. K. Goyal. Foundations of Signal
Processing. Cambridge Univ. Press, Cambridge, UK, oct. 2014.