0% ont trouvé ce document utile (0 vote)
199 vues24 pages

La Transformée de Fourier Discrète: 1 Décomposition D'un Signal Sur Une Base de Polynômes Orthogonaux

Transféré par

micipsa Ahwaoui
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
199 vues24 pages

La Transformée de Fourier Discrète: 1 Décomposition D'un Signal Sur Une Base de Polynômes Orthogonaux

Transféré par

micipsa Ahwaoui
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

La transformée de Fourier discrète

V. C ROQUETTE
Janvier 2017

Résumé
La transformée de Fourier est à la base de très nombreuses opérations sur un signal. Nous présentons ici son prin-
cipe de projection sur une base de fonctions orthogonales, quelques exemples de signaux et finalement les propriétés
spécifiques de la transformée de Fourier qui en font un outil indispensable dans le traitement du signal.

1 Décomposition d’un signal sur une base de polynômes orthogonaux.


2.2

- Original
2.175
F IGURE 1 – Signal expérimental (en bleu) sur
15 points, que l’on souhaite ajuster à une courbe
2.15
lisse. En vert un ajustement à un polynôme
Valeur

d’ordre 3 obtenu par projection sur une base de


2.125

- Poly. 3
polynômes orthogonaux.
2.1

2.075
0 5 10
Indice

Très souvent on désire décrire des données expérimentales S(xi ) par une courbe : une droite ou un polynôme simple
comme sur la Fig. 1. La procédure qui permet de faire un tel ajustement est assez simple quand il s’agit d’une droite
(régression linéaire), elle devient nettement plus complexe pour un polynôme. En effet, pour ajuster un polynôme Pn (xi ) il
Pm 2
faut minimiser l’expression suivante : χ2 = 0 (S(xi )−P σ2
n (xi ))
où xi sont les abscisses des points de mesure (i ∈ [0, m]
i
et où σi représente l’erreur de mesure sur le point i. L’expression χ2 représente “la distance” entre le modèle à ajuster et
les points expérimentaux. Ce processus de minimisation nécessite souvent de connaître les dérivées de Pn (xi ) et il prend
un temps de calcul important dès que le nombre de paramètres de l’ajustement devient grand. Car son principe est de
trouver le minimum d’une surface évoluant dans un espace ayant autant de dimensions qu’il y a de paramètres à ajuster.
Trouver un tel minimum s’avère très complexe si la surface présente de nombreux minimas.
Polynomes orthogonaux (15 pts) Polynomes orthogonaux (15 pts)

0.4 0.4 F IGURE 2 – Construction


P5 P3 P4 d’une base de polynômes or-
P0 thogonaux sur 15 points. À
0.2 0.2 gauche, le premier P0 corres-
pond à une valeur constante, le
second P1 est une droite dont
0 0
la valeur moyenne est nulle.
Le troisième P2 est une para-
P2
-0.2 -0.2 bole qui est automatiquement
P1 orthogonale à P1 , par contre
sa valeur moyenne est nulle
-0.4 -0.4 pour être orthogonale à P0 . À
0 5 10 0 2.5 5 7.5 10 12.5 droite on peut itérer le proces-
Indice indice sus pour définir P3 , P4 et P5

Si les points de mesure sont équidistants sur l’axe x et si σi est le même pour tous les points, il existe une méthode
beaucoup plus simple et rapide : la projection sur une base de polynômes orthogonaux. La projection revient à faire le

1
Pm
simple produit scalaire entre le signal S(xi ) et le polynôme Pn (xi ) soit an = 0 S(xi ).Pn (xi ). Ce qui est incompa-
rablement plus simple que de réaliser une minimisation. PmOn peut définir une base de polynômes Pn dont l’ordre n va
croissant et qui sont normalisés et orthogonaux, soit 0 Pp (xi ).Pn (xi ) = δ(p − n). La définition de ces polynômes
dépend du nombre de points utilisés, voir par exemple “Introduction to numerical analysis” par Hildebrand p. 350.
Une fois la base de polynômes établie, on peut projeter son signal S(xi ) sur celle-ci et utiliser les an pour travailler ce
signal. Sur la figure 1, nous avons gardé uniquement les quatre premières valeurs de ai , ceci revient à faire un ajustement
sur un polynôme d’ordre 3, c’est également un filtrage. La projection sur la base des polynômes orthogonaux est une façon
d’opérer un changement de base de notre signal. La valeur de a0 correspond à la composante continue de notre signal,
a1 à sa pente moyenne, a2 à sa courbure. Ces coefficients sont caractéristiques du signal considéré et sont donc très
utiles. Les coefficients correspondants à des polynômes d’ordre plus élevés sont souvent moins intéressants, par ailleurs
dès que l’ordre du polynôme dépasse 10 ou 15, la précision des calculs sur un ordinateur est mise à rude épreuve. La
base des polynômes orthogonaux est donc utile pour ses premières composantes, nous allons voir dans ce qui suit que
la transformée de Fourier est également une projection sur la base des sinus et des cosinus. Mais cette fois toutes les
composantes présentent un intérêt physique.

2 Transformée de Fourier
Mathématiquement la transformée de Fourier est définie sur des fonctions continues de −∞ à +∞, dans notre cas la
très grande majorité des signaux sont numériques et nous ne discuterons que le cas de la transformée de Fourier discrète
sur un intervalle de temps fini correspondant à N échantillons. Évidemment quand N devient très grand on peut penser
que l’on s’approche du cas continu, mais il faut garder en mémoire que la transformée discrète suppose en fait que le
signal est périodique de période N .

2.1 Transformée de Fourier discrète


La transformée de Fourier discrète est plus facile à décrire pour une variable complexe même si elle s’applique
également à un signal réel. Elle correspond au changement de base du signal depuis l’espace des temps (ou des positions)
Sr vers la base des fréquences (ou des vecteurs d’onde) associées aux fonctions e−2iπ.k.r avec k variable. Comme dans
l’exemple des polynômes orthogonaux, si le signal à étudier est échantillonné à intervalle régulièrement espacé et si
l’erreur statistique est la même pour tous les échantillons, on peut utiliser la méthode du produit scalaire pour obtenir
les coefficients de Fourier. Le signal s’écrit Sr ∈ C avec r ∈ [0, N [ dans l’espace direct, les composantes de Fourier
s’écrivent :
N −1
1 X
ak = Sr .exp(−2.iπ.k.r/N ) (1)
N r=0

avec k ∈ [−N/2, N/2[ et 1/N est un coefficient de normalisation. Si nous avons N points complexes de signal (soit
2N variables), nous obtenons N modes de Fourier (également complexes, soit à nouveau 2N variables). Nous avons bien
affaire à un changement de base. On peut évidemment définir la transformée de Fourier inverse qui redonne le même
signal à partir de ses composantes :
k<N/2
X
Ss = ak .exp(2iπ.k.s/N )
k=−N/2

L’ensemble des composantes de Fourier contient la même information et la même énergie que le signal dans l’espace
direct. L’énergie du signal dans l’espace direct est évidemment égale à l’énergie dans l’espace de Fourier c’est le théorème
de Parceval.
La base de Fourier a bien ses composantes orthogonales, car on démontre facilement que :

N −1
1 X
exp(−2iπ.p.r/N ).exp(−2.iπ.q.r/N ) = δ(p − q)
N r=0

. Pour la suite il est également intéressant de développer ak dans l’expression de Ss :

k<N/2 N −1
X 1 X
Ss = Sr .exp(−2.iπ.k.r/N ).exp(2.iπ.k.s/N )
N r=0
k=−N/2

On peut regrouper et inverser l’ordre des signes de sommation :

2 V. C ROQUETTE , LPS-ENS
N −1 k<N/2
1 X X
Ss = Sr exp(−2.iπ.k.(r − s)/N )
N r=0
k=−N/2

La somme sur k à droite est plus facile à visualiser dans l’espace complexe, elle correspond à une somme de N vecteurs
de module 1 et dont l’angle décrit les sommets d’un polygone à N cotés si r 6= s. Dans ce cas cette somme est nulle.
Lorsque r = s la somme vaut N . On retrouve ainsi le résultat attendu.

2.2 Cas d’un signal réel.

Mode k=2: Re et Im, N=32 pts. mode k = 16, N = 32


1
F IGURE 3 – À gauche, mode k = 2 pour N
= 32, seuls les points ont un sens par rap-
port aux échantillons, les lignes pointillées
0.5 sont des guides pour les yeux. En rouge le
cosinus en bleu le sinus. À droite, le mode
k = 16 pour N = 32, pour ce mode parti-
0 culier k = N/2 la partie réelle en cosi-
nus correspond aux points qui passent al-
ternativement de +1 à -1, nous avons tracé
-0.5 le cosinus en pointillé comme guide. La
composante imaginaire en sinus (non re-
présentée) est nulle car les points du si-
-1
gnal sont échantillonnés exactement aux
0 10 20 30 0 10 20 30
passages par zéro du sinus.
Très souvent notre signal n’a pas de partie imaginaire Im(Si ) = 0, nous avons donc un signal qui ne contient que N
variables ; sa transformée présente N modes complexes soit 2N variables. En fait on montre facilement que si la variable
Si est réelle, les coefficients de Fourier ak et a−k sont complexes conjugués. Connaître ak détermine donc a−k . Nous
n’avons donc besoin que de N/2 modes de Fourier pour décrire un signal réel. Ce qui correspond bien à N variables
indépendantes (N/2 fois 2 pour les parties réelle et imaginaire).
Le signal s’écrit Sr ∈ R avec r ∈ [0, N [ dans l’espace direct, les composantes de Fourier s’écrivent :
N
X −1 N
X −1
Re(ak ) = α Sr .cos(−2.iπ.k.r/N ) et Im(ak ) = α Sr .sin(−2.iπ.k.r/N )
r=0 r=0

avec k ∈ [0, N/2]. Le mode k = 0 est particulier, car sa partie imaginaire est nulle. Le mode k = 1 correspond à une arche
de cosinus ou de sinus sur la totalité de la longueur du signal soit [0, N ]. Tous les modes sont exactement périodiques dans
la fenêtre du signal. Le mode k = N/2 est à nouveau très particulier.
Comme on peut le voir sur la Fig. 3, le mode k = N/2 correspond vraiment à une condition extrême d’échantillon-
nage : pour la composante en cosinus, chaque échantillon correspond au point où le cosinus passe par +1 ou -1. Un signal
qui ne contient que cette composante présente deux échantillons par période, c’est peu pour décrire un cosinus, mais c’est
le minimum spécifié par la loi de Shanon. Si la phase de cette composante glisse de 90 degrés, on passe à un sinus qui
s’annule exactement pour chaque échantillon ! Le mode k = N/2 est donc très particulier, car pour un signal réel il n’a pas
de partie imaginaire. En pratique, cette particularité conduit souvent à des comportements étranges que nous discuterons
plus tard.

2.3 Cas d’un signal carré.


Un signal sinusoïdal ayant exactement la fréquence d’un des modes de la transformée de Fourier produit une transfor-
mée où un seule mode a une amplitude notable. Tous les autres modes sont nuls (au bruit numérique près). La transformée
de Fourier d’un sinus dans l’espace réel donne une fonction de Dirac dans l’espace des fréquences.
Si nous avons maintenant un signal carré, sa transformée fait apparaître une série de pics Dirac correspondants chacun
à un harmonique.

2.4 Cas d’un signal de Dirac


Un signal correspondant à un pic de Dirac dans l’espace-temps discret est représenté sur la Fig. 6. C’est un signal où
tous les échantillons sont nuls sauf en un point r où l’échantillon prend une valeur finie (disons 1). Les coefficients dr (k)
de la transformée de Fourier se calculent très simplement : dr (k) = (1/N )exp(−2i.π.k.r/N ). Tous les modes ont la

Signaux et images 3
1V
100 b)
F IGURE 4 – À gauche, signal carré dans
10-2
l’espace des temps de période 32 pts avec
0.5V 10-4 N = 1024. À droite puissance spectrale en
10-6 échelle logarithmique. On remarque que
10-8
ce spectre contient des raies intenses pour
0
tous les modes harmoniques impairs k =
10-10
(2.n + 1).32. Tous les autres modes ne
10-12 contiennent que du bruit numérique.
-0.5V
10-14
10-16
a)
-1V 10-18
0 1m
s 2m
s 3m
s 4m
s 0 5kz 10kz 15kz
Tem
ps Frequences

sin( ) + 1
3 sin(3 )
1 1
1 1 i = 1, i < 3
2i+1 sin((2i+1) ) 1 2i+1 sin((2i+1) )
i = 1, i < 4

0.5 0.5 0.5

0 0 0

-0.5 -0.5 -0.5

-1 -1 -1
0 0.5 1 1.5 2 0 0.5 1 1.5 2 0 0.5 1 1.5 2

F IGURE 5 – On peut reconstruire un signal carré en ajoutant les différents harmoniques de sa fréquence fondamentale.
Nous avons ici différents stades de cette reconstruction.

même amplitude, mais ils diffèrent en phase. La phase de chaque mode k est telle que celui-ci présente un maximum dans
l’espace sur le point j. Comme tous les modes présentent un maximum en ce point celui-ci domine, dès que l’on s’écarte
de ce point les oscillations des modes sont incohérentes et se moyennent à zéro comme on peut le voir sur la figure Fig. 6
au centre.
Si nous considérons un signal périodique de période τ , il peut être décrit par une série de Fourier dont tous les éléments
ont des fréquences harmoniques de la fréquence fondamentale f1 = N/τ . Ceci signifie que la transformée de Fourier d’un
signal période est un peigne de Dirac. Dans le cas particulier où la fonction périodique est-elle même un peigne de Dirac,
sa transformée de Fourier est également un peigne de Dirac dont tous les modes sont d’amplitude égale (voir Fig. 7). Pour
la transformée discrète, nous avons la relation τ ∗ f1 = N .

2.5 Interpolation entre les points d’échantillonnage


Cette description nous permet de mieux comprendre plusieurs points : la représentation de notre signal est limitée par
le faible nombre d’échantillons par période pour les modes de k élevés. Si nous voulons interpoler entre les points de
notre signal original sans rien changer au contenu de celui-ci, il suffit de sommer la contribution de ces modes pour des
Pk<N/2
temps intermédiaires. S(x) = β k=−N/2 ak .exp(2π.k.x/N ) où x est un nombre réel compris entre 0 et N , c’est ce que
nous avons fait sur la figure Fig. 6 au centre. Nous apercevons ainsi que notre pic de Dirac est en fait un sinus cardinal.
C’est normal, car les composantes de Fourier sont définies jusqu’à la fréquence maximale k = ±N/2 et s’annulent
complètement au-delà. La bande passante de notre signal est donc une fonction rectangle dans l’espace des fréquences.
La réponse impulsionnelle correspondante est un sinus cardinal.

2.6 Correspondance phase et décalage (théorème du retard)


Nous venons aussi de suggérer que la phase d’un mode permet d’ajuster la position d’un de ses maximums. Si nous
changeons les phases de tous les modes d’un signal de Dirac de la façon suivante φ(k) = −2.π.k.δx/N , nous déplaçons
le point de cohérence de δx ; c’est-à-dire que nous avons décalé notre pic de Dirac de la quantité δx. Ce que nous venons
de faire ne change pas l’amplitude des modes et, par ailleurs, le raisonnement que nous venons de faire est valable pour

4 V. C ROQUETTE , LPS-ENS
1

0.02
0.75

0.5
0

0.25

-0.02
0

-0.25
0 20 40 60 0 10 20 30 0 10 20 30
Temps Temps temps

F IGURE 6 – À gauche, signal de Dirac dans l’espace des temps avec N = 32. À droite, ensemble des modes de Fourier
représentés dans l’espace réel correspondant au pic de Dirac de gauche. Au milieu, reconstitution du pic à partir de ses
composantes permettant une interpolation entre les 32 points initiaux. Le pic de Dirac est en fait un sinus cardinal, dont le
maximum est bien localisé sur le pic. Par contre, le fait que les 31 autres points du signal de gauche soient nuls correspond
simplement au fait que ces points sont localisés précisément aux zéros du sinus cardinal.

Peigne de Dirac de periode 64 Spectre du peigne de Dirac


1

10-3
10-5
A(k)

0.5 10-7
10-9
10-11
0 10-13
0 200 400 600 800 1000 0 100 200 300 400 500
mode (k)

F IGURE 7 – La transformée de Fourier d’un peigne de Dirac est également un peigne de Dirac. À gauche, peigne de Dirac
dans l’espace réel avec un pic tous les 64 points. À droite, spectre du signal de gauche, avec un pic tous les 16 modes.

n’importe quel signal (le pic de Dirac permettait de mieux voir la cohérence des phases en un point). Cette méthode de
translation d’un signal est possible pour des valeurs de δx non entières, elle est réversible et permet de retrouver le signal
inchangé si l’on revient au point de départ. Comme nous venons de voir qu’un pic de Dirac est en fait un sinus cardinal,
si nous décalons le pic de la figure Fig. 6 au centre de dx = 0.5 tous les extrêmes du sinus cardinal vont alors coïncider
avec les points d’échantillonnage décorant ainsi notre signal.

2.2 F IGURE 8 – À gauche, signal original


dx = 0.5
et décalé d’un demi-pixel en utilisant la
dx = 0.5 transformée de Fourier. Comme ce signal
2 contient des fréquences élevées, le signal
décalé fait ressortir des oscillations. À
Valeur

- Original droite même chose, mais le signal a été fil-


1.8 - Original tré passe bas pour éliminer les fréquences
élevées, le signal décalé présente beau-
coup moins d’oscillations.
1.6

0 20 40 60 0 20 40 60
Indice Indice

Signaux et images 5
Cet effet est gênant, mais on peut s’en affranchir : la lente décroissance des oscillations du sinus cardinal est reliée
à la transition brutale des modes à k = N/2, si nous atténuons l’amplitude des modes de Fourier en les filtrant pour
les faire décroître doucement vers zéro on réduit considérablement ces oscillations parasites. Si notre signal est réel, la
translation dans l’espace direct faite en déphasant les modes de Fourier comme nous venons de la décrire, pose un petit
problème pour le mode k = N/2 : dès que nous déphasons ce mode qui n’a qu’une composante réelle, celui-ci acquiert
une composante imaginaire qui ne peut être conservée que si notre signal est représenté dans l’espace complexe. Si notre
signal est filtré de telle façon que la composante k = N/2 s’annule ce problème disparaît.

3 La base de Fourier : la base idéale pour les équations différentielles linéaires


3.1 Calcul des dérivées d’un signal
Dériver un signal est une opération très courante, comme dans le cas du décalage, les approximations consistant à faire
la différence entre deux points ne sont pas pleinement satisfaisantes. Le premier problème de cette méthode est qu’elle
évalue la dérivée entre les deux points utilisés, notre dérivée est ainsi décalée d’un demi-point.
La transformée de Fourier nous fournit une solution élégante, elle revient à multiplier chaque mode par i.k ce qui est
très facile à réaliser. (A nouveau le signal réel a un petit problème à k = N/2). La méthode se généralise sans difficulté
pour calculer les dérivées secondes, etc. Encore une fois, cette méthode ne modifie pas le signal original : si on intègre la
dérivée d’un signal, celui-ci est complètement inchangé (sauf pour la composante continue évidemment).

3.2 Les méthodes spectrales


Pour intégrer une équation différentielle avec des dérivées spatiales comme la diffusion de la chaleur, la propagation
des ondes ou la vitesse d’un écoulement, le calcul des dérivées spatiales est très important. Imaginons que nous voulons
décrire les ondes se propageant sur une corde sans frottement ∂ 2 F/∂ 2 t = a∂ 2 F/∂ 2 x, l’énergie de cette onde est invariante
dans le temps, si nous faisons un calcul de dérivée partielle basé sur une différence entre deux points consécutifs séparés
de h, nous faisons une approximation linéaire de la dérivée dont la précision est en 1/h, nous devons également intégrer
dans le temps avec un pas de temps dt. A chaque pas de temps nous devons évaluer la dérivée spatiale, si nous faisons une
petite erreur dans cette évaluation (disons que nous perdons ou que nous gagnons un peu d’énergie), celle-ci va grandir
exponentiellement avec le temps ! si nous perdons de l’énergie, notre onde va mourir prématurément, mais si nous en
gagnons, notre onde va diverger : c’est vite gênant. En prenant la dérivée spatiale avec la transformée de Fourier nous
évitons cet écueil nous ne sommes limités que par la précision numérique. Ce type de simulation est appelée méthode
spectrale. Ces méthodes sont très efficaces, mais elles souffrent de quelques limitations : la première c’est qu’il faut passer
dans l’espace de Fourier pour faire les calculs des dérivées spatiales, mais certains calculs ne peuvent se faire simplement
que dans l’espace réel, dans ce cas il faut passer d’un espace à l’autre à chaque itération en effectuant la transformée de
Fourier (heureusement il en existe une version rapide). La seconde limitation est plus sévère : la transformée de Fourier
implique des données périodiques, ce qui veut dire que lorsque le paquet d’ondes arrive au bout de la corde au point N − 1
il revient à l’origine. Les conditions aux limites périodiques sont souvent intéressantes, mais elles ne sont pas toujours
utilisables.

3.3 Transformée Fourier Rapide FFT


La transformée de Fourier discrète faite en appliquant directement l’équation 1 nécessite N multiplications pour cal-
culer un coefficient de Fourier ak , comme il y en a également N le temps de calcul de la transformée de Fourier serait de
N 2 multiplications. c’est donc une opération lourde en calcul, heureusement Cooley et Tukey ont remarqué que si N est
une puissance de 2 on peut faire le calcul beaucoup plus vite (voir l’article de R.J. Higgins AJP 44, 8, (1976)). En effet
en utilisant les symétries paires impaires, il est possible de réduire le nombre d’opérations à N.log2 N . Si nous voulons
faire une transformée de Fourier sur 1024 points (210 ) on passe de 106 à 104 opérations soit un gain d’un facteur 100 !
(dans les années 1980, la FFT sur 1024 points sur un Apple-II prenait 1 seconde). L’algorithme est simple et très élégant
si N = 2n (il prend une page), il existe des méthodes équivalentes, mais nettement plus complexes si N est quelconque
on peut trouver une excellente bibliothèque libre de fonctions réalisant la FFT sur tout N et utilisant au maximum les
optimisations des processeurs actuels (SMID) à l’adresse suivante : http ://www.fftw.org.

3.4 Correspondance fonction de corrélation et Transformée de Fourier


Souvent on dispose de deux signaux de nature différente dans lesquels on pense qu’un même phénomène est présent
masqué par les bruits propres de chaque signal. On désire chercher une corrélation entre ces deux signaux. Le principe
de la recherche de corrélation est simplement de faire le produit des deux signaux entre eux, les parties corrélées étant
en phase elles vont se sommer, les bruits sans corrélations vont se moyenner à zéro. Bien souvent il faut soustraire la

6 V. C ROQUETTE , LPS-ENS
16384 pt. f s = 60Hz, Z mag = -1.3 mm Auto-correlation (1 windows)
1
1

22.5 m
0.75 f(t) = exp(-t/ )
= 0.4397 s +- 4 %
0.5
Position x

22 m
0.5

0
21.5 m
0.25
0 2s 4s 6s

21 m 0

0 50s 100s 150s 200s 250s 0 20s 40s 60s 80s 100s 120s 140s
Temps (s) Temps
F IGURE 9 – À gauche, signal expérimental de mouvement brownien d’une bille attachée par une molécule d’ADN. À
droite, fonction d’autocorrélation du signal de gauche (en bleu), celle-ci démontre que les fluctuations ont une mémoire
dont le temps caractéristique est d’une demi-seconde (voir insert). Aux temps plus longs, la fonction d’autocorrélation
présente un bruit statistique.

composante continue qui ne fait pas partie des signaux. Généralement le problème se complique un peu, car la partie du
signal corrélée présente un retard différent dans chaque signal. Il faut donc étendre le produit de corrélation en décalant
un signal par rapport à l’autre d’un retard variable τ . Pour des signaux complexes, ce produit s’écrit :
N
X −1
C(τ ) = X(t).Ỹ (t − τ )
0

où X est le premier signal et Ỹ (t − τ ) correspond au second signal décalé dans le temps. Dans cette somme nous
avons supposé les conditions aux limites périodiques. L’évaluation de cette fonction pour les N retards possibles avec N
échantillons demande N 2 opérations de multiplication.
En écrivant x(t) et ỹ(t − τ ) en Fourier et en utilisant le théorème du retard, on obtient une relation intéressante :
N −1 N/2−1 N/2−1
X X X 0 0
C(τ ) = Xk e2i.π.k.t/N . Y˜k e2i.π.k .t/N .e−2i.π.k .τ /N
t=0 k=−N/2 k0 =−N/2

soit
N/2−1 N/2−1 N −1
0 0
Y˜k0
X X X
C(τ ) = Xk . e2i.π.(k+k ).t/N .e−2i.π.k .τ /N
k=−N/2 k0 =−N/2 t=0
0
Où la somme sur t n’est différente de zéro que si k = −k , ce qui conduit à
N/2−1
X
C(τ ) = ˜ e2i.π.k.τ /N
Xk Y−k
k=−N/2

On voit ainsi que l’on peut exprimer la fonction de corrélation à partir des transformées de Fourier de chacun des signaux.
Dans le cas où y(t) est le signal x(t) on parle d’autocorrélation du signal, nous obtenons le théorème de Wiener Kint-
chine qui dit que la fonction de corrélation et le spectre de puissance sont transformée de Fourier l’un de l’autre. L’intérêt
de cette relation réside dans l’existence de l’algorithme rapide de la TF, au lieu de calculer le produit de corrélation dans
l’espace direct (ce qui compte N 2 opérations), on calcule la FFT de X(t), celle de Y (t), on fait produit de ces deux TF
et on applique une transformée de Fourier inverse qui nous ramène dans l’espace réel avec la fonction de corrélation.
Cette méthode est évidemment beaucoup plus efficace en termes de temps de calcul, elle fait l’hypothèse que le signal est
périodique.
La fonction de corrélation contient généralement une information physique, si nous faisons la fonction de corrélation
de la température de l’air extérieur, nous allons observer le temps caractéristique de l’atmosphère qui est de l’ordre d’un
ou deux jours. Dans l’exemple du mouvement brownien de la Fig. 9, le temps caractéristique est égal au temps de réponse
de notre système (ici ≈ 0.5s). Si nous calculons la fonction de corrélation d’un bruit numérique obtenu avec un bon
générateur de nombres aléatoires, nous obtiendrons une fonction de Dirac car le signal ne sera corrélé avec lui-même que
pour τ = 0.

Signaux et images 7
a)
1
5

0.5 2

10-1
0 5

1
b) 2

Amplitude Ak
10-2
0.5 5

2
0
10-3
c) 5
1
2
0.5
10-4
5
0
0 50 100 150 200 250 25 50 75 100 125
Temps (s) Indice du mode (k)
F IGURE 10 – À gauche, Construction d’un cristal à une dimension : en a) signal expérimental, en b) peigne de Dirac en
c) produit de convolution de a) et b) reproduisant un signal périodique comme un cristal. À droite, spectre d’amplitude
de Fourier du signal isolé a) (ligne continue verte), et du signal périodique c). Ce dernier est bien le produit du peigne de
Dirac (non représenté) par celui du signal de départ. Pour que les deux spectres coïncident, nous avons multiplié le spectre
de a) par 8 puisqu’il y a 8 pics dans c)). L’analogie avec un cristal permet de mieux comprendre les clichés de rayons X
des cristaux : l’information intéressante est celle à l’intérieur d’une maille, on l’obtient en regardant les pics de diffraction
du réseau.

3.5 Produit de convolution et Transformée de Fourier


De nombreux phénomènes physiques font apparaître le produit de convolution : -les signaux périodiques peuvent être
décrits comme la convolution du signal correspondant à une période par un peigne de Dirac. -tous les signaux mesurés
sont convolués par la fonction de réponse de l’instrument de mesure. Lorsque cet appareil est bon, sa fonction de réponse
est fine et le signal semble bon. Mais il est courant que la fonction de réponse soit loin d’être idéale et on est tenté de
vouloir déconvoluer le signal expérimental. Autant calculer le produit de convolution est facile à réaliser dans l’espace
direct, autant faire une déconvolution est nettement moins aisée. La transformée de Fourier nous apporte une solution.
Pour des signaux continus, le produit de convolution s’écrit :
Z ∞ N
X −1
f ⊗ g(τ ) = f (t).g(τ − t)dt pour un signal discret = fr .gτ −r
−∞ 0

En écrivant f (r) et g(τ − r) en Fourier et en utilisant le théorème du retard, on obtient une relation intéressante :

N −1 N/2−1 N/2−1
X X X 0 0
f ⊗ g(τ ) = Fk e2i.π.k.r/N . Gk0 e−2i.π.k .r/N .e2i.π.k .τ /N
r=0 k=−N/2 k0 =−N/2

soit
N/2−1 N/2−1 N −1
X X X 0 0
f ⊗ g(τ ) = Fk . G0k e2i.π.(k−k ).r/N .e2i.π.k .τ /N
k=−N/2 k0 =−N/2 r=0

0
Où la somme sur r n’est différente de zéro que si k = k , ce qui conduit à
N/2−1
X
f ⊗ g(τ ) = Fk Gk e2i.π.k.τ /N
k=−N/2

On en déduit que la transformée de Fourier d’un produit de convolution de deux fonctions devient le produit des
transformées de Fourier de ces deux fonctions.
Comme pour la fonction de corrélation, la transformée de Fourier permet de calculer plus rapidement le produit de
convolution, mais surtout il nous permet de déconvoluer. En effet, en passant en Fourier il suffit de diviser les TF pour
obtenir la TF du signal déconvolué.

8 V. C ROQUETTE , LPS-ENS
1
10-1

10-2

Amplitude du mode k
0 10-3
Position x

10-4

10-5
-1
10-6

10-7
-2
10-8
0 100 200 300 400 500
Temps (s) 100 2 5
101 2 5
102 2

Indice du mode (k)


F IGURE 11 – À gauche, en bleu signal original sur 512 points, en vert fonction de réponse gaussienne dont la largeur
est d’environ deux points (ce signal est normalement centré sur l’origine, mais nous l’avons décalé pour le rendre plus
visible). En rouge signal obtenu en convoluant le signal bleu avec la fonction de réponse verte, l’effet de la convolution
est ici de filtrer passe-bas le signal original (nous avons décalé le signal rouge de -0.5 pour la visibilité de la figure). En
magenta, nous avons repris le signal rouge et nous l’avons déconvolué par la fonction de réponse Gaussienne en utilisant
la transformée de Fourier (nous avons décalé le signal magenta de -1 pour la visibilité de la figure). À droite, nous avons
représenté l’amplitude des modes de Fourier de signaux de gauche avec les mêmes conventions de couleur (nous n’avons
pas représenté la TF du signal magenta qui est la même que celle du signal original). Ce spectre est représenté en échelle
logarithmique, car les composantes de Fourier ont des intensités très différentes les unes des autres.

F IGURE 12 – Comparaison de trois filtres passe-bas ayant la même fréquence de coupure, fc = 16 mais des formes
différentes (ils opèrent sur 128 points réels, soit 64 fréquences). À gauche, coefficient de transmission de ces filtres
passe-bas dans l’espace de Fourier, ces filtres ont une transmission à 1 pour les modes tel que f < fc − w, nulle quand
f > fc + w et dans la zone intermédiaire T = (1 + sin(π.(fc − f )/2.w))/2. À droite, réponse impulsionnelle de ces
filtres dans l’espace réel. La largeur des pulses est équivalente, car tous les filtres ont la même fréquence de coupure à mi-
hauteur, par contre la décroissance des rebonds dépend fortement de la largeur w du filtre (ces réponses impulsionnelles
ont été décalées de 64 points pour être plus claires).

3.6 Filtrage en fréquence


Faire la transformée de Fourier permet de séparer les différentes composantes d’un signal. Souvent la partie intéres-
sante d’un signal n’est présente que dans quelques modes de la TF tandis que le bruit expérimental apparaît partout. En
supprimant certains modes qui ne contiennent que du bruit, on améliore nettement le signal considéré comme nous l’avons
vu dans la figure 10.
Il y a beaucoup de façons d’atténuer ou de supprimer des modes dans la TF, les plus courantes sont les filtrages type

Signaux et images 9
1 1
Passe bande
f cl = 16 wl = 8
f ch = 32 wh = 8
f ch = 32 0.5
f cl = 16
gain

0.5
0

- wl = 8 - wh = 8
-0.5
0
0 20 40 60
1 1
-w=8
Passe-haut
fc = 32, w = 8 0.5

- fc = 32
gain

0.5
0

-0.5
0
0 20 40 60 0 25 50 75 100 125
mode f Temps
F IGURE 13 – Filtres passe-bandes et passe-haut (ils opèrent sur 128 points réels, soit 64 fréquences). À gauche, coefficient
de transmission de ces filtres passe-bande en haut et passe-haut en bas. À droite, réponse impulsionnelle de ces filtres dans
l’espace réel (ces réponses impulsionnelles ont été décalées de 64 points pour plus de clarté).

1
100 f = 16
10-1
10-2
0
10-3
10-4
10-5
mode (k)
-1
0 100 200 300 400 500
10-6
100 2 5
101 2 5
102 2

1
100 f = 16.5
10-1
10-2
0
10-3
10-4
10-5 mode (k)
-1
200 225 250 275 300 325
10-6
100 2 5
101 2 5
102 2
F IGURE 14 – TF d’un signal sinusoïdal de période commensurable avec la fenêtre d’analyse du signal (en haut f = 16)
et d’un sinus incommensurable avec la fenêtre (f = 16.5). À gauche, le signal dans l’espace réel décalé de N/2 pour le
signal du haut la périodicité est parfaite pour le signal du bas le décalage fait apparaître un saut de phase. À droite, TF de
chacun des signaux, le saut de phase induit une très forte perturbation du spectre.

“passe-bas” où les hautes fréquences sont supprimées, “passe-haut” où ce sont les basses fréquences qui sont supprimées et
finalement les filtres “passe-bandes” qui servent surtout à isoler les modes de Fourier voisins d’une fréquence particulière.
Comme nous avons pu le voir dans la figure 11, filtrer c’est en fait convoluer par une fonction de réponse impul-
sionnelle. Dans ce cas précis, nous avons utilisé une réponse impulsionnelle gaussienne dont le spectre est également
une gaussienne. La réponse impulsionnelle d’un filtre dans l’espace réel et l’atténuation des composantes de Fourier sont
reliées par la TF, le choix du profil d’atténuation dépend de l’usage souhaité, si nous sommes principalement intéressés
par visualiser les composantes du spectre, il est possible d’utiliser des filtres dont la coupure fréquentielle est très raide :

10 V. C ROQUETTE , LPS-ENS
une fonction rectangle où T (f ) = 1 si f < fc et 0 autrement (ce filtre est nommé “brick-wall” en anglais). En principe
c’est le filtre qui donne le meilleur rapport signal sur bruit. Mais on souhaite souvent revenir au signal dans l’espace réel
et la réponse impulsionnelle d’un filtre rectangle en Fourier est un sinus cardinal qui possède la propriété très désagréable
d’osciller même loin de l’impulsion originale. Le choix d’un filtre raide en Fourier et dont la réponse impulsionnelle
s’atténue rapidement est un compromis qu’illustre le principe d’Heisenberg en mécanique quantique.

3.7 Signaux non périodiques

1
100 f = 16
10-1
10-2
0
10-3
10-4
10-5
mode (k)
-1
0 100 200 300 400 500
10-6
100 2 5
101 2 5
102 2

1
100 f = 16.5
-1
10
10-2
0
10-3
10-4
10-5 mode (k)
-1 -6
0 100 200 300 400 500
10
100 2 5
101 2 5
102 2
F IGURE 15 – Effet du fenêtrage de Hanning sur la TF d’un signal sinusoïdal de période commensurable avec la fenêtre
d’analyse du signal (en haut f = 16) et d’un sinus incommensurable avec la fenêtre (f = 16.5). À gauche, le signal dans
l’espace réel multiplié par la fenêtre de Hanning. À droite, TF de chacun des signaux, pour le signal du haut, la fenêtre
élargit un peu le pic, pour celui du bas, l’effet du saut de phase est nettement réduit.

Évidemment la plupart des signaux que nous désirons analyser ne sont pas périodiques, or la transformée de Fourier
discrète suppose que le signal a une période égale aux nombres de points N de l’échantillon. Si nous ne prenons aucune
précaution, des choses horribles se produisent et la validité des théorèmes énoncés n’est plus assurée.
Effet de la non-périodicité sur un signal sinusoïdal : la TF fait l’hypothèse que notre sinus possède exactement un
nombre entier de périodes sur l’intervalle [0, N ], dans ce cas le point N − 1 recolle parfaitement avec le point 0, par
exemple comparons ce cas à celui où la fréquence n’est pas commensurable avec la fenêtre d’analyse comme dans la figure
14. Le problème de non commensurabilité survient au raccordement entre le point N − 1 et le point 0, pour visualiser
ce problème il est préférable de décaler le signal de N/2 ce qui ramène le point N − 1 et le point 0 respectivement en
N/2 − 1 et N/2. Comme on peut le voir sur la figure 14 en bas à gauche. L’effet d’une discontinuité est très important
sur le spectre de Fourier (comparez les spectres de la figure 14). Ce phénomène est très gênant, car imaginer que vous
augmentez continûment la fréquence d’un signal en cours d’analyse, le pic correspondant à la fréquence du signal va
présenter une forme extrêmement variable en fonction de la commensurabilité. Pour éviter ce problème, il faut annuler
l’effet du saut de phase. La solution consiste à multiplier le signal d’entrée par une “fenêtre” qui s’annule en 0 et en N , on
améliore encore le processus en utilisant une fenêtre dont la dérivée première s’annule en 0. La fonction la plus connue
pour réaliser cette correction est la fenêtre de Hanning qui s’écrit :

F (r) = (1 − cos(2.π ∗ r/N ))/2


La fenêtre de Hanning n’est pas parfaite, il existe des fonctions plus complexes qui réduisent les modes parasites à côté
du pic, (les “sides-bands” en anglais) ou qui sont plus plates en haut du pic. Cependant toutes ses fonctions améliorent un
paramètre au détriment des autres paramètres du pic comme sa largeur par exemple. La fonction de Hanning est un bon
compromis.
Le fenêtrage de Hanning permet de corriger les problèmes liés au calcul du spectre de puissance, mais nous avons vu
que la TF était très utile pour réaliser bien d’autres opérations comme le calcul de la fonction de corrélation, la convolution

Signaux et images 11
2.2

- Original - Original
2.175

2.15
Valeur

- LP-Hamming
2.125
- LP

2.1

2.075
0 5 10 0 5 10
Indice Indice
F IGURE 16 – Effet du fenêtrage de Hamming sur le filtrage d’un signal non périodique la fenêtre d’analyse. À gauche, le
signal dans l’espace réel traité directement en FFT. Comme le signal présente une discontinuité, le signal filtré présente une
perturbation importante aux extrémités. À droite, le signal a été filtré en utilisant la fenêtre de Hamming la discontinuité
des bouts a disparu.

ou la déconvolution et finalement le filtrage. Prenons le cas du filtrage par exemple, nous pouvons appliquer une fenêtre
de Hanning avant de calculer la TF, appliquer le filtre en Fourier et revenir dans l’espace réel. Nos données seront filtrées,
mais leur amplitude sera modulée par la fenêtre de Hanning. Comme cette fenêtre annule le signal en r = 0, elle ne peut
pas être inversée. L’alternative consiste à utiliser une fenêtre qui ne s’annule pas tout à fait en r = 0, c’est la fenêtre de
Hamming.

F (r) = 0.54 − 0.46.cos(2.π ∗ r/N )

12 V. C ROQUETTE , LPS-ENS
3.8 Spectre et fonction de corrélation de quelques systèmes classiques
3.8.1 Filtre passe-bas d’ordre 1, le cas du circuit RC

F IGURE 17 – Filtre passe-bas constitué d’un cir-


cuit RC.

Le filtre le plus classique est celui constitué par une résistance et un condensateur, Fig. 17. Le signal Vin arrive sur
l’une des deux bornes de la résistance R et la seconde borne de la résistance est connectée à la sortie du filtre et à la borne
d’un condensateur C. la seconde borne du condensateur est reliée à la masse. La réponse impulsionnelle de ce circuit est
une exponentielle décroissante v(t) = V0 exp(−t/τ ) avec τ = R.C. Il est facile de démontrer que le profil de ce filtre en
Fourier est une lorenzienne V 2 (ω) = 1/(1 + ω 2 /ω02 ) avec ω0 = 1/R.C.
Spectre moyen
5
F IGURE 18 – Spectre des fluctuations d’une bille
2 attachée à une molécule d’ADN. Ce spectre a été
-1
10 moyenné 4 fois est ajusté à une Lorenzienne il
5 faut le comparer à la fonction de corrélation de
2 la figure, 9 car il s’applique au même signal.
<x2> ( m2.Hz-1)

10-2 x02
5 x2(f) = 2
1 + (f/f 0)
2
f 0 = 0.48 Hz
10-3
5

2
-4
10
5

10-2 2 5
10-1 2 5
100 2 5
101 2

frequence (Hz)
Ce filtre est le plus simple que l’on puisse réaliser, il laisse passer les fréquences jusqu’à fc = ω0 /2.π. Au-delà il
les atténue l’amplitude du signal qui décroît comme 1/ω. La réponse est en phase à basse fréquence. A haute fréquence,
le déphasage tend vers 90◦ . Lorsque l’on mesure la transmission en décibels, l’atténuation est de 6dB par octave ou de
20dB par décade. Cette atténuation modérée est souvent insuffisante. De très nombreux systèmes sont décrits par ce type
de réponse spectrale. La microbille attachée à une molécule d’ADN, dont nous avons déjà parlé, en est un exemple. En
effet la molécule d’ADN agit comme un ressort. Le frottement visqueux ralentit le mouvement. L’inertie liée à la masse
est négligeable, car la viscosité à l’échelle du micron domine très largement. En négligeant cette inertie, l’équation du
mouvement devient : 6πηrẋ + kx = 0.

3.8.2 Filtre passe-bas d’ordre 2


Cette classe de filtre décrit par exemple le déplacement de la membrane d’un hautparleur en fonction de la fréquence.
La membrane et sa bobine motrice présentent une masse m, elles sont attachées à un élément ressort de raideur k. Les
frottements visqueux et la dissipation dans la bobine motrice induisent un freinage proportionnel à la vitesse de la bobine
dont la position est décrite par la variable x. L’équation régissant x est de la forme : mẍ + γ ẋ + kx = Fo (t) où Fo (t)
est la force générée par le courant circulant dans la bobine et γ est le coefficient de frottement. Si Fo (t) = Aexp(iωt) on
x0
obtient x̃(ω) = k+iγω−mω 2

Ce système se comporte comme un filtre d’ordre 2,p il laisse passer les fréquences jusqu’à fc = ω0 /2.π sans présenter
de déphasage important à basse fréquence, avec ω0 = k/m. A cette fréquence il présente une résonance plus ou moins
forte, la phase du signal change rapidement passant par 90◦ à la résonance. Au -delà, il les atténue et l’amplitude du signal
transmis décroît comme 1/ω 2 . La transmission mesurée en décibels présente une atténuation de 12dB par octave ou de
40dB par décade.

3.9 La transformée de Hilbert


Pour le moment, nous avons essentiellement discuté le cas de signaux réels. Cependant les signaux qui nous intéressent
sont très souvent des oscillations temporelles, par lesquels On cherche à mesurer la période, la fréquence ou la phase

Signaux et images 13
103 F IGURE 19 – Spectre des déplacements de la
10 2 membrane d’un hautparleur en fonction de la
fréquence d’excitation sur des échelles log-log.
101 Nous avons fait varier le coefficient de frotte-
ment de façon importante passant d’un compor-
100
<x2> (mm2.Hz-1 )

tement avec de fortes oscillations au cas extrême


où ces oscillations sont sur amorties.
10-1
10-2
10-3
10-4
10-5
10-6
100 2 5
101 2 5
102 2 5
103 2

frequence (Hz)

1
Sinus k = 17 B)
A)
0.5

0 -- --
-17 +17

-1 0

exp(ikx), k = 17 D)
1 C)
0.5

0 --
+17

-1 0
0 200 400 600 800 1000 -100 -75 -50 -25 0 25 50 75 100

F IGURE 20 – Principe de la transformée de Hilbert.

des oscillations. Pour ce faire, la première méthode à laquelle on pense consiste à mesurer la distance qui sépare deux
passages par zéro du signal, néanmoins cette méthode souffre de multiples problèmes. Dans ce cas il est bien souvent plus
commode d’utiliser une représentation complexe du signal. En effet, comparons la fonction cos(ωt) à son équivalente
complexe eiωt . Comme cette dernière garde un module constant, cela permet d’extraire facilement le terme de phase
φ = ωt à partir des parties réelle et imaginaire. La fréquence instantanée du signal ω s’obtient en dérivant φ(t). Dès lors
on est tenté, lorsque l’on a un signal réel centré sur une fréquence, de vouloir le rendre complexe, c’est précisément ce
que permet de faire la transformée de Hilbert. La transformée de Hilbert consiste à changer un cosinus ou un sinus en
une fonction eiωt . Si nous prenons la transformée de Fourier d’un signal réel, les modes de fréquence +k et −k sont
simplement complexes conjugués l’un de l’autre. Dans l’espace de Fourier, si nous supprimons les modes négatifs, nous
ne perdons pas d’information, par contre en revenant dans l’espace direct avec une T F −1 nous fabriquons un signal
complexe, c’est la transformée de Hilbert. C’est donc une opération très simple à partir de la transformée de Fourier. Dans
le cas du cosinus ou du sinus, la transformée ne pose aucun problème, car les modes en +k et −k sont bien définis. Dans
le cas général d’un signal centré sur une fréquence, tant que la largeur du paquet de modes en Fourier est petite, tout va
bien. Les choses se compliquent lorsque la largeur du paquet de modes s’étend à k = 0. Dans ce cas, les deux paquets
de modes se mélangent et leur séparation n’est plus possible. En pratique la transformée de Hilbert ne devrait pas être
utilisée dès que le spectre du signal présente des composantes significatives à basse fréquence. De fait, elle est souvent
utilisée (ou conjointement) après un filtre passe-bande.

14 V. C ROQUETTE , LPS-ENS
4 Numérisation d’un signal
Tous nos appareils sont devenus numériques, la musique, les photos et maintenant la vidéo et la télévision, alors
qu’ils étaient auparavant analogiques. Le niveau de la numérisation est tel que l’on a tendance à oublier que le signal
sonore ou lumineux utilisé dans ces médias est analogique à la base. Les microphones enregistrent les infimes variations
de pressions produites par les ondes sonores généralement en mesurant les déplacements d’une fine membrane formant
l’armature d’un condensateur de quelques picofarads. Il en résulte des tensions électriques de quelques millivolts. Les
capteurs d’images convertissent le flux de photons incident en une charge électrique produisant également un signal
électrique. Après amplification, ces signaux sont numérisés et c’est cette information numérique qui est transmise ou
stockée sans perte.

4.1 Principe de la conversion analogique digitale

Convertir un signal analogique en une série de nombres (CAN (conversion Analogique Numérique) ou AD (Analog
to Digital) en anglais) n’est pas une opération simple, même si les circuits qui réalisent cette tâche sont maintenant
miniaturisés et très performants. Il existe plusieurs types de convertisseurs et nous ne décrirons que les principes d’un seul
d’entre eux juste pour comprendre les problèmes associés. Il est plus facile de faire un convertisseur numérique analogique
en utilisant un réseau de résistances diviseurs de type R/2R avec une série de commutateurs analogiques comme sur la
figure 21. Ce type de circuit génère un courant (ou une tension) dont l’intensité est proportionnelle au nombre binaire
pilotant les commutateurs.

F IGURE 21 – Principe d’un convertisseur numérique analogique utilisant un réseau de résistance R/2R.

Pour faire un convertisseur analogique numérique, on compare la tension à mesurer à celle d’un convertisseur numé-
rique analogique et on ajuste le nombre binaire jusqu’à ce que les deux tensions soient égales. On fait cette opération
en actionnant les commutateurs les uns après les autres en commençant par ceux qui représentent les bits de poids forts
en écriture binaire. On montre qu’il faut faire autant de comparaisons qu’il y a de bits à déterminer. Pour analyser un
signal sonore on utilise couramment des CAN de 16 bits qui échantillonnent le signal à 44000 Hz. Pour la vidéo les
convertisseurs travaillent sur 8 bits (des fois 10 ou 12) et à des fréquences beaucoup plus rapides : 15 MHz pour un signal
de télévision CCIR, quelques centaines de MHz pour des signaux. HD. Pendant la conversion, il est fondamental que le
signal reste très stable sinon sa convergence ne sera pas assurée. Comme le signal est dynamique, la chaîne de conversion
contient un circuit spécial pour maintenir le signal constant durant la conversion. Il est dénommé échantillonneur bloqueur
(“sample and hold” en anglais). Ce circuit présente une entrée du signal, une sortie et une commande logique qui actionne
un commutateur analogique. Lorsque le signal logique est actif, le signal passe directement de l’entrée à la sortie, lorsque
le signal logique transite et passe dans le mode échantillonneur, le signal de sortie se fige. Généralement, ce circuit contient
un condensateur qui stocke le signal durant la période d’échantillonnage. Si on reste trop longtemps dans cette phase, le
signal de sortie risque de dériver lentement. En figeant le signal lors de la transition de sa commande, l’échantillonneur
bloqueur convolue en quelque sorte le signal par un Dirac centré sur la transition du signal de commande. Ce dispositif
est par construction extrêmement sensible aux composantes hautes fréquences du signal. Il est ainsi possible de numériser
des fréquences comparables voir plus grandes que la fréquence d’échantillonnage. Ceci conduit à des artéfacts sérieux. En
effet nous avons vu dans la discussion sur la TF que le mode de fréquence le plus élevée était tel que k = N/2. Ce mode
correspond à la limite du théorème de Shanon qui nous indique qu’il faut au minimum deux points d’échantillonnage par
période du signal pour en avoir une description fidèle.

Signaux et images 15
4.2 Nécessité d’un filtrage avant la numérisation, théorème de Shanon
Que se passe-t-il quand on échantillonne des fréquences plus grandes que la limite spécifiée par le théorème de
Shanon ? Prenons le cas où la fréquence du signal fs est rigoureusement égale à la fréquence d’échantillonnage : fs =
fe , une période du signal sépare exactement deux échantillons. Du coup tous les échantillons sont identiques et notre
fréquence fs produit un signal constant comme si sa fréquence apparente était nulle fa = 0 (ce raisonnement est valable
pour tous les harmoniques de la fréquence d’échantillonnage). Si la fréquence fs est juste un peu plus grande que fe ,
on va assister à un battement entre les deux fréquences qui va produire fs + fe et fs − fe . Comme on ne peut voir que
des composantes plus petite que fe /2, la composante fs − fe apparaît comme une fréquence basse. Le problème est que
cette composante sera indistinguable d’une vraie basse fréquence du signal. Cet artéfact est appelé repliement de spectre
ou aliasing. On peut décrire plus précisément le repliement de spectre utilisant le produit de convolution comme on peut
le voir sur la figure 22. Échantillonner c’est multiplier le signal par un peigne de Dirac. Le produit dans l’espace direct
devient un produit de convolution dans l’espace de Fourier ou le spectre du signal se retrouve convolué par le spectre
du peigne de Dirac. La convolution par un Dirac est simple : elle reproduit le spectre du signal, décalé de la position du
Dirac. Notre produit de convolution reproduit ainsi le spectre du signal décalé par tous les harmoniques de la fréquence
d’échantillonnage. Si le spectre du signal est plus large que fe /2 (le critère de Shanon aussi appelée la fréquence de
Nyquist), il y a un recouvrement des spectres décalés. Au final nous n’avons accès qu’à la région comprise entre −fe /2
et fe /2. En pratique quand la fréquence du signal fs dépasse légèrement la fréquence fe /2, la fréquence de notre signal
est changée en fa = fe − fs . Pour fs ∈ [fe /2, fe ], la fréquence du signal décroît lorsque la fréquence fs croît.

1
Sinus k = 17 B)
A)
0.5

0 -- --
-17 +17

-1 0

C) D)
1
Peigne de Dirac periode 64 N = 1024 0.02

0.5 0.01
--
16

0 0

1
E) F)
0.02
| |

0
0.01

-1 0
0 200 400 600 800 1000 -100 -75 -50 -25 0 25 50 75 100
Mode k
F IGURE 22 – le repliement de spectre : À gauche A) un signal de fréquence k = 17 affiché sur 1024 points. B) transformée
de Fourier de A). C) peigne de Dirac correspondant à une conversion NA tous les 64 points de l’échantillon produisant
16 échantillons. D) TF du peigne de Dirac, présentant des pics à k = n.1024/64 = n.fe avec n ∈ Z b). E) le signal
échantillonné apparaît comme un sinus de k = 1. Pour comprendre le principe du repliement de spectre on peut décrire
l’échantillonnage comme un produit direct de A) par C) ce qui correspond à un produit de convolution de B) par D).
Comme B) n’est constitué que de deux Diracs, le produit de convolution est simple à calculer, il correspond à la somme
de deux peignes de Dirac avec des pics à k = n.16 décaler l’un de +17 et l’autre de -17. Comme les fréquences du signal
échantillonné doivent appartenir à l’intervalle k ∈ [−fE /2, fe /2], seules les modes à k = ±1 sont visibles.

Il faut absolument éviter les repliements de spectre, car ils constituent une altération du signal qui ne peut être corrigé.
La seule façon de prévenir ce problème est de filtrer de façon analogique le signal avant de le numériser. La chaîne de
traitement du signal comporte donc une amplification du signal, un filtre et finalement un Convertisseur Analogique Nu-
mérique. Les caractéristiques demandées à ce filtre sont assez sévères. Prenons l’exemple d’un enregistrement numérique
du son pour un CD, la fréquence d’échantillonnage est habituellement de 44kHz pour un CAN de 16 bits, or la bande
passante souhaitée est de 20Hz à 18KHz. On demande donc au filtre d’avoir une réponse spectrale qui vaut 1 jusqu’à 18
kHz, puis celle-ci doit devenir quasi nulle pour les fréquences plus grandes que 24 kHz. Si nous voulons bénéficier de la
dynamique des 16 bits, cela impose que la transmission du filtre soit plus petite que 1/65536 à 24 kHz. Ceci correspond

16 V. C ROQUETTE , LPS-ENS
à 100dB sur une demi-octave ! Construire un tel filtre est un défi sérieux qui n’est pas impossible, mais délicat et cher.
Peu de cartes son sont équipées d’un filtre ayant de tels performances. Le filtrage est clairement le point faible dans la
chaîne de numérisation, les oscilloscopes numériques, par exemple, permettent d’acquérir un signal avec une fréquence
d’échantillonnage variable sur une très grande gamme d’échantillonnage. En principe il faudrait un filtre spécial pour
chaque fréquence d’échantillonnage. La plupart des oscilloscopes numériques bon marché n’ont pas de filtre ou ont un
filtre pour une seule fréquence d’échantillonnage. Attendez-vous à des surprises en analysant les signaux sur ces appareils.
Les bons oscilloscopes échantillonnent à haute fréquence et appliquent des filtres numériques avant de vous afficher un
signal. Comme leur résolution est souvent limitée à 8 bits les problèmes des repliements de spectres sont moins sévères et
à peu près maîtrisés. Un filtre très raide en Fourier implique que sa réponse impulsionnelle présente de fortes oscillations.
Cette propriété est désagréable dès qu’on regarde le signal numérisé dans l’espace direct. Pour éviter les problèmes des
repliements de spectres, il faut utiliser un filtre passe-bas, la meilleure solution est clairement de repousser le fréquence
de Nyquist nettement au-dessus de la fréquence maximum que l’on souhaite analyser pour que ce filtre soit plus facile à
réaliser. C’est ce qui est fait dans les cartes sons sérieuses qui échantillonnent à 96 kHz, la fréquence maximale audible
est toujours de 18 ou 20 kHz, mais ces cartes laissent deux octaves pour que le filtre passe-bas coupe efficacement les
fréquences indésirables. C’est d’autant plus utile que leur dynamique a également augmenté.

4.3 Cas particulier des capteurs matriciels : caméra CCD

1 1
Amplitude transmise
Integration

0.5 0.5

0 0
0 1 e 2 e 3 e 4 e 0 0.5fe 1fe 1.5fe 2fe
Temps frequence du signal

F IGURE 23 – Fonction de réponse et repliement de spectre d’une caméra avec une fréquence d’échantillonnage fe = 1/τe .
À gauche, signal logique indiquant l’intégration de la lumière par la caméra, lorsque ce signal est égal à 1, la caméra
intègre. En fait la caméra intègre la lumière presque tout le temps, elle présente un petit temps mort entre deux images.
À droite le spectre de réponse de la caméra (en bleu sans tenir compte des repliements). Seules les fréquences comprises
entre 0 et fe /2 sont accessibles. Nous avons représenté les repliements issus de la courbe bleue. En fait il-y-a d’autres
lobes du sinus cardinal que nous n’avons pas représenté.

Le problème du filtrage est délicat, comme nous venons de le voir. Les caméras sont devenues des outils de mesure
irremplaçable dans bien des domaines. Elles associent maintenant quelques millions de pixels qui sont autant de cap-
teurs indépendants. Tous ces capteurs sont lus avec la même fréquence image qui n’est pas très élevée (quelques dizaines
d’Hertz). Par contre, il est impossible de placer un filtre derrière chaque pixel pour prévenir les repliements de spectre.
Les séquences vidéos prises avec des caméras peuvent présenter des repliements de spectre forts. L’effet est générale-
ment atténué (mais pas supprimé) par leur temps d’intégration qui induit un filtrage notable. Dans leur mode normale de
fonctionnement, les caméras intègrent la lumière de d’une image presque durant toute la durée d’une période d’échan-
tillonnage (il y a généralement un petit temps mort entre deux images), cette intégration dans le temps avec une fenêtre
rectangulaire de largeur τe induit un filtrage fréquentiel en sinus cardinal dont les zéros sont précisément les harmoniques
de la fréquence d’échantillonnage. Comme le sinus cardinal ne décroît pas très vite, les fréquences élevées proches de
n.fe /2 contribuent à des repliements de spectre notables. Les roues des diligences qui tournent à l’envers en sont une
illustration frappante. Ce qui est vrai pour les repliements de spectre temporels l’est également pour les fréquences spa-
tiales. Les pixels d’un capteur CCD sont en gros des petits carrés mis les uns à côté des autres. Chaque pixel intègre la
lumière de façon homogène sur une fenêtre spatiale rectangulaire, la fonction de réponse spatiale est aussi un sinus car-
dinal qui laisse passer des hautes fréquences spatiales en changeant leur périodicité. Ces effets d’aliasing sont fréquents,
typiquement les chemises à fines rayures produisent d’horribles moirés sur les images. La seule façon d’éviter ces effets
consiste à filtrer passe-bas l’image avant qu’elle n’atteigne le capteur. Il faut placer un filtre qui rend l’image un peu floue
pour supprimer les hautes fréquences spatiales. Comme on désire souvent obtenir le maximum de détails avec le minimum
de pixel, les constructeurs limitent le floue au niveau du filtre antialiasing qui du coup ne remplit plus aussi bien son rôle !
Il y a un cas qui vaut la peine d’être mentionné où l’aliasing spatial n’est pas trop un problème sur une caméra : c’est celui
d’une caméra placée sur un microscope optique à fort grossissement (objectif x100). Typiquement un pixel de la caméra

Signaux et images 17
correspond à 0.1 µm de l’objet visualisé. Comme la longueur d’onde de la lumière limite la résolution à environ 300nm,
il n’y a pas de hautes fréquences spatiales et donc pas d’effet de moiré.

5 Quelques applications de la transformée de Fourier


5.0.1 Déconvolution d’une image floue
L’opération de convolution peut sembler barbare, mais en fait on la réalise très souvent sans s’en rendre compte. Un
exemple simple est celui d’un appareil photo. Lorsque la mise au point est parfaite, les rayons lumineux issus d’un point
de l’objet se focalisent suivant un cône qui vient couper le plan image juste à son sommet c’est-à-dire en un point. Du
coup l’image est nette. Si par contre, la mise au point n’est pas optimale, le plan image vient couper le cône un peu avant
ou un peu après le sommet du cône, l’image devient floue. Dans ce cas, l’image nette a été convoluée par le petit disque
correspondant à l’intersection du cône avec le plan image. En toute rigueur ce disque n’est pas parfaitement rond, il a la
forme du diaphragme de l’objectif.

F IGURE 24 – Principe de la deconvolution. En haut à gauche, image floue ayant subi une convolution par le profil gaussien
(au milieu). Pour déconvoluer, on fait la TF de ces deux images (en bas à gauche et au milieu), on divise la première par la
seconde (en bas à droite) et on fait la TF−1 pour obtenir l’image nette (en haut à droite). Lors de la division, on renforce
les modes de nombre d’onde élevé. Il faut limiter cette multiplication pour ne pas amplifier le bruit lorsqu’un mode de
Fourier est trop petit. Ici le gain a été limité à 104 .

Si nous avons pris une photo floue et si nous connaissons très bien la forme du disque qui est impliqué dans cette
convolution (c’est ce qu’on appelle la réponse impulsionnelle de notre appareil photo) nous pouvons en principe déconvo-
luer notre image floue pour lui redonner sa netteté. La mesure de cette réponse impulsionnelle est délicate, pour illustrer
la méthode nous avons pris une image nette que nous avons rendue floue par une convolution avec une tache de forme
gaussienne (en haut, au milieu de la figure 24). On obtient ainsi l’image en haut à gauche de la figure 24. Pour déconvoluer,
il faut prendre les TF de ces deux images (en bas de la figure 24) et diviser la première par la seconde pour obtenir la TF
de l’image déconvoluée. Il ne reste plus qu’à faire la transformée de Fourier inverse pour obtenir l’image nette (en haut à
droite de la figure 24).
Comme nous avons choisi un profil gaussien symétrique pour rendre l’image floue, sa TF est également une gaussienne
symétrique et la division par cette TF revient à amplifier les modes de grand vecteur d’onde. Convoluer par notre tache
gaussienne est équivalent à faire un filtrage passe-bas, la déconvolution inversant ce filtrage. Il existe une limitation à la

18 V. C ROQUETTE , LPS-ENS
méthode qui correspond à la valeur maximale du gain que l’on peut appliquer à un mode. Comme on peut le voir sur la
figure 25, le signal correspondant à l’image floue est limité par le bruit à haut nombre d’onde et l’amplification ne fait
qu’augmenter le bruit. Il faut en général définir un gain maximum à ne pas dépasser pour ne pas remplacer son signal par
du bruit. Ici nous avons choisi un gain maximum de 104 .
10-1
F IGURE 25 – Densité spectrale radiale des TF
-3 des images de la figure 24. En bleu, densité spec-
10
trale de l’image floue, en vert densité spectrale
du spot gaussien qui a servi à rendre l’image
10-5 floue. En rouge, densité spectrale de l’image dé-
convoluée. On remarque que la déconvolution
Ak

amplifie fortement les modes hautes fréquences.


10-7
ImD

10-9
ImF

Sp
10-11
0 50 100 150 200
Radial wavenumber k

5.1 Obtenir une photo d’un objet sans objectif ni lentille


Nous avons tous vu un hologramme qui permet de visualiser un objet à trois dimensions. Pour obtenir ce type de
“cliché” on procède complètement différemment d’une photo habituelle où une lentille fait l’image de l’objet d’intérêt sur
une surface sensible. Pour obtenir un hologramme, on éclaire un objet avec une lumière monochromatique et on enregistre
une interférence entre la lumière diffusée et un faisceau de la lumière incidente. La lumière diffusée contient donc une
information de type photographique.

F IGURE 26 – Diffusion d’une onde monochromatique par un objet transparent. Une onde plane de vecteur d’onde k~i arrive
sur un objet transparent faiblement diffusant (en bleu). L’onde est diffusée dans les différentes directions de l’espace. Si
nous considérons la direction k~d , l’intensité de l’onde diffusée est la somme des intensités diffusées par chaque point
décrit par ~r de l’objet avec un déphasage φ = (k~i − k~d ).~r. Ceci n’est autre que la transformée de Fourier de l’objet avec
le vecteur d’onde k~i − k~d .

Signaux et images 19
Si l’objet d’intérêt ne diffuse que faiblement la lumière, de telle façon que le faisceau de lumière incident le traverse
sans atténuation notable, on montre facilement que l’intensité de la lumière diffusée dans une direction k~d n’est autre
que la transformée de Fourier de l’objet avec comme vecteur d’onde ~k = k~i − k~d ou k~i est le vecteur d’onde incident.
Pour reconstruire l’image il faut enregistrer l’amplitude et la phase de la lumière diffusée dans un cône angulaire centré
autour de la direction du faisceau incident puis effectuer la transformée de Fourier inverse. L’ouverture angulaire du
cône de vecteur k~d définit le nombre de modes de Fourier utilisés. Plus il est grand, meilleure sera la résolution de la
reconstruction.
En pratique cette méthode est peu employée pour la lumière visible, car elle ne s’applique rigoureusement qu’à des
objets dont l’indice serait très proche de 1 et dont la transparence serait grande (ex : un nuage de fumée). Par contre, dans
le domaine des rayons X c’est exactement les conditions de la matière. En effet, à la fréquence des rayons X, seuls les
électrons bougent encore un peu sous l’action du champ électromagnétique, l’indice est donc voisin de 1 et la matière est
essentiellement transparente aux rayons X.

5.1.1 Structure d’un cristal par diffraction des rayons X

F IGURE 27 – À gauche, Construction d’un cristal à deux dimensions : une petite image est reproduite de façon périodique
dans les deux directions x et y pour former une image de 512x512 pixels. On y ajoute du bruit numérique (pour simuler
une expérience). En haut la transformé de Fourier de cette image fait apparaître 512x256 modes complexes dont nous
avons représenté le logarithme de l’amplitude. La plupart des modes sont d’amplitude très faible et apparaissent en blanc,
quelques modes intenses apparaissent en noir sur l’image. Ces pics noirs sont répartis sur un peigne de Dirac à deux
dimensions. Si nous supprimons tous les modes peu intenses et que nous gardons seulement les modes d’amplitude forte,
nous filtrons le bruit de l’image. En faisant la transformée de Fourier inverse on obtient l’image en bas à droite où le
personnage est presque reconnaissable.

Une application très importante de ce que nous venons de dire sur le produit de convolution correspond à la détermi-
nation de la structure des protéines par diffraction de rayons X. Les protéines sont des polymères d’acides aminés dont
les interactions provoquent un repliement dans une structure précise. Comme la taille d’une protéine est typiquement de
5 à 10 nanomètres, il n’y a aucun moyen de distinguer cette structure avec un microscope optique. Par contre les rayons

20 V. C ROQUETTE , LPS-ENS
X ont une longueur d’onde plus petite que la distance entre les atomes des protéines. On peut les utiliser pour faire une
image de la protéine. En principe il suffirait de mettre notre protéine dans un faisceau monochromatique et de mesurer
la diffusion dans les différentes directions. En pratique, cela ne marche pas aussi simplement pour plusieurs raisons : i)
il n’est pas possible de mettre une protéine dans le faisceau de rayons X sans la maintenir par un élément de matière, et
le signal diffusé serait bien trop faible. ii) si l’on place une solution de protéines dans le faisceau, on obtient un halo de
rayons diffusés qui devrait nous donner une image des protéines et de l’eau, mais comme toutes ces molécules bougent
par mouvement brownien, il est impossible de revenir à l’image d’une seule protéine.
Par contre, dans certaines conditions de préparation, il est possible de former un cristal de ces protéines. En plaçant un
tel cristal dans un faisceau parallèle de rayons X monochromatiques, on obtient des rayons diffractés dans les directions
de Bragg correspondant à la périodicité du cristal. Cette périodicité définit un peigne de Dirac à trois dimensions, les pics
de Bragg correspondent à la transformée de Fourier de ce peigne de Dirac 3D qui constituent un réseau périodique de pics
d’égale intensité. Le spectre de diffraction du cristal correspond au produit de la transformée de Fourier de l’information
correspondant à une maille par le réseau de pics de Bragg. La situation est tout à fait analogue à ce que nous avons
représenté à une dimension sur la figure 10. L’information qui nous intéresse réellement est la modulation d’intensité (et
de phase) de ces pics de Bragg. En mesurant l’intensité de ces pics, on obtient une information sur la TF de la maille du
cristal. En faisant la transformée de Fourier inverse, on obtient la densité électronique dans une maille. Ceci permet de
distinguer les atomes dans la maille. Pour faire cette transformée de Fourier inverse il faut toutefois déterminer la phase
associée à chaque pics de Bragg. Cette opération est loin d’être évidente, car on ne mesure généralement que l’intensité
des pics. Il existe cependant des astuces pour obtenir cette phase en faisant varier légèrement la fréquence des rayon X et
en faisant des interférences. Pour illustrer le principe de la méthode nous avons fait un faux cristal à deux dimensions : une
image que nous avons répétée de façon périodique dans les deux directions puis nous y avons rajouté du bruit numérique.

5.2 Mesure de la position au-delà de la limite de résolution


Abbe a montré que la résolution d’un microscope était limitée par la nature ondulatoire de la lumière à une fraction
de la longueur d’onde. Pourtant, cette loi fondamentale est souvent appliquée abusivement et l’on a tendance à imaginer
qu’elle limite la résolution d’une mesure de position faite par un microscope. C’est inexact, et nous allons décrire en
quelques lignes une méthode permettant de mesurer la position d’un objet micrométrique avec une résolution est de
quelques nanomètres.
3000

1500

2000
Auto-convolution

1000
Light intensity

500
1000

0
-4 m -2 m 0 2 m 4 m -4 m -2 m 0 2 m 4 m
delta x delta x

F IGURE 28 – Algorithme permettant de mesurer la position d’une bille. À gauche, image de la bille et de la croix servant
au suivi. Au milieu, profil selon l’axe X d’intensité de l’image suivant le montant horizontal de la croix. Ce profil présente
des modulations complexes de l’intensité qui varient dans le temps. Par contre on remarque que ce profil est légèrement
décentré vers la droite. À droite, fonction d’auto-convolution du profil précédent (en ayant retranché la partie continue).
Cette fonction présente par construction un maximum positif lorsque δx correspond à deux fois le décalage du profil par
rapport à son centre. En mesurant la position par interpolation on obtient une position très précise de la bille en X.

Notre exemple est celui d’une bille attachée à une molécule d’ADN dont nous avons déjà parlé. La bille fait un
micron de diamètre, elle est clairement visible au microscope, son image est marquée par des anneaux de diffraction et la
résolution du microscope ne nous permet pas de distinguer les détails de cet objet. Par contre, nous sommes intéressés par
le suivi de sa position au cours du temps pour enregistrer son mouvement Brownien. Mais comme nous sommes beaucoup
moins courageux que Langevin nous ne voulons pas faire cela manuellement, mais nous préférons faire ce suivi par une
caméra et un ordinateur. On peut évidemment utiliser la technique de la mesure du barycentre de l’image de la bille, en
effet le niveau de gris de la bille est différent du celui du fond de l’image, en définissant un seuil entre ces deux niveaux,
on peut calculer le barycentre des pixels associés à la bille. Cette technique marche, mais elle est très sensible à la valeur
seuil choisie. Par ailleurs, la bille en bougeant présente un contraste très variable passant d’une valeur sombre à une valeur

Signaux et images 21
brillante. Clairement cette valeur seuil est le point faible de cette méthode.
L’algorithme de suivi que nous proposons utilise une croix qui va suivre la bille, cette croix matérialise une bande
de pixels suivant X et un second suivant Y sur lesquels nous calculons les profils moyennés en X et en Y comme sur la
figure 28. Si au départ la croix est centrée sur la bille, ces deux profils présentent des modulations d’intensité symétriques
par rapport à leur centre. L’algorithme mesure l’éventuel décentrage du profil δx de la bille à l’image n et corrige la
position de la croix pour l’image n + 1. Pour obtenir ce décentrage, nos utilisons le profil de la figure 28 au centre et
nous calculons son produit d’auto-convolution (appliqué au profil auquel on a retranché sa valeur moyenne). Cela revient
à calculer la corrélation entre ce profil et le profil inversé (où le premier point devient le dernier et inversement). Comme
la bille est symétrique, ce produit présente un maximum toujours positif lorsque le décalage entre les deux profils atteint
deux fois le décentrage δx comme on peut le voir sur la figure 28 à droite. Il suffit de mesurer la position du maximum
par interpolation pour déterminer la position de la bille avec une grande précision. Le produit d’auto-convolution présente
un gros avantage, quelle que soit la forme des modulations d’intensité, il est toujours positif. L’algorithme ne dépend pas
d’une valeur seuil et il est très stable. Il est en plus rapide si on utilise la FFT pour calculer l’auto-convolution.

5.3 Particule Image Velocimetry PIV


Mesurer un champ de vitesse s’avère très utile en mécanique des fluides. Une méthode possible est celle nommée PIV,
elle utilise des petites particules comme marqueur pour mesurer le champ de vitesse. L’idée est de suivre le déplacement
de ces particules d’une image sur l’autre. Il n’est pas question de suivre chaque particule individuellement, mais plutôt de
suivre le déplacement d’un petit groupe.

F IGURE 29 – Principe de la PIV. On voit ici deux images Im0 et Im1 (en contraste inversé) de particules de 1 micron
de diamètre diffusant un faisceau laser. Ces deux images ont été prises avec 100 ms d’écart ce qui permet de visualiser
le déplacement du nuage de particules. Ici toutes les particules ont une vitesse homogène de translation vers le bas. En
faisant la fonction de corrélation de ces deux images, on obtient l’image du bas à gauche (décalée de nx/2 et ny/2). Celle-ci
présente un pic positif dont nous avons fait les coupes sur les courbes de droite. Ce pic est centré suivant, x mais présente
un décalage de 9 pixels en y. La vitesse est donc essentiellement suivant y de 90 pixels/s.

On découpe l’image en carrés dont la taille est petite par rapport à l’échelle de variation du champ de vitesse. Puis
on compare chaque imagette avec celle acquise plus tôt afin de déterminer dans quelles directions et avec quelle vitesse
les modulations de l’image se déplacent. Pour faire cette opération, on calcule l’inter-corrélation entre les deux imagettes
prises avec un certain temps d’écart δt. Cette fonction de corrélation présente un maximum positif décalé δ~r. La vitesse
locale n’est autre que ~v = δ~r/δt. En pratique, il ne faut s’intéresser qu’aux modulations de contraste de l’image ce
qu’on réalise en supprimant la composante continue avant de calculer la corrélation. Il faut alors interpoler la position du
maximum de la fonction de corrélation pour obtenir la vitesse.

22 V. C ROQUETTE , LPS-ENS
5.4 Tomographie

Pour le diagnostic médical, l’imagerie a pris une importance fondamentale, la résonance magnétique nucléaire (IRM)
et les rayons X (scanners) permettent d’obtenir des images à trois dimensions du corps humain. Ces deux méthodes de
visualisations reposent sur la transformée de Fourier.

F IGURE 30 – Principe de la tomographie appliquée à une photo. Il s’agit de reconstituer l’image originale (en bas à droite)
en n’ayant accès qu’à des projections de cette image dans les différentes directions angulaires. On montre en effet que
la TF d’une de ces projections n’est autre qu’un profil dans l’espace de Fourier passant par l’origine. À partir de chaque
projection, on calcule sa TF que l’on insère dans la TF-2D avec l’angle adéquat. On obtient ainsi une estimation de la
transformée de Fourier 2D comme sur l’image en haut à gauche. Pour faire le calcul convenablement, il est préférable
d’effectuer le changement de variable depuis les coordonnées polaires dans la TF−1 vers les coordonnées cartésiennes (en
haut à droite). Lorsqu’on utilise 16 angles de projection équidistants, on obtient une image de résolution limitée (en bas au
centre). En augmentant le nombre de projections à 256, la restitution devient presque parfaite (en bas à droite) à comparer
à l’image originale.

Dans le cas de l’IRM, le signal obtenu est directement la transformée de Fourier de la densité de protons dans la
direction de l’espace de Fourier correspondant à la direction du gradient de champ magnétique. L’image s’obtient en
faisant la transformée inverse de ce signal.
Le cas du scanner est moins évident mais tout aussi intéressant. Une radio aux rayons X du corps humain correspond
à une image en projection faite dans la direction de propagation des rayons X. Le principe du scanner est de reconstruire
une image 3D à partir d’une série de projections obtenues en tournant autour du patient suivant un axe. Le problème qui
se pose alors est de reconstruire une image à partir de ces projections. Le problème réside en fait dans la reconstruction
d’une image 2D à partir des profils 1D, car l’aspect 3D est simplement l’empilement de ces images dans la troisième
direction. Pour illustrer le principe, nous allons reconstruire une image 2D, une photographie, à partir d’un ensemble de
projections à une dimension de ses pixels suivants des directions variables. Chaque projection suivant une direction angu-
laire moyenne toutes les informations dans la direction de la projection tandis qu’elle conserve l’information de l’image
dans la direction perpendiculaire. Si (~x, ~y ) est le système d’axe classique, il est commode de décrire notre projection dans
le repère orthonormé (~u, ~v ) où ~v est la direction de projection. On peut écrire l’intensité de la projection par :

Z +∞
P (u) = ρ(u, v)dv
−∞

Signaux et images 23
où ρ(x, y) est la densité de l’image. Sa TF s’écrit :
Z +∞ Z +∞ Z +∞ Z +∞
P̃ (ku ) = ρ(u, v)e−iku .u du.dv = P̃ (ku , kv = 0) = ρ(u, v)e−i(ku .u+(0.v)) du.dv
−∞ −∞ −∞ −∞

On voit ainsi que la TF du profil s’exprime comme la TF-2D de la densité de l’image avec kv = 0 et ku quelconque. En
bref, le profil dans l’espace de Fourier passant par l’origine P̃k~u n’est autre que la transformée de Fourier de la projection
dans l’espace réel et dans la direction r~v . Pour reconstruire l’image on va donc déterminer sa transformée de Fourier à
2D en ajoutant dans cet espace les TF des profils projetés dans les différentes directions de l’espace. Puis on fait une
transformée de Fourier inverse pour retrouver l’image. En pratique, le fait de faire des coupes angulaires revient à passer
dans une base polaire pour la TF où la résolution angulaire est déterminée par le nombre de coupes réalisées. Pour revenir
à une image dans l’espace réel avec des coordonnées cartésiennes, il faut convertir la TF de coordonnées polaires à des
coordonnées cartésiennes. On choisit une résolution cartésienne supérieure à celle de l’espace polaire, puis on évalue les
modes de Fourier dans cet espace cartésien en les interpolant à partir de leurs coordonnées polaires. On peut alors faire la
transformée inverse.
La qualité de l’image finale dépend évidemment du nombre de coupes angulaires enregistrées. Par ailleurs comme
notre image est en fait obtenue en coordonnée polaire, la résolution angulaire est la même, quel que soit le rayon considéré.
Si nous reconstruisons une image avec 16 coupes, la résolution dans l’espace réel est acceptable près du centre de rotation,
mais se dégrade rapidement quand le rayon augmente. Plus on augmente le nombre de coupes angulaire plus la qualité de
l’image s’améliore.

5.5 Compression d’image type jpeg


Les images et surtout les vidéos prennent énormément de place si on stocke l’information brute. Les techniques de
compression d’images on joué un rôle décisif dans la diffusion électronique. Les algorithmes de compression sans perte
(PNG, GIF, ...) prennent avantage du grand degré de répétition dans les images synthétiques. Ils sont par contre assez
inefficaces dès que ces images contiennent un peu de bruit comme dans le cas dans d’une photo. Comprimer une photo
en PNG ne permet de gagner qu’un facteur deux en taille dans les bons cas. Pour aller plus loin, il faut accepter de perdre
un peu d’information. L’algorithme JPEG permet de gagner un facteur 10 à 20 sur la taille d’une image avec une perte de
qualité très raisonnable. Mieux, il est possible de choisir un critère de qualité variable.

F IGURE 31 – Principe de la compression d’une photo avec perte reposant sur la TF. L’image originale à gauche, est
transformée de Fourier puis on élimine les modes de basse intensité avant de revenir dans l’espace réel. En ne gardant que
10% des modes de Fourier, l’image est parfaitement acceptable. C’est cette propriété qui est utilisée dans la compression
JPEG.

Comment marche la compression JPEG ? La réponse courte est que JPEG passe dans l’espace de Fourier élimine les
modes de faible amplitude et comprime les modes restants en utilisant les algorithmes de compression classique sans
perte. Dans la pratique les choses sont un peu plus complexes. L’image est découpée en imagette de 8x8 pixels avant
d’être transformée dans une décomposition sur une base de cosinus. Le critère d’élimination des modes se fonde sur une
statistique des modes de toutes les imagettes. Mais ces détails ne sont pas fondamentaux pour comprendre le mécanisme
de compression.
Pour illustrer le principe de la compression Jpeg, nous avons pris une image dont nous avons calculé la transformée de
Fourier. Avant de revenir dans l’espace réel, nous avons supprimé (mis à 0) les modes de faible intensité qui sont presque
tous des modes de nombre d’onde élevé. La plupart des modes importants pour l’image sont localisés près de l’origine,
du coup la compression est plus facile. Nous remarquons que l’image n’est pas trop altérée même quand on a supprimé
90 % de ses modes !

24 V. C ROQUETTE , LPS-ENS

Vous aimerez peut-être aussi