0% ont trouvé ce document utile (0 vote)
17 vues154 pages

Introduction au traitement du signal

Cours traitement du signal

Transféré par

acksera
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
17 vues154 pages

Introduction au traitement du signal

Cours traitement du signal

Transféré par

acksera
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

U N PREMIER PAS EN TRAITEMENT DU SIGNAL

O. Bachelier

Université de Poitiers

IUT de Poitiers-Châtellerault-Niort

Département de Mesures Physiques, 2ème année

1/154
Plan

Brève introduction au traitement du signal


Puissance et énergie des signaux
Représentation fréquentielle des signaux continus
Filtrage des signaux continus
Echantillonnage des signaux continus

2/154
Avant-propos

Il est difficile de suivre ce diaporama sans les explications


qui vont avec.

Pour une compréhension du cours en autonomie, mieux


vaut se référer aux notes de cours disponibles ici.

Malgré cela, ce cours n’est qu’un premier pas dans le


domaine du traitement du signal.

3/154
Brève introduction au traitement du signal (TdS)
Notions de signal, de morphologie, de
périodicité et d’aléas... plus une ou deux notions
mathématiques utiles

4/154
Introduction au TdS

Qu’est-ce qu’un signal ?


Pour faire simple, c’est la manifestation physique d’une
information transportée d’une source vers une destination.

En pratique, c’est souvent une grandeur physique qui varie au


cours du temps. Ceci est en réalité un peu restrictif mais
correspond bien à la plupart des cas pratiques.

On restera dans ce cadre.

Ex. pour Mesures Physiques : tension délivrée par tout


capteur !

On distingue souvent le signal utile du bruit (indésirable).

5/154
Introduction au TdS

Par abus de langage, ou par extension, on appelle aussi signal,


la description mathématique de ce dernier.

Par exemple, pour une tension sinusoïdale, on parlera aussi


bien d’un signal de tension (faisant référence à la grandeur
physique) que d’un signal sinusoïdal (description
mathématique).

En pratique, cette confusion ne pose pas de problème pour les


cas traités ici, et un signal est grossièrement une fonction du
temps même si... (écouter les élucubrations du prof sur les
signaux nD.)

6/154
Introduction au TdS

Qu’est-ce que le traitement du signal ?


Grossièrement : discipline qui vise à l’élaboration et l’analyse
des signaux

Élaboration : construction ou modification de signaux pour :


mettre en forme une information ;
modifier un signal existant pour en faciliter physiquement la
transmission (exemple : modulation) ;
de modifier un signal pour dissimuler l’information
pertinente à certains récepteurs (cryptographie,
stéganographie).

7/154
Introduction au TdS

Analyse : étude de signaux déjà mis en forme, pour :


les nettoyer en enlevant certaines parties indésirables
(filtrage du bruit)
extraire l’information utile (mesure, démodulation, codes,
etc.) ;
extraire les caractéristiques associées à l’information
reçue (fiabilité, qualité de la mesure, etc...) ;
détecter des phénomènes dont l’existence est indiquée par
le signal ;
... (la liste n’est sans doute pas exhaustive).

8/154
Introduction au TdS

Domaines d’application

Tous les domaines liés à la mesure.

La mesure est utile en physique, chimie, biologie, mécanique,


robotique, hydraulique, etc. et comme toute mesure est
entachée de bruit, d’incertitude voire d’erreur, le traitement du
signal peut intervenir pour réduire l’effet de ces nuisances.

C’est pourquoi, le traitement du signal peut se révéler utile


dans tous les secteurs industriels.

9/154
Introduction au TdS

Quelques exemples d’application

musique et audiophilie : qualité du son, Hi-Fi,


télécommunications : c’est l’idée même de transmette une
information,
domaine militaire : radar, sonar , etc.,
médecine: ECG, EECG, etc.,
traitement d’image/vidéo : traitement du signal 2D, 3D,
voire 4D, imagerie médicale,
Diagnostic, maintenance prédictive : détection ou
anticipation de pannes,
sismologie : détection ou anticipation de tremblements de
terre,
etc. (la liste est très longue).
10/154
Introduction au TdS
Première classification des signaux
sur le caractère morphologique du signal

Continuité et discontinuité en temps et en amplitude

Un signal se caractérise par une amplitude f (généralement


associée à une grandeur physique) qui évolue en fonction du
temps t. On distingue :

• les signaux à temps continu ou simplement signaux


continus, tels que f est définie quel que soit t ;
• les signaux à temps discret ou simplement signaux
discrets, tels que f est définie à des instants précis du
temps (le temps est alors discrétisé.

(voir TD n◦ 1.)
11/154
Introduction au TdS

Par ailleurs, on distingue aussi :

• les signaux non quantifiés pour lesquels f peut prendre


n’importe quelle valeur dans un intervalle continu ;
• les signaux quantifiés pour lesquels f est un nombre
quantique qui ne peut prendre que des valeurs discrètes
bien définies (l’amplitude est alors discrète).

(voir TD n◦ 1.)

12/154
Introduction au TdS

Un signal continu et non quantifié est appelé analogique


(analog signal en anglais).

Un signal discret et quantifié est souvent qualifié de numérique


(digital signal en anglais) même si ce terme est parfois réservé
aux signés codés en binaire qui ne forment qu’un sous
ensemble de ceux répondant à la présente définition.

Un signal quantifié est tel qu’il existe toujours un intervalle


minimal entre deux valeurs admissibles de f . Il est fréquent que
tous les intervalles entre deux valeurs admissibles successives
soient des multiples de cet intervalle minimal. Cet intervalle est
appelé quantum, comme pour les signaux numériques au sens
usuel du terme. .

13/154
Introduction au TdS

Remarque
Attention au cadre restrictif de notre étude. Nous n’étudions
que les signaux 1D dépendant du temps (ils ne dépendent que
de t). Ainsi "discret" et "à temps discret" sont par exemple
synonymes. Toutefois, le terme discret seul est en réalité plus
général. On peut décrire un signal discret par une suite
numérique sans faire référence au temps. D’ailleurs, un signal
ne dépend pas forcément du temps donc même le mot
"continu" est plus général que l’expression "à temps continu"
(voir TD n◦ 1).

14/154
Introduction au TdS

Exemples :

Une sonde sonde PT 100 (résistance variant en fonction


de la température) fournit à ses bornes une tension
analogique.
L’énergie d’un électron dans un atome ne peut prendre que
certaines valeurs données. Elles est quantifiée (chaque
niveau d’énergie possible est indicé par un nombre (1, 2,
3, ...) qu’on appelle nombre quantique).

15/154
Introduction au TdS

La concentration d’un produit dans un réacteur chimique


évolue de façon continue. Toutefois, il faut plusieurs
minutes pour estimer cette concentration, de sorte qu’on
ne peut en donner la valeur que de temps en temps. Les
données obtenues constituent un signal discret (mais pas
quantifié). Les mesures peuvent être faites à une
fréquence donnée (exemple : une fois par heure) de sorte
que les échantillons, c’est-à-dire les valeurs obtenues, le
sont à intervalles réguliers définissant une période dite
d’échantillonnage (ici égale à une heure).
Enfin, des mesures de pH toutes les 10 minutes ne sont
que que des mesures entières de 0 à 14. La mesure de ce
pH est donc un signal discret et quantifié, c’est-à-dire
numérique.

16/154
Introduction au TdS

Deuxième classification des signaux


sur la prédictivité du signal

On distingue :

les signaux déterministes pour lesquels une description


mathématique précise peut permettre de prévoir à l’avance
quelle sera leur valeur à des instants futurs ;
les signaux stochastiques ou aléatoires, pour lesquels la
connaissance à un instant t ne peut pas permettre de
déduire la valeur à un instant ultérieur. Cette notion est liée
à la notion de hasard.

17/154
Introduction au TdS

Exemples :

La tension aux bornes de la sonde PT100 évoquée


ci-avant est un signal déterministe dans le sens où l’on
connaît la règle d’évolution de cette tension qui est affine
en fonction de la température θ.
Une succession de lancés de dés conduit à un signal
numérique aléatoire.

18/154
Introduction au TdS

On n’étudiera que que les signaux déterministes,


essentiellement continus et un peu discrets.

19/154
Introduction au TdS

Troisième classification des signaux


sur la périodicité du signal

On distingue :

signaux périodiques qui se reproduisent à l’identique à


intervalles réguliers, faisant donc apparaître une
période T0 ;
signaux apériodiques, c’est-à-dire tous les autres.

20/154
Introduction au TdS

Exemples à méditer :

Un exemple typique de signal périodique est bien sûr le signal


sinusoïdal, tel que s1 (t) = sin(t).

Le signal s2 (t) = e−0,2t est lui apériodique.

21/154
Introduction au TdS
Le signal s(t) = s1 (t)s2 (t) = e−0,2t sin(t) est représenté ici

Tp

22/154
Introduction au TdS

Le signal s(t) n’est pas reproduit à l’identique à une fréquence


f0 = T10 . Il est donc rigoureusement apériodique.

Toutefois il contient clairement en lui la fréquence f0 qui n’est


pourtant pas sa fréquence. On dit que s(t) est
pseudo-périodique.

Il faudrait pouvoir associer f0 à s(t) sans pour autant affirmer


que c’est sa fréquence. Comment le faire rigoureusement,
mathématiquement ? Ce sera la question essentielle à laquelle
on répondra dans la troisième partie de ce diaporama.

23/154
Introduction au TdS
Un signal étrange mais utile
L’impulsion de Dirac

Soit l’impulsion rectangulaire définissant une surface


(hachurée) égale à 1.

1 111
000
000
111
∆t 000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
111
000
000
111
t
∆t
24/154
Introduction au TdS

Pour définir l’impulsion de Dirac, il faut faire tendre ∆t vers 0 et


1
donc vers l’infini. L’impulsion devient donc infiniment fine,
∆t
infiniment haute et de surface 1. On note une telle
impulsionδ(t) : Z

δ(t)dt = 1.
−∞

25/154
Introduction au TdS

On la représente généralement par une flèche qui indique la


force de l’impulsion.

δ(t)

Figure: Impulsion de Dirac

26/154
Puissances et énergies des signaux

27/154
Puissances et énergies des signaux

Petit focus électrique pour commencer

Lorsqu’une résistance R est traversée par un courant i(t), la


différence de potentiels (tension) u(t) à ses bornes et la
puissance électrique dissipée par la résistance (par effet Joule)
sont, en convention récepteur, respectivement données par :

u(t) = Ri(t)

u 2 (t)
p(t) = u(t)i(t) = = Ri 2 (t).
R

28/154
Puissances et énergies des signaux

Pour simplifier, on suppose que R = 1Ω. Il vient

p(t) = u 2 (t) = i 2 (t),


d’où l’on voit que la puissance est le carré de la tension ou de
l’intensité.

Grossièrement (même si c’est un peu simpliste), cette idée est


généralisée pour définir, de façon plus mathématique et moins
physique, la puissance s’un signal.

Il existe toutefois "plusieurs sortes de puissances" à clairement


définir. Pour cela, on doit introduire la notion de moyenne .

29/154
Puissances et énergies des signaux
Moyenne, puissance, énergie

Moyenne d’un signal

Moyenne sur un intervalle

Soit un signal s(t) (périodique ou non). Sa valeur moyenne sur


un intervalle [t1 ; t2 ] ⊂ IR est définie par
Z t2
1
m(t1 , t2 ) = s(t)dt
t2 − t1 t1

C’est l’extension de la formule de la moyenne au cas d’une


valeur définie quel que soit t. m(t1 , t2 ) est une valeur ne
dépendant pas de t. Sur l’intervalle [t1 ; t2 ], le signal est autant
"au dessus" de m(t1 , t2 ) qu’ "au dessous".
30/154
Puissances et énergies des signaux

Moyenne d’un signal périodique

Si l’on suppose que s(t) est périodique de période Tp , sa


moyenne sur tout l’horizon de temps est égale à sa moyenne
sur une une période, à savoir
Z t0 +Tp
1
m = hsi = s(t)dt, ∀t0 ∈ IR .
Tp t0

Tp
Il est classique de considérer t0 = 0 ou t0 = − .
2

31/154
Puissances et énergies des signaux

Moyenne d’un signal apériodique

Si s(t) st apériodique, l’astuce consiste à considérer qu’il est en


fait périodique, mais de période infinie. Il vient :

Z Tp
1 2
m = hsi = lim s(t)dt
Tp →∞ Tp −
Tp
2

Dans les deux cas, tout ajout d’un offset (composante continue)
fait varier la moyenne de la valeur de l’offset.

32/154
Puissances et énergies des signaux

Énergie d’un signal

Énergie d’un signal sur un intervalle

Soit un signal s(t) (périodique ou non). Son énergie sur un


intervalle [t1 ; t2 ] ⊂ IR est définie par
Z t2
E (t1 , t2 ) = s2 (t)dt
t1

Il s’agit d’une notion mathématique.

33/154
Puissances et énergies des signaux

C’est une valeur constante pour un intervalle donné. Elle peut


correspondre (mais pas nécessairement) à une vraie énergie
au sens physique ; elle s’exprime alors en Joules (J), comme
toutes les énergies (notamment celle dissipée dans la
résistance R).

C’est l’intégrale, sur l’intervalle considéré, de la puissance


instantanée p(t) = s2 (t).

34/154
Puissances et énergies des signaux

Énergie totale d’un signal

Il suffit de considérer comme intervalle tout l’horizon de temps.


Il vient :
Z ∞
E= s2 (t)dt
−∞

C’est toujours une valeur constante.

35/154
Puissances et énergies des signaux

Puissance d’un signal

En physique, la puissance est l’énergie ramenée au temps. Elle


s’exprime en Watts (W) avec :

1J
1W = ,
1s
ce qui signifie qu’un Watt est un Joule produit,ou dissipé
pendant une seconde.

36/154
Puissances et énergies des signaux

Puissance instantanée

Soit un signal s(t) (périodique ou non). La puissance


instantanée de s(t) a déjà été définie par :

p(t) = s2 (t).

C’est le carré du signal. Elle s’exprime en Watts (W)


uniquement si elle correspond à une vraie puissance au sens
physique. C’est un signal à part entière.

37/154
Puissances et énergies des signaux

Puissance moyenne sur un intervalle

Soit un signal s(t) (périodique ou non). La puissance moyenne


de s(t) sur un intervalle [t1 ; t2 ] ⊂ IR est définie par
Z t2
1
P(t1 , t2 ) = s2 (t)dt
t2 − t1 t1

C’est une moyenne, donc une valeur constante égale à

E (t1 , t2 )
P(t1 , t2 ) = . (1)
t2 − t1

38/154
Puissances et énergies des signaux

Puissance moyenne d’un signal périodique

Soit un signal s(t) périodique de période Tp . La puissance


moyenne de s(t) est définie par
Z Tp
1
P = hpi = s2 (t)dt
Tp 0

Il s’agit en fait de la puissance sur un intervalle qui n’est autre


que la période Tp du signal s(t).

39/154
Puissances et énergies des signaux

Puissance moyenne d’un signal apériodique

Soit un signal s(t) apériodique. Sa puissance moyenne est


définie par

Z Tp
1 2
P = hpi = lim s2 (t)dt
Tp →∞ Tp T
− 2p

Cette formule est aussi valable pour un signal périodique mais


celle vue précédemment est plus simple.

40/154
Puissances et énergies des signaux

Remarque
La valeur efficace Seff désigne la racine carrée de la puissance
moyenne d’un signal périodique : P = Seff 2 .

Si l’on revient à l’analogie électrique, et que la tension aux


bornes de R = 1 est une constante Ueff alors la puissance
moyenne dans la résistance est bien P = Ueff 2 .

Si u(t) = U sin(ωp t), le calcul de la valeur moyenne conduit à


2
P = U2 ce qui amène une valeur efficace de tension

Ueff = P = √U , formule bien connue.
2
La valeur efficace de la tension (sinusoïdale ou non) est la
valeur de la tension continue qui conduit à la même puissance
moyenne dissipée par la résistance.

41/154
Puissances et énergies des signaux

Quatrième classification des signaux


sur des critères essentiellement énergétiques

On distingue :
les signaux à amplitude bornée, ou, plus simplement,
bornés, qui vérfient

|s(t)| < ∞ ∀t ;

les signaux non bornés.

42/154
Puissances et énergies des signaux

Mais ce critère est moins utilisé que celui qui distingue :

les signaux d’énergie bornée (ou finie)


Z ∞
E= s2 (t)dt < ∞ ;
−∞

les signaux d’energie non bornée.

43/154
Puissances et énergies des signaux

Enfin, un dernier critère distingue :


les signaux de puissance moyenne bornée (ou finie)
Z Tp
1 2
P = lim s2 (t) < ∞ ;
Tp →∞ Tp T
− 2p

les signaux de puissance moyenne non bornée.

44/154
Puissances et énergies des signaux

Remarque
Un signal dont la puissance moyenne est finie et non nulle a
une énergie totale infinie.

Un signal à énergie totale finie a une puissance moyenne nulle


(sur tout l’horizon de temps).

45/154
Puissances et énergies des signaux

Mesures en décibels

Dans certains appareils de mesure, on peut rencontrer des


mesures de puissance exprimées en dBW ou dBm . Pour en
comprendre le sens, il faut comprendre ce que l’on entend par
mesure en dB.

Tout d’abord, on définit le gain G en décibels (dB) entre la


puissance P1 et P2 par la quantité
 
P2
G = 10log10 .
P1
Le dB est donc une unité adimensionnelle qui est liée à une
amplification entre deux grandeurs s’exprimant dans la même
unité. Il faut donc au moins deux signaux pour définir un gain
en décibels.
46/154
Puissances et énergies des signaux

Alors pourquoi un appareil associerait-il une mesure en dB à un


seul signal ? Tout simplement parce qu’il compare sa
puissance à une puissance de référence.

On définit donc la puissance d’un signal en dBm en calculant le


gain en dB de sa puissance par rapport à 1mW :

 
PW
PdBm = 10log10 .
1mW

47/154
Puissances et énergies des signaux

De la même façon, on définit la puissance exprimée en dBW


par

 
PW
PdBW = 10log10 .
1W

48/154
Puissances et énergies des signaux

Il est même possible, même si c’est moins courant, d’exprimer


la puissance en dBµ :

 
PW
PdBµ = 10log10 .
1µW

49/154
Puissances et énergies des signaux

De ces trois définitions, il vient :


 PdBm = PdBW + 30 ;
P = PdBm + 30 ;
 dBµ
PdBµ = PdBW + 60.

50/154
Représentation fréquentielle des signaux
continus

51/154
Représentation fréquentielle des signaux continus

Introduction par une approche intuitive

Bien sûr, la notion de période pour un signal périodique est liée


de manière triviale à celle de fréquence. On a

1
ωp = 2πfp et fp = ,
Tp

Tp est la période (fondamentale) du signal périodique ;
fp est la fréquence (fondamentale) associée à Tp ;
ωp est la pulsation (fondamentale) associée à Tp .

Ce n’est pas un scoop si ce n’est peut-être l’ajout du qualificatif


"fondamentale"!

52/154
Représentation fréquentielle des signaux continus

Mais si l’on se rappelle du signal pseudo-périodique de la


première partie, s(t) = e−t sin(2πf0 t) , la fréquence f0 n’est pas la
fréquence fondamentale fp de s(t) telle que précédemment
définie (puisque s(t) n’est pas périodique).

Or, elles est bien présente. Il faut aller plus loin

Comment la mettre en valeur ? Comment traiter


rigoureusement ces "fréquences" qui contribuent à la
composition du signal ?

53/154
Représentation fréquentielle des signaux continus

On essaie de comprendre ce qui se passe lorsque le son d’une


note de guitare parvient à l’oreille1 .

La corde, soumise à une tension correspondant au réglage de


la clef, est coincée entre deux extrémités (soit deux sillets, soit
un sillet et un doigt).

Un doigt vient pincer la corde ainsi bloquée et provoquer une


vibration mécanique, entraînant des variations de pression
(onde acoustique) se propageant jusqu’à l’oreille.

Entendre une seule note, c’est percevoir une seule fréquence


d’onde, liée à la fréquence de vibration de la corde.

1
L’auteur tient à remercier Frédéric Launay à qui il emprunte
honteusement cette idée.
54/154
Représentation fréquentielle des signaux continus

Cette fréquence dépend de trois choses :

la masse linéique de la corde (notée µ et exprimée en


kg/m) qui est liée à son épaisseur ;
la force avec laquelle on tend cette corde (tension notée F
et exprimée en N) ;
la longueur de la corde (notée l et exprimée en m).

55/154
Représentation fréquentielle des signaux continus

La vitesse v de vibration mécanique de la corde s’exprime :


s
F
v= .
µ
Ensuite, la longueur λ de l’onde produite (qui sera aussi
longueur d’onde du son) est donnée par :
v
λ= ,
f
où f désigne la fréquence de la vibration. La note est donc
directement liée à la fréquence f = λv . L’épaisseur et un bon
accordage de la corde assurent de la valeur de F et de celle de
µ, donc aussi de celle de v. Il reste à s’assurer de la valeur de
λ pour obtenir la bonne fréquence, c’est-à-dire la bonne note.

56/154
Représentation fréquentielle des signaux continus

Il faut coincer la corde de sorte que la longueur l soit un


multiple de λ2 . Mais s’installent alors plusieurs vibrations
simultanément selon le principe du schéma suivant :

λ1
l1 =
2

l2 = λ2

3λ3
l3 =
2

l4 = 2λ4

57/154
Représentation fréquentielle des signaux continus

Ces vibrations n’ont pas toute la même importance. Ainsi la


première vibration est la plus marquée. La hauteur du ventre,
qui est proportionnelle à l’amplitude du signal sinusoïdal
correspondant, est plus importante que pour les autres
vibrations. C’est la vibration fondamentale.

Plus le nombre de ventres est élevé (donc plus la fréquence est


élevée), plus l’amplitude de la vibration diminue.

On obtient des vibrations harmoniques. On parle


d’harmoniques de rang 2, 3, 4, etc.

58/154
Représentation fréquentielle des signaux continus
Chaque vibration correspond à une fréquence donc à une note.

On suppose que la plus faible des fréquences de vibration de la


corde pincée est f1 = 55Hz, alors cette vibration fondamentale
est un La. Plus précisément, les notes obtenues sont :

f1 = 55Hz⇒ La0 ("La" de la première octave audible) -


Note fondamentale.
f2 = 110Hz⇒ La1 - harmonique de rang 2.
f3 = 165Hz⇒ Mi2 - harmonique de rang 3 dite
"quintoiement".
f4 = 220Hz⇒ La2 - harmonique de rang 4.
etc.

La note entendue est essentiellement la fondamentale mais


elle est plus ou moins habillée de ses harmoniques selon
l’instrument, ce qui donne un timbre à la note.
59/154
Représentation fréquentielle des signaux continus

On suppose par exemple qu’une corde est pincée et émet un


signal sonore correspondant à une sinusoïde de fréquence
f1 = 55Hz :

s1 (t) = sin(2πf1 t).


Puis, on suppose que ce signal fondamental est accompagné
de ses harmoniques de rang 2, 3 et 4 qui présentent
évidemment des amplitudes plus faibles (au-delà, les
harmoniques sont supposées d’amplitudes négligeables) :

 s2 (t) = 0, 15 sin(2πf2 t), f2 = 2f1 ,
s (t) = 0, 1 sin(2πf3 t), f3 = 3f1 ,
 3
s4 (t) = 0, 05 sin(2πf4 t), f4 = 4f1 .

60/154
Représentation fréquentielle des signaux continus
Le signal global est alors exprimé par la somme suivante
(remarque : les sinusoïdes sont synchronisées) :

s(t) = s1 (t) + s2 (t) + s3 (t) + s4 (t).


L’ensemble de ses signaux est représenté ci-après.

Figure: Signal sonore issue d’une corde avec ses harmoniques


(amplitudes non réalistes et sans unité)
61/154
Représentation fréquentielle des signaux continus

Difficile, voire impossible, de voir sur la représentation


temporelle du seul signal s(t) les contribution des différentes
harmoniques. En disposant des quatre premières courbes, on
peut synthétiser ces contributions de la façon suivante :
amplitude
1

0, 15
0, 01
0, 05
f1 2f1 3f1 4f1 fréquence

62/154
Représentation fréquentielle des signaux continus

On exprime ainsi, d’une certaine manière, le signal s(t), non


pas en fonction du temps t mais en fonction de la fréquence f .

C’est donc une sorte de représentation fréquentielle.

L’idée de cette partie est de généraliser cette idée et d’y mettre,


si possible, un cadre et une rigueur mathématique.

63/154
Représentation fréquentielle des signaux continus

Représentation spectrale d’un signal périodique

Un résultat mathématique connu : premier développement


unilatéral
Mathématiquement, un signal s(t) est périodique de période Tp
si et seulement si

s(t + Tp ) = s(t), ∀t.


1
On rappelle que fp = est la fréquence du signal et que
Tp
ωp = 2πfp est sa pulsation.

64/154
Représentation fréquentielle des signaux continus

Tout (ou presque tout) signal périodique s(t) de pulsation ωp (donc de fréquence fp et
de pulsation Tp ) est décomposable en une somme infinie de sinusoïdes :

X

s(t) = a0 + (an cos(nωp t) + bn sin(nωp t)),
n=1

avec
Z Tp
1 2
a0 = s(t)dt
Tp − 2
Tp

Z Tp Z Tp
2 2 2 2
an = s(t) cos(nωp t)dt, bn = s(t) sin(nωp t)dt ∀n ≥ 1.
Tp − 2
Tp
Tp − 2
Tp

Cette somme est appelée décomposition en série de Fourier et les valeurs an et bn ,


n = 0, 1, 2, ... en sont les coefficients.

65/154
Représentation fréquentielle des signaux continus

a0 représente la moyenne du signal.

Le premier terme de la somme est le terme fondamental, les


suivants sont les termes harmoniques.

Par convention, b0 = 0.

Toutes les fréquences impliquées sont des multiples de la


fréquence fondamentale fp , qui est LA fréquence du signal s(t).

66/154
Représentation fréquentielle des signaux continus
Il est possible de représenter cette décomposition ainsi :
Spectre en cosinus Spectre en sinus
a1
a0 b2
b1
b3
a2 a4
f f
0 fp 2fp fp 2fp 3fp 4fp
3fp 4fp
a3 b4

Figure: Spectres en cosinus et sinus d’un signal périodique


quelconque

On parle de spectres en cosinus ou en sinus du signal.


"Conventionnellement", ce sont des impulsions de Dirac (on
verra pourquoi !) aux fréquences pertinentes dont la force
correspond à an ou bn .
Les flèches ainsi tracées sont appelées raies spectrales (raie
fondamentale et raies harmoniques).
67/154
Représentation fréquentielle des signaux continus

Second développement unilatéral

Le défaut majeur de cette représentation est qu’elle répartit


l’importance de la contribution de chaque fréquence sur deux
spectres. C’est pourquoi on introduit la notion d’amplitude de
rang n ainsi :
q
Vn = a2n + bn2 , ∀n ≥ 0,

On note que V0 = |a0 |. V1 est l’amplitude de la fondamentale et


les quantités Vn , ∀n > 1 sont les amplitudes des harmoniques
de rang n.

68/154
Représentation fréquentielle des signaux continus

On définit aussi pour chaque valeur de n, un nombre φn tel que

an
cos(φn ) = .
Vn
bn
sin(φn ) = − ,
Vn

φn est la phase de l’harmonique de rang n.

69/154
Représentation fréquentielle des signaux continus

Après calcul (voir notes de cours), il vient :


X
s(t) = Vn cos(nωp t + φn ).
n=0

Il n’y a donc plus que des cosinus dans ce développement et


chaque fréquence contribue à hauteur de l’amplitude
correspondante.

70/154
Représentation fréquentielle des signaux continus

On peut donc définir les spectres suivants dont le premier est


particulièrement utile.

Spectre en amplitude
V0 V1
V3
Spectre en phase
V2 V4
fp 2fp 3fp 4fp
f f
0 fp 2fp 3fp 4fp
φ1 φ3
φ2 φ4

Toutes les raies du spectre d’amplitude montent car Vn ≥ 0.

71/154
Représentation fréquentielle des signaux continus

Remarque
Il existe un appareil, appelé analyseur de spectre qui, s’il
dispose comme entrée d’un signal périodique, fournit le spectre
en amplitude mais pas le spectre de phase. Un dispositif de ce
genre sera utilisé en TP. Bien sûr, la hauteur des raies affichées
par l’appareil correspond bien à la force des impulsions de
Dirac, non à leur hauteur infinie.

72/154
Représentation fréquentielle des signaux continus

Il est possible de s’appuyer sur les formules mathématiques


pour obtenir an et bn , puis, par extension, Vn et φn . Cependant,
il existe des tables qui fournissent ces éléments pour les
signaux usuels.

Il faut par ailleurs noter deux propriétés classiques :


Lorsque s(t) est pair c’est-à-dire que s(−t) = s(t), ∀t, il
vient bn = 0, ∀n ≥ 0.
Lorsque s(t) est impair c’est-à-dire que s(−t) = −s(t), ∀t,
il vient an = 0, ∀n ≥ 0.

73/154
Représentation fréquentielle des signaux continus

Développement bilatéral

En utilisant les formules d’Euler,

eiα + e−iα eiα − e−iα


cos(α) = , sin(α) = ,
2 2i
il est possible de récrire le développement de s(t) ainsi (voir
notes de cours) :

X
s(t) = cn einωp t ,
n=−∞

avec Tp
Z
an − ibn 1 2
cn = = s(t)e−inωp t dt, ∀n
2 Tp −
Tp
2

Cette somme est appelée décomposition en série de Fourier


bilatérale et les valeurs cn en sont les coefficients.
74/154
Représentation fréquentielle des signaux continus

On note que :

Les coefficients cn sont complexes.


c0 = a0

|Vn |
|c0 | = V0 , |cn | = , Arg(cn ) = φn ∀n. (2)
2
les indices n sont en partie négatifs, ce qui fait apparaître
des fréquences négatives -2πnfp . Bien sûr, ce n’est qu’un
artifice mathématique lié à l’utilisation des formules d’Euler
et l’apparition des exponentielles complexes. Deux indices
opposés sont associés à une seule et même fréquence qui
est bien positive.

75/154
Représentation fréquentielle des signaux continus
Comme les coefficients cn ont complexes, on peut être tenté de
représenter des spectres de leur partie réelle et de leur partie
imaginaire (voir notes de cours). Toutefois, il est plus pertinent
de représenter les spectres de module et de phase.
Spectre bilatéral en module
|c−1 | |c0 | |c1 |
|c−3 | |c3 |

|c−4 | |c−2 | |c2 | |c4 |


−f f
−4fp −3fp −2fp −fp 0 fp 2fp 3fp 4fp

Spectre bilatéral en phase


φ4 φ2
φ3 φ1 φ0
fp 2fp 3fp 4fp
−f f
−4fp −3fp −2fp −fp
φ1 φ3
φ2 φ4

76/154
Représentation fréquentielle des signaux continus

Le spectre de module a toutes ses raies montantes et


présente une symétrie axiale par rapport à l’axe des
ordonnées.
Le spectre de phase est symétrique par rapport à l’origine
si a0 ≥ 0.

Ce développement bilatéral peut paraître indûment compliqué,


mais c’est lui qui sert de base à la généralisation au cas des
signaux apériodiques qui va suivre.

77/154
Représentation fréquentielle des signaux continus
Représentation spectrale d’un signal apériodique

Un autre résultat mathématique connu

On rappelle qu’un signal apériodique peut être vu comme un


signal périodique de période Tp → ∞.

On rappelle aussi que le développement bilatéral en série de


Fourier d’un signal périodique est

X
s(t) = cn einωp t
n=−∞
avec Tp
Z
1 2
cn = s(t)e−inωp t dt, ∀n
Tp −
Tp
2

78/154
Représentation fréquentielle des signaux continus

On a donc :
∞ Z Tp !
X 1 2
s(τ )e −inωp τ
dτ einωp t .
n=−∞
Tp T
− 2p

Que se passe-t-il si on fait tendre Tp vers l’infini ?

79/154
Représentation fréquentielle des signaux continus

Pour le cas périodique, les seules fréquences pertinentes sont


des multiples de fp . La variable fréquence f ne peut prendre
que la forme
n
f = nfp = n ,
Tp
où n est une variable discrète (donc f aussi !).

Ce sont les fréquences auxquelles apparaissent les raies


spectrales.

80/154
Représentation fréquentielle des signaux continus

Lorsque Tp → ∞, l’écart 1/Tp entre deux raies spectrales


devient nul (les raies se collent !) mais comme n peut être
aussi infini, elles ne sont pas toutes au même endroit mais se
"répartissent de façon continue" sur l’axe f .

Autrement dit, f devient une variable continue et il convient de


remplacer la somme discrète par une somme continue, c.-à-d.
une intégrale en considérant :
n

 f = ⇒ dn = Tp df ,


T p
 Tp
 → ∞,
 ω T = 2π.
p p

81/154
Représentation fréquentielle des signaux continus
Ceci conduit à
Z ∞ Z ∞ 
1
s(t) = s(τ )e−2iπf τ dτ e2iπnfp t dn
−∞ Tp −∞
Z ∞ Z ∞ 
s(t) = s(τ )e −2iπf τ
dτ e2iπft df
−∞ −∞
| {z }
S(f )
Z ∞
⇔ s(t) = S(f )e2iπft df .
−∞

La fonction S(f ) joue, dans le cas apériodique, le même rôle


que cn dans le cas périodique.

On comprend ici, par analogie entre cn et S(f ), que c’est S(f )


(par son module et sa phase qui sont des fonctions de f ) qui
détermine la représentation spectrale d’un signal apériodique.
82/154
Représentation fréquentielle des signaux continus

Résumé

périodique apériodique


X Z ∞
2iπnfp t
s(t) = cn e s(t) = S(f )e2iπft df
n=−∞ −∞

83/154
Représentation fréquentielle des signaux continus

L’opération mathématique qui consiste à associer à s(t) la


quantité S(f ), notée F , est appelée transformation de Fourier
et l’image de s(t), c’est-à-dire S(f ) elle-même, est appelée
transformée de Fourier :

F (s)(f ) = S(f ).

84/154
Représentation fréquentielle des signaux continus

Voici un résumé de ce qu’il faut retenir.

Tout (ou presque tout) signal apériodique s(t) borné et


d’énergie bornée (finie) admet une transformée de Fourier

Z ∞
F (s)(f ) = S(f ) = s(t)e−2iπft dt.
−∞

85/154
Représentation fréquentielle des signaux continus
La transformation de Fourier F admet quelques propriétés :

• Parité :
Lorsque s(t) est pair c’est-à-dire que s(−t) = s(t), ∀t, il
vient Z ∞
S(f ) = 2 s(t) cos(2πft)dt.
0
• Imparité :
Lorsque s(t) est impair c’est-à-dire que s(−t) = −s(t), ∀t,
il vient Z ∞
S(f ) = 2i s(t) sin(2πft)dt.
0
• Linéarité :
F
s1 (t) + ks2 (t) 7−→ S1 (p) + kS2 (p), k ∈ IR

86/154
Représentation fréquentielle des signaux continus

• Contraction du domaine :
 
F 1 f
s(kt) 7−→ S , k ∈ IR
|k| k

• Translation temporelle :

s(t + t0 ) 7−→ S(f )e2iπft0 ,


F
t0 ∈ IR

• Modulation dans le domaine temporel :

s(t)ei2πf0 t 7−→ S(f − f0 ),


F
f0 ∈ IR

87/154
Représentation fréquentielle des signaux continus

• Produit de convolution (voir plus loin !) :

F
(s1 ∗ s2 )(t) 7−→ S1 (f )S2 (f )

(On verra plus tard ce que cela signifie.)


• Produit simple :

F
s1 (t)s2 (t) 7−→ S1 (f ) ∗ S2 (f )

(On verra plus tard ce que cela signifie.)


• Dérivation :
ds(t) F
7−→ 2iπfS(f )
dt

88/154
Représentation fréquentielle des signaux continus

• Intégration :
Z t
F S(f )
s(τ )dτ 7−→
0 2iπf
• Dualité :
F F
Si s(t) 7→ S(f ) alors S(t) 7→ s(−f )

Pour calculer une transformée de Fourier, on peut se lancer


dans le calcul de l’intégrale mais on peut aussi s’aider de
tableaux de transformées (voir notes de cours).

89/154
Représentation fréquentielle des signaux continus

Il existe une transformation de Fourier inverse :

Z ∞
F −1
(S)(t) = s(t) = S(f )e2iπft df .
−∞

Ses propriétés sont liées à celle de F et on peut se référer aux


mêmes tableaux de transformées.

90/154
Représentation fréquentielle des signaux continus
Propriété essentielle :

F (δ(t))(f ) = 1, F (δ(t − α))(s) = e−2iπαf ,

On peut définir la fonction Aδ(t) (Dirac de force A) qui a pour


transformée de Fourier
F (Aδ(t))(f ) = A,
et la fonction Aδ(t − α) (Dirac de force A décalé d’un temps α)
qui a pour transformée de Fourier
F (Aδ(t − α))(f ) = Ae−2iπf α .
On a aussi :

F −1 (Aδ(f ))(t) = A, F −1 (Aδ(f − f0 ))(t) = Ae2iπf0 t .


91/154
Représentation fréquentielle des signaux continus

Transformation de Fourier et série de Fourier

F est une généralisation, au cas apériodique, du


développement en série de Fourier. Que se passe-t-il si l’on
utilise l’outil général F pour le cas périodique ?

Un signal de période Tp a pour développement en série de


Fourier

X
s(t) = cn einωp t .
n=−∞

92/154
Représentation fréquentielle des signaux continus

Comme F est un opérateur linéaire, il vient



X
S(f ) = F (s)(f ) = cn F (e2iπnfp t ).
n=−∞

Compte tenu des relations vues précédemment :


X
S(f ) = cn δ(f − nfp ).
n=−∞

93/154
Représentation fréquentielle des signaux continus

La transformée de Fourier d’un signal périodique est bien,


mathématiquement, la combinaison de plusieurs impulsions de
Dirac fréquentielles et décalées représentant les harmoniques.
Chaque impulsion est pondérée par le coefficient cn qui devient
une force complexe associée au Dirac (d’où deux spectres :
module et phase).

En conclusion, il était judicieux de représenter les raies


spectrales par des impulsions de Dirac.

94/154
Représentation fréquentielle des signaux continus

Énergie et représentation spectrale

Cas général
Rappel : énergie totale d’un signal s(t) :
Z ∞
E= s2 (t)dt.
−∞

Elle peut être exprimée dans le domaine fréquentiel :

Z ∞ Z ∞
E= s2 (t)dt = |S(f )|2 df .
−∞ −∞

C’est l’égalité de Parseval, ou théorème de Parseval, ou encore identité de Rayleigh.


Elle montre que l’énergie ne dépend pas de la représentation choisie (temporelle ou
fréquentielle). La quantité Φ(f ) = |S(f )|2 est appelée densité spectrale d’énergie.

95/154
Représentation fréquentielle des signaux continus

Cas périodique

Si le signal est périodique, il admet un développement en série


de Fourier et la puissance moyenne du signal peut s’exprimer
en fonction des coefficients de ce développement :

Tp
Z ∞ ∞
1 2
2
X
2 1X 2
P= s (t)dt = |cn | = a20 + (an + bn2 ).
Tp −
Tp
n=−∞
2
2 n=1

96/154
Représentation fréquentielle des signaux continus
Cinquième classification
basée sur la largeur de bande
On définit la bande de fréquence par

∆f = fmax − fmin .
Cette bande de fréquence s’exprime bien sûr en Hz. La fréquence moyenne sur cette
bande est donnée par

fmax + fmin
fmoy = .
2
On distingue alors :
les signaux à bande étroite pour lesquels

∆f
<< 1 ;
fmoy

les signaux à large bande pour lesquels

∆f
> 1.
fmoy

97/154
Représentation fréquentielle des signaux continus

Sixième classification
basée sur la bande de fréquence concernée

On trie les signaux en fonction de la gamme des fréquences


qui les composent.

Ecouter les explications de l’enseignant (voir aussi les notes de


cours).

98/154
Filtrage des signaux continus

99/154
Filtrage des signaux continus

Motivation

Un signal e(t) traverse un système qui le modifie de sorte


qu’en sortie de ce système, on obtient un autre signal s(t).

e(t) s(t)
Système

Figure: signal e(t) modifié en un signal (t) par un système (ou filtre)

100/154
Filtrage des signaux continus

Ce système peut correspondre, par exemple, à un canal de


transmission de l’information contenue dans e(t) qui aurait
l’inconvénient de déformer e(t) ou il peut aussi correspondre à
un dispositif que l’on construirait pour extraire une information
de e(t) et la retrouver plus simplement sur s(t). On dit que s(t)
est la réponse du système à e(t).

101/154
Filtrage des signaux continus

La notion de système est semblable à celle vue en


Automatique. Un système n’est rien d’autre qu’un filtre tel que
ceux vus en électronique. On utilisera donc indifféremment le
mot système ou le mot filtre même si, en traitement du signal,
c’est plus en tant que filtre qu’il sera étudié.

102/154
Filtrage des signaux continus

Les modèles mathématiques des filtres peuvent être parfois


très compliqués. Ici, on se contentera d’étudier les filtres
linéaires, décrits par

ds(t) dn s(t) de(t) dm e(t)


a0 s(t)+a1 +...+an = b 0 e(t)+b 1 +...+b m .
dt dt n dt dt m

On appelle ordre du système la valeur n. Les systèmes


physiques sont dits causaux c’est-à-dire que la sortie s(t) ne
peut dépendre de l’entrée à un moment ultérieur. Ceci se
traduit par

n ≥ m.

103/154
Filtrage des signaux continus

De tels filtres respectent le principe de superposition :

Si  
 e(t) = e1 (t) ⇒ s(t) = s1 (t) 
&
e(t) = e2 (t) ⇒ s(t) = s2 (t)
 

alors

e(t) = α1 e1 (t) + α2 e2 (t) ⇒ s(t) = α1 s1 (t) + α2 s2 (t) ∀(α1 , α2 ) ∈ IR 2 .

104/154
Filtrage des signaux continus

La meilleure solution pour comprendre ce qu’il advient de e(t)


lorsqu’il traverse le filtre n’est pas toujours de résoudre
l’équation différentielle mais souvent de voir ce qui se passe
aux différentes fréquences contenues dans e(t).

Pour cela, on étudie, dans la partie suivante, la réponse


impulsionnelle du filtre, c’est-à-dire sa réaction à la présence
d’une impulsion de Dirac sur e(t). À partir de cette réponse, on
étudie la réponse du même filtre à un signal quelconque.

Il faut donc exprimer la réponse impulsionnelle !

105/154
Filtrage des signaux continus

Réponse impulsionnelle d’un filtre causal

La réponse impulsionnelle d’un filtre est sa réponse à une


impulsion de Dirac. C’est une impulsion idéalisée qui ne doit
pas être confondue avec avec δd (t), l’impulsion unitaire, définie
par

1 si t = 0,
δd (t) =
0 si t 6= 0.

106/154
Filtrage des signaux continus

Cette dernière est aussi une impulsion idéalisée mais ce n’est


pas son intégrale qui vaut 1 pour t = 0, c’est simplement sa
valeur proprement dite.

δd (t)

1
0
1 0
1
0
1

Figure: Impulsion unitaire discrète

107/154
Filtrage des signaux continus

Soit maintenant l’impulsion d’amplitude e notée eδd (t). Elle


correspond à une impulsion rectangulaire telle celle
représentée ci-après
s(t)

111
000
e000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111 t
111
000 ∆t

Figure: Impulsion rectangulaire de hauteur e

108/154
Filtrage des signaux continus
De même que δ(t) a été définie en faisant tendre ∆t vers zéro,
on peut définir l’impulsion eδd (t) comme la limite de l’impulsion
précédente lorsque ∆t → 0 (la largeur devient infiniment petite
mais la hauteur reste constante). Par rapport à l’impulsion de
1
Dirac, c’est la hauteur qui est différente et qui passe de à
∆t
une constante e. On écrira donc, un peu abusivement,

eδd (t) = lim e∆tδ(t).


∆t→0

Si l’on décale cette impulsion d’un temps τ , il faut aussi décaler


le Dirac de sorte que

eδd (t − τ ) = lim e∆τ δ(t − τ ).


∆τ →0

On notera plutôt ∆τ l’intervalle de temps, puisqu’il s’agit


maintenant d’un intervalle de temps autour de τ . Ceci ne
change de toute façon rien à la formule.
109/154
Filtrage des signaux continus

Enfin, on note g(t) la réponse du filtre à l’impulsion de Dirac


(réponse impulsionnelle) :

e(t) = δ(t) ⇒ s(t) = g(t).


Par ailleurs, si l’impulsion de Dirac est décalée d’un temps τ en
entrée, le système répondra lui aussi avec un retard de τ , ce
qui conduit à

e(t) = δ(t − τ ) ⇒ s(t) = g(t − τ ).


Cette réponse impulsionnelle est importante pour déterminer la
réponse à n’importe quel signal causal (défini uniquement pour
t ≥ 0).

110/154
Filtrage des signaux continus

Réponse d’un filtre causal

À un instant τ , le signal e(τ ) a pour valeur e(τ )... ce qui est une
parfaite évidence.

Si l’on suppose maintenant que le signal n’existe qu’à l’instant


τ , alors il se résume à une impulsion d’amplitude e(τ ), située à
l’instant τ , qui s’écrit donc

e(τ )δd (t − τ ) = lim e(τ )∆τ δ(t − τ )


∆τ →0

111/154
Filtrage des signaux continus

Plus exactement si l’on considère un temps infinitésimal


correspondant à l’élément différentiel dτ (il s’agit de ∆τ tendant
vers zéro), alors à cet élément différentiel de temps, on associe
un élément différentiel du signal d’entrée

deτ = e(τ )δ(t − τ )dτ.

Oui mais voilà, le signal e(t) est défini pour tout τ ∈ IR . Ceci
veut dire qu’il est la somme de tous les éléments différentiels
deτ que l’on peut rencontrer au cours du temps jusqu’à t :
Z t
e(t) = e(τ )δ(t − τ )dτ.
−∞

112/154
Filtrage des signaux continus

Or, en se rappelant que l’impulsion de Dirac a pour réponse la


réponse impulsionnelle g(t) et que chaque impulsion n’est
autre qu’un Dirac décalé de τ et multiplié par un coefficient de
e(τ )∆τ , il vient alors, en jouant sur la linéarité du filtre, un
"morceau de sortie" associé à de(τ ) :

dsτ = e(τ )d τ g(t − τ ).

113/154
Filtrage des signaux continus

Si, toujours par linéarité, on ajoute tous ces éléments


différentiels de sortie, on obtient
Z t
s(t) = e(τ )g(t − τ )dτ.
−∞

Comme le système est causal, la partie du signal e qui arrive


sur le filtre après le temps t ne peut pas avoir d’influence sur le
temps signal s avant l’instant t. L’intégrale précédente peut
donc se récrire
Z ∞
s(t) = e(τ )g(t − τ )dτ.
−∞

114/154
Filtrage des signaux continus

En résumé
Soit un filtre causal de réponse impulsionnelle g(t). La réponse
s(t) à un signal e(t) s’exprime
Z ∞
s(t) = e(t) ∗ g(t) = e(τ )g(t − τ )dτ.
−∞

Du point de vue mathématique, l’intégrale dans cette formule


est appelée produit de convolution de e(t) et de s(t) et est
notée e(t) ∗ g(t) (en fait, plus rigoureusement (e ∗ g)(t)).

115/154
Filtrage des signaux continus

Propriétés de ’∗’

• Commutativité :

s(t) = e(t) ∗ g(t) = g(t) ∗ e(t). (3)

• Élément neutre :

s(t) ∗ δ(t) = δ(t) ∗ s(t) = s(t). (4)

(C’est évident pour la réponse impulsionnelle d’un filtre mais c’est en fait vrai
pour tout signal.)
• Décalage temporel :

δ(t − T ) ∗ s(t) = s(t − T ). (5)

(Là encore, c’est évident pour la réponse impulsionnelle d’un filtre mais c’est
aussi vrai pour tout signal.)
116/154
Filtrage des signaux continus

Transformation de Fourier et produit de convolution

La propriété essentielle est ici donnée :

F
s(t) = e(t) ∗ g(t) 7−→ S(f ) = E (f )G(f ).

Ceci permet d’établir un spectre continu du signal s(t)

117/154
Filtrage des signaux continus

Cette relation dans le domaine fréquentiel est résumée ainsi :

Système
E (f ) S (f )
G(f )

Figure: Filtrage dans le domaine fréquentiel

G(f ) est la fonction de transfert en f du filtre.

118/154
Filtrage des signaux continus

La fonction de transfert G(f ) peur s’obtenir à partir de


l’équation différentielle :

bm p m + ... + b1 p + b0
G(f ) = ,
an p n + ... + a1 p + a0
où p = iω = 2iπf .

La causalité se traduit toujours par n ≥ m.

Exprimée ainsi, c’est la même fonction de transfert que celle


vue en Automatique (même expression) mais p ne désigne pas
la variable de Laplace. Cette variable est ici restreinte à l’axe
imaginaire (l’objectif n’est pas le même).

119/154
Filtrage des signaux continus

Principe et intérêt du filtrage

En pratique, il n’est pas si fréquent d’utiliser l’intégrale de


convolution. Pour bien des applications, le raisonnement ne se
fait pas dans le domaine temporel, mais dans le domaine
fréquentiel d’où l’importance de G(f ).
On rappelle que E (f ), S(f ) et G(f ) sont des nombres
complexes (puisqu’ils s’expriment en fonction de i). Ils ont donc
des modules qui vérifient

|S(f )| = |G(f )|.|E (f )|.


où p = iω = 2iπf .

120/154
Filtrage des signaux continus

Il est logique de considérer qu’une fréquence f (contenue dans


e(t)) contribue beaucoup à s(t) si |S(f )| est grand. Or |S(f )| est
d’autant plus grand que |G(f )| est grand. Autrement dit,

|G(f )| élevé le filtre amplifie beaucoup à la fréquence f ;


|G(f )| faible le filtre amplifie peu à la fréquence f .

C’est bien l’idée du filtre.

121/154
Filtrage des signaux continus

Bien sûr, la notion de filtre est déjà familière pour l’étudiant qui
en connaît notamment certaines représentations graphiques
telles que le diagramme de Bode. Sans trop revenir sur ces
notions, on peut rappeler qu’il est possible de représenter le
module |G(f )| en fonction de f pour voir quelles sont les
fréquences privilégiées par le filtre. il faut toutefois satisfaire
deux règles pour une représentation efficace :

1 La fréquence est graduée en échelle logarithmique.


2 L’amplification n’est pas donnée directement mais on porte
en ordonnée ce que l’on appelle le gain en décibels
T (f ) = 20log10 (|G(f )|), l’échelle restant alors linéaire.

122/154
Filtrage des signaux continus

On obtient alors la courbe de gain du diagramme de Bode. La


première règle a pour but de ne pas privilégier les fréquences les
plus élevées dans la représentation graphique et la seconde permet,
entre autres, de pouvoir mettre des filtres G1 (f ) et G2 (f ) en série
(deux filtrages consécutifs) et de vérifier que le filtre total
G(f ) = G2 (f )G1 (f ) satisfait

T (f ) = 20log10 |G(f )| = 20log10 |G2 (f )G1 (f )| =


20(log10 |G2 (f )| + log10 |G1 (f )| = T1 (f ) + T2 (f ).

Cette formule indique que l’on construit la courbe de gain globale en


additionnant les deux courbes de gain de G1 (f ) et G2 (f ) ce qui
simplifie grandement la construction de certains diagrammes.

123/154
Filtrage des signaux continus

Un filtre doit être vu comme un "gabarit fréquentiel" qui laisse passer


des fréquences et en bloque d’autres. Trois gabarits de filtres sont
plus utilisés que les autres :

T (dB) T (dB) T (dB)

f f f
fc
fc fc 1 fc 2

filtre passe-bas filtre passe-haut filtre passe-bande

Ces filtres sont idéalisés. Ils font apparaître des fréquences de


cassure très brutales.
124/154
Filtrage des signaux continus

Le filtre passe-bas idéal laisse passer les basses


fréquences mais aucune au dessus de fc .
Le filtre passe-haut idéal laisse passer les hautes
fréquences mais aucune au dessous de fc .
Le filtre passe-bande idéal laisse passer les fréquences
entre fc1 et fc2 mais rien à l’extérieur de cet intervalle.

Les gammes de fréquences non bloquées sont appelées


bandes passantes.

125/154
Filtrage des signaux continus
En pratique, les filtres ne sont pas idéaux mais ont une forme
moins rectangulaire et les bandes passantes correspondent à
des pertes de moins de 3dB par rapport au gain maximum :
T (dB) T (dB) T (dB)

f f f

fc fc
fc 1 fc 2

filtre passe-bas filtre passe-haut filtre passe-bande

Figure: Gabarits classiques réalistes de filtres

(Se référer aux notes de cours pour quelques compléments


d’information.)
126/154
Filtrage des signaux continus
Influence des gabarits

Filtrage passe-bas

G(f )
T (dB)

|E(f )| |S(f )|

fc fc

f f f
fc

Figure: Exemple de filtrage passe-bas : élimination d’un bruit de


hautes fréquences

127/154
Filtrage des signaux continus

Filtrage passe-haut

G(f )
T (dB)

|E(f )| |S(f )|

fc fc
fp f f f
fc fp

Figure: Exemple de filtrage passe-haut :élimination d’un offset

128/154
Filtrage des signaux continus
Filtrage passe-bande

G(f )
T (dB)

|E(f )| |S(f )|
11
00
00
11
00
11
1
0
0
1 1
0 0
1 00
11 1
0
0
1 0
1 0
1
0
1 00
11 0
1
0
1 0
1 00
11 0
1
0f
1 0 1
1 0
0
1 00
11
00
11 0
1
0
1 0
1
0
1
f 0
1
f 00
11 0
1
0
1
0
1 11
0f 00
11
1

0
1 0
1
f
2 3

f0 f 0
1
2
fc1 c2
fc1
00
11
fc2
f fc1 c2

Figure: Exemple de filtrage passe-bande : isolation d’une fréquence


(ex : radio)

129/154
Filtrage des signaux continus

Ne pas oublier de consulter les notes de cours pour de plus


amples explications.

130/154
Échantillonnage des signaux continus
... ou comment interpréter l’échantillonnage en
termes fréquentiels.

131/154
Échantillonnage des signaux continus

Les signaux sont souvent manipulés par des ordinateurs, des


composants programmables, numériques, des logiciels de
calcul, de simulation, des oscilloscopes numériques. Les
signaux manipulés sont donc discrets. Même les analyseurs de
spectres manipulent en fait des signaux discrets.

Pourtant, physiquement, les signaux sont au départ souvent


continus. Ceci suppose une "discrétisation", en pratique un
échantillonnage.

Quel est l’effet de cet échantillonnage dans le domaine


fréquentiel ?

132/154
Échantillonnage des signaux continus

Échantillonnage : une notion physique et mathématique

On ne considèrera que l’échantillonnage des signaux à temps


continu avec une période d’échantillonnage Te constante, ce
qui correspond à l’immense majorité des cas en pratique. On
étudie ici deux échantillonnage idéalisés :
l’échantillonnage impulsionnel, pour une première
approche "naturelle" mais néanmoins idéalisée ;
l’échantillonnage impulsionnel idéal, plus idéalisé encore,
mais utile pour les développements théoriques.

133/154
Échantillonnage des signaux continus

Échantillonnage impulsionnel

s(t) sk
00
11
0
1
0
1
00
11 00
11
0
1
00
11
1
0 0
1
10
1 1
0 0
10
1
0
1 0
1 0
11
0 0
1 0
1 1
01
0
0 1
1 0
00
1 1
0
0
1
Échantillonnage
0 1
1 00
1 0
1
0
1
11
000
1 0
10
1 00000
1 1111 11
00 0
1 0
10
1 0
1
0
1
001
110 1 01
0 0
1 00
11 0 1
1 1
01
0 0
1
0
10
1 1
00
1 0
1 0
1
0
1 00
1 0
1
0
10
1 1
00
1
0
1 0
1 0
1
0
1 0
10
1 0
1
0
10 1
1 0 0
1t
0 1
1
0
1 00
1 t

00
11
T e
(a) (b)

Figure: Processus d’échantillonnage

Idée : remplacer la courbe rouge (signal continu) par les points


verts (signal discret).
134/154
Échantillonnage des signaux continus

δT (t)

0
1
00
11
1 0
1
00
110
1
11
00 1 0
1
0
1 0
1
1
0 0
1
1
00
11
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
0
1
1 00
10
1 0
1
11 0
1100
1
0
0
1
1
0
1
1
0
0
1 0
0
1 0
0
1
1
0
0
1
1
0
0
1
1 0
0 11
0 10
0 1011
0
0 1
1 00
1 0
1
11
00 0
1 0
10
1 t
T e

Figure: Train d’impulsions unitaires

On multiplie le signal continu par le train d’impulsions unitaires


ci-dessus. Ce train fait apparaître une période
d’échantillonnage Te . On obtient le signal discret.

135/154
Échantillonnage des signaux continus

Du point de vue mathématique, δT (t), s’exprime



X
δT (t) = δd (t − kTe ).
k =−∞

Il est donc possible d’exprimer le signal échantillonné (vert) (ici


noté ss (t)) :


X ∞
X
ss (t) = s(t)δT (t) = s(kt) δd (t − kTe ) = sk δd (t − kTe ).
| {z }
k =−∞ sk k =−∞

Les valeurs sk constituent une suite numérique. C’est en réalité


cette suite qu’on appelle signal discret.
136/154
Échantillonnage des signaux continus

Cette transformation est idéalisée dans le sens où les


impulsions sont de largeur nulle.

Elle est symbolisée par

s(t) Te ss (t)
1
0 0
1
000
111
0
1 0
1

137/154
Échantillonnage des signaux continus

Échantillonnage impulsionnel idéal

L’idée est d’idéaliser encore un plus l’échantillonnage en


remplaçant le train d’impulsion unitaires par un train
d’impulsions de Dirac appelé peigne de Dirac.
Pδ (t)

1
0
10
1 1
0
1 1
00
1 1
0 1
0
0
1
1
0 1
0 1
01
0 1
0 1
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
0
1
10
1 0
1 0
10
1 0
1 0
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
01
0 1
0 1
01
0 1
0 1
0
0
1
01
10
0
1 0
1
0
1 0
1
0
10
1
0
1 0
1
0
1 0
1
0
1 t
11
00
Te

Figure: Peigne de Dirac


138/154
Échantillonnage des signaux continus
Il vient

X
s∗ (t) = s(t) δ(t − kTe ),
k =−∞
qui s’écrit aussi

X ∞
X

s (t) = s(kTe )δ(t − kTe ) = sk δ(t − kTe ).
k =−∞ k =−∞

Le symbole dans un schéma est toujours :

s(t) Te s∗ (t)
11
00
00
11 11
00
00
11
00
11 1111
0000
00
11
Mathématiquement l’opérateur qui transforme s(t) en ∗ (t) est
appelée transformation étoile temporelle.
139/154
Échantillonnage des signaux continus

Remarque
Le vrai signal discret est la suite {sk } alors que s∗ (t) est
rigoureusement un signal à temps continu qui est nul en dehors
des instants d’échantillonnage.

Il est possible de définir une transformée de Fourier discrète de


{sk } pour en obtenir une interprétation fréquentielle et juger de
la qualité de l’échantillonnage. Toutefois les propriétés
fréquentielles de {sk } et s∗ (t) étant très proches, on jugera,
dans cette partie, de la qualité de l’échantillonnage en étudiant
le spectre de s∗ (t).

140/154
Échantillonnage des signaux continus

Qualité de l’échantillonnage

Échantillonnage dans le domaine fréquentiel

La transformée de Fourier de s∗ (t) est donnée par

S ∗ (f ) = S(f ) ∗ Pδ (f ).
où Pδ (f ) est la transformée de Fourier de Pδ (t) qu’il convient de
calculer.

141/154
Échantillonnage des signaux continus

Pδ (t) est un signal périodique qui admet un développement en


série de Fourier dont il est possible de calculer les
coefficients cn :
Z Te
1 2
cn = Pδ (t)e−inωe t dt =
Te − T2e
Z Te Z Te
1 2
−inωe t 1 2 1
δ(t)e dt = δ(t).1dt = ,
Te − T2e Te − T2e Te

où ωe = 2πfe = Te est la pulsation d’échantillonnage. Il vient
alors :

1 X
Pδ (f ) = δ(f − nfe ).
Te n=−∞

142/154
Échantillonnage des signaux continus

On injecte cette expression dans celle de S ∗ (f ) :



∗ 1 X
S (f ) = S(f ) ∗ δ(f − nfe ).
Te n=−∞

Ceci conduit à :

X

S (f ) = fe S(f − nfe ).
n=−∞

L’échantillonnage a pour effet de reproduire le spectre de


S(f ) autour de chaque multiple de la fréquence
d’échantillonnage fe .

143/154
Échantillonnage des signaux continus

S(f)

0 f

−fmax ∆f fmax

Échantillonage

S ∗ (f )

fe S̄

... ...
0
−fe fe 2f e f
∆f

144/154
Échantillonnage des signaux continus

S(f ) et S ∗ (f ) étant complexes, cette duplication concerne tout


autant le module que la phase.

145/154
Échantillonnage des signaux continus

Bon échantillonnage et mauvais échantillonnage ?

Dans le dessin précédent, il est possible d’isoler facilement le motif


élémentaire (spectre de S(f )), qui n’est pas déformé.

Un filtre passe bas (idéalisé) suffit pour retrouver S(f ) à partir de


S ∗ (f ). Un tel filtre est appelé filtre de restitution

Autrement dit, l’information sur le signal continu s(t) n’a pas été
perdue. La restitution est l’opération inverse de l’échantillonnage.

On peut aussi rencontrer des cas plus compliqués.

146/154
Échantillonnage des signaux continus

S(f)

0 f

−fmax ∆f fmax

Échantillonage

S ∗ (f )

fe S̄

...
... 0
−fe fe 2f e f
∆f

Dans un tel cas, il est impossible de récupérer S(f ), même par


un filtre idéal. L’information sur s(t) est perdue ! On parle alors
de repliement de spectre ou recouvrement de spectre.

147/154
Échantillonnage des signaux continus

Dans l’hypothèse où le spectre de s(t) est limité à la fréquence


fmax , pour éviter le repliement de spectre, il faut assurer la
condition suivante :

fe > 2fmax

Ce résultat est appelé théorème de Shannon ou encore


théorème de Nyquist-Shannon.

148/154
Échantillonnage des signaux continus

Bruit et filtre anti-repliement

Parfois le signal à échantillonner est la somme d’un signal utile


s(t) et d’un bruit b(t) de sorte que le signal échantillonné est
s(t) + b(t).

Il se peut que le repliement de spectre soit dû à la présence du


bruit comme le montre la figure suivante.

149/154
Échantillonnage des signaux continus

S(f ) +B(f )

0 f
−fmax ∆f fmax

Échantillonage

S ∗ (f ) +B ∗ (f )

fe S̄

... ...
0
−fe fe 2f e f
∆f

150/154
Échantillonnage des signaux continus

Dans un tel cas, il est conseillé de procéder à un filtrage


passe-bas avant l’échantillonnage et ainsi éliminer ou réduire le
bruit pour éviter le repliement de spectre.

On parle de filtre anti-repliement et la bande passante de ce


filtre doit autant que possible couvrir la spectre de s(t) mais ne
pas inclure les fréquences du bruitb(t).

Il est conseillé, de manière générale, de toujours procéder


filtrage anti-repliement avant échantillonnage même si des cas
peuvent contredire cet usage.

151/154
Échantillonnage des signaux continus

Echantillonnage et restitution en pratique.

En pratique :
L’échantillonnage est assuré par un convertisseur
analogique numérique (CAN) mais ce dernier assure deux
opérations supplémentaires :
un blocage pour assurer un temps minimal permettant la
conversion électronique ;
une quantification, liée au codage en binaire, qui est est
d’autant plus importante que le CAN est de faible définition.
La restitution est assurée par un convertisseur numérique
analogique (CNA) mais :
le signal restitué est numérique donc par essence
quantifié ;
la restitution n’est pas vraiment assurée par un filtrage mais
par un blocage (construction d’un "signal en escalier").

152/154
Échantillonnage des signaux continus

Si l’on néglige l’aspect de quantification, celui de blocage par


les CAN est un peu plus compliqué à ignorer. Une étude plus
approfondie consisterait à :
étudier les vrais signaux discrets (suites numériques), ainsi
que leurs "spectres", donc la transformation de Fourier
discrète ;
étudier l’action sur le spectre d’un échantillonnage-blocage
plutôt que d’un simple échantillonnage.

Mais on arrive à la fin du faible temps imparti !

153/154
Mais n’oubliez pas de consulter les notes de cours en
version PDF !

154/154

Vous aimerez peut-être aussi