COUR DE TRAITEMENT DE SIGNAL Master 1
COUR DE TRAITEMENT DE SIGNAL Master 1
DE SIGNAL
1
Chapitres 1: PROPRIÉTÉS ET ACQUISITION DES SIGNAUX SONORES ET
ACQUISITION ET REPRESENTATION DES IMAGES (suite)
Mathématiquement une image est une fonction f(x,y) des deux coordonnées d’un plan
d’étendue limitée. Généralement l’amplitude de f(x,y) est transcrite par un niveau d’une
échelle lumineuse (image monochrome) ou par la couleur d’une palette chromatique (image
couleur). Nous pouvons ainsi distinguer :
– les images naturelles d’une scène réelle 3D éclairée, obtenues à l’aide d’un dispositif
optique (œil, objectif photo...) ;
– les images « imaginaires » conçues selon l’art pictural ou par synthèse assistée par
ordinateur ;
– les images obtenues selon la technique Raster qui consiste à représenter un ensemble de
données sous la forme de points colorés ordonnés dans un plan.
Cette partie est consacré à l’obtention et à la représentation de l’image d’une scène 3D.
L’accent est mis sur la modélisation de la formation optique de l’image et à son exploitation à
des fins de mesure.
Le premier paragraphe rappelle les lois de la formation optique des images et les réglages
nécessaires à l’obtention d’une image nette.
Le troisième paragraphe décrit sous forme matricielle les différentes étapes qui permettent de
calculer la position d’un point image à partir des coordonnées tridimensionnelles du point
scène correspondant.
La calibration d’un système de prise de vue est présentée dans le dernier paragraphe. Elle est
illustrée par un exemple pratique.
Enfin la métrologie par l’image est abordée sous la forme de deux exercices d’application.
La formation d’images réelles d’une scène est obtenue à l’aide d’un système optique
convergent dont nous rappelons les règles élémentaires. Considérons les points objet et les
points-image formés par une lentille mince convergente (figure 2.1).
2
Nous définissons le grandissement γ du système par :
Figure 2.1 Formation d’une image par une lentille mince convergente.
Le format du capteur d’image (rétine) et les dimensions de la scène à filmer sont supposés
connus. Le grandissement γ nécessaire pour observer la scène est par conséquent également
connu. Notons L la distance objet-capteur.
Détermination de p en fonction de γ et f
Détermination de f en fonction de γ et L
3
b) Éclairement et ouverture
L’éclairement Ec d’une scène de surface S par un flux lumineux φ est défini par :
Si φ est en W alors Ec est en W/m2; si φ est en lumen alors Ec est en lux. Le tableau
2.1 fournit quelques niveaux d’éclairement rencontrés dans des situations courantes.
Le nombre d’ouverture N d’un objectif diaphragmé est défini par :N=f/D où D est
le diamètre actif de l’objectif. On montre que l’éclairement reçu par le capteur de l’image est
proportionnel à :
Remarque. Dans les caméras vidéo, un contrôle automatique d’exposition permet d’adapter le
temps d’intégration des éléments CCD ainsi que l’ouverture du diaphragme à la dynamique de
l’éclairement de la scène filmée.
La profondeur de champ est la profondeur de scène pour laquelle l’image de chaque point est
caractérisée par une tache, ou cercle de confusion, ne dépassant pas un diamètre toléré e
(figure 2.2).
4
En vidéo, il est d’usage de considérer comme diamètre de confusion, la distance inter-pixels
de la matrice CCD (figure 2.3).
PPN: premier plan net ; DPN: dernier plan net ; PNI: plan net idéal (mise au point pour p).
Puis on évalue la profondeur, par rapport à l’objectif, des plans particuliers de la scène à
l’aide des relations suivantes :
5
Deux cas de figure peuvent être examinés:
➤A δ fixée
Remarque. Cette propriété est mise à profit dans les appareils photographiques bon marché
de type focus fixe qui possèdent un objectif dont la mise au point unique est réalisée sur δ.
➤A p fixée
Pour une mise au point sur une distance p fixée, plus δ est élevée et plus la profondeur de
champ est limitée. Par conséquent la profondeur de champ est d’autant meilleure que N est
élevé, e élevé et f faible.
Exemple. Dans le cas d’une caméra miniature présentant les caractéristiques suivantes :
2.2.1 Colorimétrie
La perception visuelle d’un stimuli lumineux peut être décomposée en deux sensations :
Ces sensations sont transcrites au cerveau par les deux types de récepteurs visuels que
comporte la rétine :
6
– les bâtonnets adaptés à la vision des formes et du mouvement. Ils sont actifs dans des
conditions de faibles éclairements (vision scotopique) ;
– les cônes adaptés à la vision des couleurs et des détails dans des conditions d’éclairements
moyens à élevés (vision photopique ou en lumière du jour).
En conséquence, seuls les cônes sont responsables de la sensation colorée. La densité des
cônes est particulièrement élevée dans la zone centrale de la rétine appelée fovéa dont le
diamètre moyen est approximativement de 0,4 mm. En s’éloignant de la fovéa, la proportion
de bâtonnets augmente au détriment de celle des cônes qui sont pratiquement inexistants à la
périphérie de la rétine. La bande spectrale de lumière, visible par l’œil humain, s’étend en
longueur d’onde entre 380 nm et 780 nm. Pour analyser cette bande, 3 types de cônes de
sensibilité spectrale spécifique sont actifs.
De cette expérience sont déduites les lois de Grassman sur la colorimétrie trichromatique :
– toute couleur peut être égalisée par la somme de quantité positive ou négative de
– l’addition d’une quantité y d’une couleur Y à chacun des deux plans conserve l’égalisation
: xX + yY = aA + bB + cC + yY;
– un même facteur multiplicatif appliqué aux intensités des flux ne modifie pas l’égalisation.
7
Remarque. Un flux lumineux étant par nature d’intensité positive ou nulle, une égalisation
mettant en œuvre un coefficient d’intensité négatif, ne peut pas être réalisée en pratique. Dans
un tel cas l’égalisation sera obtenue sur un mélange entre la couleur X et le flux à soustraire
(figure 2.4b) : xX + aA = bB + cC.
La première loi de Grassman montre qu’une couleur quelconque peut être représentée dans
une base formée par trois couleurs primaires. Bien que pouvant être arbitraire, le choix de ces
primaires est primordial si l’on veut obtenir une grande étendue d’égalisation. En pratique les
primaires sont monochromatiques et éloignées les unes des autres. Le trio optimal, qui assure
l’égalisation d’un maximum de couleurs visibles, est :
R=700nm, V=546nm et B=436nm (figure 2.5c). La figure 2.5a décrit les couleurs obtenues
par synthèse additive à proportion égale des flux émis par 3 projecteurs de couleurs R, V, B.
Une couleur monochromatique d’intensité unitaire (x=1) peut être égalisée selon la relation :
X= rR + vV + bB
Les proportions des couleurs primaires nécessaires pour égaliser chaque couleur
monochromatique correspondent respectivement aux fonctions colorimétriques r(λ), v(λ) et
b(λ) décrites en figure 2.6.
8
Considérons la couleur X d’une source lumineuse de spectre (λ). La détermination des
coefficients d’égalisation r, v, b est obtenue par le produit scalaire de (λ) avec chacune des
fonctions colorimétriques.
En pratique une estimation numérique de ces intégrales par la méthode des rectangles avec un
pas λ de 5 nm est suffisante.
L’espace chromatique RVB est le système colorimétrique standard utilisé dans la plupart des
systèmes vidéo pour coder une couleur. Cette décomposition vectorielle est cependant assez
éloignée de la représentation dite psychovisuelle qui décrit une couleur selon les trois
attributs : luminosité, teinte et saturation.
La teinte indique une position dans la palette des couleurs visibles. Elle correspond à la
longueur d’onde d’un rayonnement monochromatique provoquant une sensation dans le
même ton coloré.
9
La position T=0correspond à l’axe des bleus
les composantes TSL sont plus indépendantes entre elles que les composantes RVB. De plus
les composantes RVB sont corrélées avec la luminance (tableau 2.4) ce qui explique que
l’image reste parfaitement reconnaissable dans chacun des plans RVB.
L’image créée par un système optique de qualité peut être utilisée à des fins de mesures
dimensionnelles. Pour cela, la condition nécessaire est de posséder un modèle précis reliant
les coordonnées tridimensionnelles des points de la scène filmée à la position des pixels
10
correspondants dans l’image. Ce paragraphe présente une approche matricielle modélisant
cette transformation 3D−→2D.
11
12
13
14
15
16
17
18
19
20
21
SIGNAUX ET DEFINITIONS
1 Définition du signal
On appelle signal toute grandeur physique tensorielle qui varie soit continument (signaux
analogiques) soit discrètement (signaux numériques) au cours du temps. L’évolution dans
le temps de la grandeur considérée est régie par la dynamique spécifique du signal. Quelque
fois la loi temporelle régissant le phénomène est bien connue (signaux déterministes) et d’autre
fois il est difficile, voir impossible de le décrire (signaux aléatoire).
1.1 Exemple
OEM ↔ dynamique régie par les lois de Maxwell
Son ↔ dynamique régie par la théorie des ondes stationnaires
Signaux électriques ↔ courant, tension
Influx nerveux ↔ électrophysiologique (transmission d’infos sensorielles)
1.2 Processus
Le traitement du Signal suit le cheminement suivant :
* Analyse et diagnostique
* Codage
* Quantification et Compression
* Transmission et archivage
* Synthèse et restauration
6
analogique. C’est un des outils souvent utilisés en traitement du signal.
L’objet du traitement du signal est donc d’analyser avec soin, de coder, de transmettre
intégralement ou une partie spécifique du signal ou de reconstruire à sa reception toutes ses
propriétés afin d’en tirer les maximum d’infos qu’il contient.
2 Signaux déterministes
2.1 Signaux analogiques
Ce sont des signaux à temps continu, c’est à dire définis pour toute valeur de t. On s’appuie sur
les modèles mathématiques pour les décrire. L’allure de la fonction peut présenter des sauts.
3 Principaux signaux
3.1 Fonction porte
(
1 pour |t| ≤ T
π2T (t) =
0 pour |t| > T
7
(
0 pour t 6= 0
lim πT (t) =
T →0 ∞ pour t = 0
La limite de cette fonction lorsque T → l’∞ donne l’impulsion de Dirac :
R +∞
δ(t) = lim πT (t) et −∞ δ(t)dt = 1.
T →0
8
4 Signaux aléatoires
4.1 Définition
Un signal est dit aléatoire lorqu’on est incapable de le décrire par une loi mathématique simple.
Exemple : le bruit, l’éclair, certains écoulements...
Un signal aléatoire peut être de type transitoire ou permanent.
Dans le cas permanent : on peut le décrire par les lois de probabilités.
9
MATHEMATIQUE DU SIGNAL
5 Série de Fourier
5.1 Définitions
Soit un signal x(t) périodique de période T admettant un nombre fini de discontinuités;
on a :
+∞
P
x(t) = a0 + [an cos(nωt) + bn sin(nωt)]
n=1
t +T
a0 = T1 t00 x(t)dt
R
R t +T
an = T2 t00 x(t). cos(nωt)dt
R t +T
bn = T2 t00 x(t). sin(nωt)dt
soit,
∞
1
[(an − jbn )ejnωt + (an + jbn )e−jnωt ]
P
x(t) = a0 + 2
n=1
10
+∞
P p
x(t) = a0 + Sn cos(nωt + ϕn ) avec Sn = a2n + b2n
n=1
x(t) = somme d’un signal continue et d’un infinité de signaux sinusoı̈daux de pulsation ω, 2ω,
3ω, 4ω,.....nω,.....
Le terme de pulsation ω est appelé la fondamentale ou le premier harmonique. Les autres
termes s’appellent respectivement harmoniques d’ordre 2, 3, 4,......n,.......
5.3.2 Spectre
On porte sur l’axe des abscisses la pulsation ω et en ordonnée les raies traduisant les modules
des Sn correspondants.
De même, on représente le spectre en puissace (Sn2 ) et puis le spectre en phase (ϕn ).
Fonction paire
RT an
an = T4 t02 x(t) cos(nωt)dt, bn = 0, on en déduit que Cn = C−n =
2
Fonction Impaire
RT bn
bn = T4 t02 x(t) sin(nωt)dt, an = 0, on en déduit que Cn = −C−n =
2j
11
TF
La réciprocité s’écrit : x(t) ←→ X(ν)
6.3 Propriétés
6.3.1 Linéarité
x(t) = ax1 (t) + bx2 (t) alors X(ν) = aX1 (ν) + bX2 (ν)
6.3.2 Dérivation
6.3.3 Parité
x(t) X(ν)
réelle paire réelle paire
réelle impaire imaginaire impaire
réelle complexe (Ré paire, Im impaire)
6.3.4 Conjugué
TF TF
Etant donnée x(t) ←→ X(ν) alors x∗ (t) ←→ X ∗ (−ν) ; x∗ est le complexe conjugué de x
C’est à dire : T F [x∗ (t)] = X ∗ (−ν)
7 Convolution
7.1 Définition
R +∞
z(t) = x(t) ∗ y(t) = −∞ x(τ )y(t − τ ) dτ
La convolution exprime généralement la réponse à un signal quelconque à partir de celle d’un
12
signal type (impulsionnelle) caractérisé par y(t). τ exprime le retard temporel entre les deux
signaux.
Les filtres définis comme STLCS (Système de Transmission Linéaire Continue et Stationnaire)
sont des systèmes de convolution.
7.2 Propriétés
x ∗ y = y ∗ x, x ∗ (y + z) = x ∗ y + x ∗ z, x∗δ =δ∗x=x
alors, hR i
R +∞ +∞
Z(ν) = −∞ [x(τ ) · e−j2πντ ] · −∞ y(t − τ ) · e−j2πν(t−τ ) · dt · dτ Posons θ = t − τ, on dθ = dt
(τ est considéré comme paramètre constant si on raisonne par rapport à la variable t).
On a : hR i
R +∞ +∞
Z(ν) = −∞ x(τ ) · e−j2πντ · −∞ y(θ) · e−j2πνθ · dθ · dτ
Puisquehla deuxième intégralei esthRindépendante de τ, on i peut ecrire Z(ν) sous la forme :
R +∞ +∞
Z(ν) = −∞ x(τ ) · e−j2πντ dτ · −∞ y(θ) · e−j2πνθ · dθ soit, le résultat attendu :
T F {x(t) ∗ y(t)} = X(ν)(ν)
13
8 Transformée de Laplace
Pour un signal continu transitoire, afin d’assurer la convergence de l’intégrale de Fourier (signal
causal ie t > 0), on multiplie x(t) par e−pt .
8.1 Définition
On définit alors la transformée de Laplace de la manière suivante :
R +∞
Lx(p)={x(t)}L = X(p) = 0 x(t)e−pt dt
8.2 Propriétes
TL
ax1 (t) + bx2 (t) ←→ aX1 (p) + bX2 (p)
TL
x(at) ←→ |a|1
X( ap )
TL
x(t − a) ←→ X(p) · e−a.p
TL
x(t) ∗ y(t) ←→ X(p) · Y (p)
et reciproquement,
TL
x(t) · x(t) ←→ X(p) ∗ Y (p)
9 Propriétés energétiques
Transmission d’information ≡ Transmission d’énergie
14
9.5 Puissance moyenne d’interaction entre deux signaux
R t+T R t+T
pxy (t, T ) = 1
T t
x(t) · y ∗ (t) dt et pyx (t, T ) = 1
T t
y(t) · x∗ (t) dt
10.2 Autocorrélation
10.2.1 Définition
R +∞ R +∞
Cxx (τ ) = −∞
x(t)x∗ (t − τ ) dt = −∞
x(t + τ )x∗ (t) dt
10.2.2 Propriétés
Pour les signaux réels la fonction Cxx est paire, Cxx (t) = Cxx (−t)
∀t on a : Cxx (t) ≤ Cxx (0) (valeur maximale à t = 0)
15
Remarque :
Pour les fonctions réelles, |X(ν)|2 = X(ν)X ∗ (ν) = X(ν)X(−ν) et Sxx (ν) = |X(ν)|2
11 Propriétés spectrales
11.1 Spectre du signal
R +∞
X(ν) = T F {x(t)} = −∞ x(t)e−j2πνt dt
x(t) réelle ⇒ X(ν) = X ∗ (−ν) = X ∗ (ν)
Réciproquement,
R +∞ R +∞ hR +∞ R +∞ 0
i
Cxx (τ ) = −∞ x(t)x(t − τ )dt = −∞ −∞ X(ν)ej2πνt dν · −∞ X(ν 0 )ej2πν (t−τ ) dν 0 dt
R +∞ R +∞ R +∞ 0 0
= −∞ −∞ −∞ X(ν)X(ν 0 )ej2π(ν+ν )t e−j2πν τ dνdν 0 dt
R +∞ R +∞ 0
= −∞ −∞ X(ν)X(ν 0 )δ(ν + ν 0 )e−j2πν τ dνdν 0
R +∞
= −∞ X(ν)X(−ν)ej2πντ dν
16
R +∞
= −∞
Sxx (ν)ej2πντ dν
12 Signaux aléatoires
12.1 Théorie des probabilités
12.1.1 Variables aléatoires
Ecart type :
p
σx = V ar(x).
17
12.1.3 Distribution de Poisson
σ x −σ
f (x) = x!
e σ=x
Si la variable aléatoire stationnaire est aussi ergodique il y a équivalence avec les caractéristiques
temporelles.
Moyenne temporelle
R +T
xe = lim N1 i xi (t) et x(t) = lim xT = lim T1 − T2 x(t)dt
P
N →∞ T →∞ T →∞ 2
Puissance du signal
R +T
Px = x2 (t) = lim T1 − T2 x2 (t)dt ≡< x2 (t) >
T →∞ 2
Fonction d’autocorrélation temporelle
R +T
Cxx (τ ) = lim T1 − T2 x(t)x(t − τ )dt
T →∞ 2
18
12.3 Le Bruit
On appelle bruit tout signal indésirable, limitant l’intelligibilité d’un signal utile.
Le bruit peut avoir avoir plusieurs sources :
- sources externe (indépendant du signal propre) localisé à l’extérieur du système
- source internes (perturbation impulsionnelle, bruit de fond) lié à l’électronique du systeme.
k la const de Boltzmann
T température (en K)
avec
R résis tan ce (en Ω)
∆ν bande passante du système (en Hz)
Le bruit blanc est un signal de valeur moyenne nulle. Son spectre en amplitude est constant.
La densité spectrale du bruit blanc est constante dans la bande de fréquence ∆ν considérée.
B(ν) = B0 = 12 kT .
Cbb (τ ) = B0 .δ(τ )
Pratiquement, un tel bruit n’existe pas, mais parlera du bruit blanc à chaque fois que le spectre
de densité de puissance est constante à l’intérieur de la bande passante.
Un bruit rose est un bruit dont le spectre en amplitude est inversement proportionnel à la
fréquence (le spectre en amplitude varie en ν1 ).
En réalité, il s’agit d’un bruit blanc dont la densité spectrale de puissance est modélisée par
une fonction porte de largeur 2νb ; νb est la fréquence maximale du bruit rose.
La fonction d’autocorrélation impulsionnelle du bruit rose est très étroite et centrée sur τ = 0
(fonction sinc dans le cas réel)
B(ν) = B0 · Π2νb (ν)
19
Sa fonction d’autocorrélation est : Cbb (τ ) = B0 · (2νb ) · sin(2πν bτ )
2πνb τ
Dans le cas où νb très grand, la fonction d’autocorrélation du bruit du bruit rose est nulle pour
(τ > τlim ).
12.3.7 Détection par corrélation d’un signal périodique noyé dans du bruit
20
Le signal complet à traiter est s(t) = x(t) + b(t).
La fonction d’autocorrélation de s(t) est donnée par :
R +T R +T
Css (τ ) = T1 − T2 s(t)s(t − τ )dt = T1 − T2 [x(t) + b(t)] [x(t − τ ) + b(t − τ )] dt.
2 2
Par distributivité de l’opérateur de corrélation, il vient :
Css (τ ) = Cxx (τ ) + Cxb (τ ) + Cbx (τ ) + Cbb (τ )
Or, les fonctions Cxb (τ ) et Cbx (τ ) sont nulles (signaux indépendants); résultat toujours vrai
même si T est grande. De plus pour le bruit blanc Cbb (τ ) = 0 en déhors de 0 ou négligeable
devant Cxx (τ ) au bout d’une durée finie de correlation.
Donc en sortie on a : Css (τ ) = Cxx (τ ).
21
ECHANTILLONNAGE
13.1.1 Processus
13.1.2 Traitement
- la période d’échantillonnage
- le pas de quantification
- le temps de réponse du système.
Opération mathématique simple : multiplier un signal analogique par des impulsions unités
régulières dans l’espace temporel.
On utilise la fonction Peigne de Dirac :
22
+∞
P
ΨTe (t) = δ(t − k.Te )
k=−∞
On obtient, à partir d’un signal x(t), le signal échantillonné xe (t) , suite de pics de Dirac dont
les poids ”statistiques” sont les valeurs du signal x(t) aux instants kTe , c’est à dire les valeurs
xk = x(kTe ).
+∞
P +∞
P
x(t) → xe (t) = x(t) · δ(t − kTe ) = x(t) · δ(t − kTe )
k=−∞ k=−∞
+∞
P +∞
P
xe (t) = x(kTe ) · δ(t − kTe ) = xk · δ(t − kTe ) où xk = x(kTe ) (1)
k=−∞ k=−∞
xe (t) : signal discrêt à spectre non borné (périodisation infinie).
23
13.2.6 Extraction du signal initial
Lorsque le théorême de Shannon n’est pas respecté on observe des phénomènes de recouvrement
(ou repliement) des spectres .
24
Le pectre de ce signal s’exprime :
h i k=+∞
sin(πτ ν) sin(πτ ν) P
ITe ,τ (ν) = τ · πτ ν · [νe · Ψνe (ν)] = τ · πτ ν
· νe · δ(ν − kνe ) soit,
k=−∞
k=+∞
P sin(πτ kνe )
ITe ,τ (t) = τ · νe · πτ kνe
· δ(ν − kνe ) (6)
k=−∞
Echantillonnage naturel
L’amplitude de chaque échantillon suit la valeur de la fonction pendant l’intervalle τ .
On a :
xe (t) = x(t) · iTe ,τ (t) = x(t) · [Πτ (t) ∗ ΨTe (t)] (7)
on en déduit le spectre, d’après la relation (6);
k=+∞
P sin(πτ kνe )
Xe (ν) = X(ν) ∗ ITe ,τ (ν) = X(ν) ∗ τ · νe · πτ kνe
· δ(ν − kνe ) ,
k=−∞
ou encore :
k=+∞
P sin(πτ kνe )
Xe (ν) = τ · νe · πτ kνe
· X (ν − kνe ) (8)
k=−∞
En utilisant la relation (8) on déduit la relation liant le spectre de base du signal échantillonné
et celui du spectre réel :
Xe0 (ν) = τ · νe · X(ν)
Cette relation exprime une proportionnalité donc une conservation de l’information (pas de
deviation).
Echantillonnage régulier ou bloqueur
Chaque impulsion est constante = x(nTe ) (pratique et le plus souvent mis en oeuvre).
Mathématiquement, il s’agit d’une suite de fonctions portes d’amplitudes égales aux échantillons
du signal :
k=+∞
P k=+∞
P
xe (t) = x(kTe )Πτ (t − kTe ) = [x(t) · ΨTe (t)] ∗ Πτ (t) = x(t) · δ(t − kTe ) ∗ Πτ (t)
k=−∞ k=−∞
on en déduit : h i
sin(πτ ν)
Xe (ν) = [X(ν) ∗ (νe · Ψνe (ν))] · τ · πτ ν
k=+∞
Xe (ν) = τ · νe · sin(πτ ν) P
πτ ν
· X(ν − kTe ) (9)
k=−∞
De la même manière le signal initial est extrait par un filtre passe-bas de largeur νe .
La relation liant le spectre de base et celui du signal échantillonné (en s’appuyant sur la relation
(9)) est :
Xe0 = τ · νe · sin(πτ
πτ ν
ν)
· X(ν)
Echantillonnage moyenneur
On considère ici les échantillons xe (kTe ) correspondant à la valeur moyenne de x(t) prise sur la
durée de l’impulsion τ .
Ainsi l’échantillon xk s’exprime sous la forme:
kTeR
+τ /2
xk = τ1 x(t)dt
kTe −τ /2
25
En utilisant la fonction porte, la relation précédente peut s’écrire :
kTeR
+τ /2
xe (kTe ) = τ1 · Πτ (t − kTe ) · x(t) · dt
kTe −τ /2
Cette expression représente le produit de convolution de x(t) et Πτ (t) au temps kTe ,
d0 où :
xe (kTe ) = τ1 · [Πτ (t) ∗ x(t)] · δ(t − kTe )
Le signal échantilloné complet a pour expression :
+∞
xe (t) = τ1 ·
P
[Πτ (t) ∗ x(t)] · δ(t − kTe )
k=−∞
soit:
xe (t) = τ1 · [Πτ (t) ∗ x(t)] · ΨTe (t)
Par TF et utilisant
h le th de Plancherel,
i on peut déduire le spectre Xe (ν) = T F {x(t)}ν :
sin(πτ ν)
Xe (ν) = τ1 · τ · πτ ν · X(ν) ∗ [νe · Ψνe (ν)]soit :
+∞
P sin(πτ (ν−kνe ))
Xe (ν) = νe · πτ (ν−kνe )
· X(ν − kνe ) (10)
k=−∞
De la même manière en s’appuyant sur la relation (10), on a :
Xe0 = νe · sin(πτ
πτ ν
ν)
· X(ν),
résultat très proche de celui de l’échantillonnage régulier. L’amplidute de X(ν) est modulée
par la fonction sinc(τ ν) = déformation par rapport à échantillonnage naturel.
Remarque : plus la durée de l’impulsion d’échantillonage est faible devant la période du signal
échantillonné, plus le bloqueur et le moyenneur sont plus proche de l’idéal (naturel).
13.3 Quantification
Choisir et remplacer par la valeur arrondie au plus proche voisin ou par défaut les échantillons
utiles.
Pour un échantillonnage uniforme on choisit N intervalles identiques de valeur q. On utilise un
convertisseur numérique-analogique. Ce processus introduit toujours une erreur appelée bruit
de quantification sauf si le signal est de la forme : xe (kTe ) = N · q
L’erreur de quantification est un bruit blanc. Cette erreur provient de la compression ou de
l’expansion linéaire et non-lineaire des données.
Soit une erreur que quantification ε(t), pendant un temps très long θ, on suppose que l’amplitude
du signal varie dans une plage plus large que q (pas de quantification) et peut être approximée
par une droite :
ε(t) = q · θt pour − 2θ ≤ t ≤ 2θ .
La valeur moyenne est nulle sur cet intervalle.
26
13.3.1 Puissance moyenne
+ θ2 + θ2
1
R 1
R t 2 q2
Pε = θ
ε2 (t) · dt = θ
q θ · dt = 12
− θ2 − θ2
1
sur l’intervalle − 2q , + 2q .
Variable aléatoire, densité de probabilité p(ε) constante égale à q
27
FILTRAGE
14.1.1 Définitions
s(t)
Le bel est le logarithme décimal du rapport e(t) . Dans la pratique, on utilise le décibel :
s(t)
Adb = 10 log e(t) .
Pour un appareil Hi-Fi (un amplificateur par exemple), on utilse la même expression, mais,
avec les puissances d’entréeet de sortie :
Vs2
L’étude de la fonction Ps = Ps (ν) sur une résistance de charge constante permet de passer par
sa valeur maximale Psmax à une fréquence donnée.
On appelle bande passante d’un système de Transmission, la zone de fréquences pour lesquelles
on a : PsPs ≥ 0.5 ou Adb ≥ −3db.
max
28
Un filtre est défini comme la réponse impulsionnelle notée h(t), et par sa fonction transfert
notée H(f ) (ou H(p) resp.) transformée de (Fourier ou Laplace resp.) de h(t).
Cas classique :
Filtre passe-bande : seules sont transmises les fréquences comprises dans l’intervalle [ν0 − ∆ν, ν0 + ∆ν]
Filtre coupe-bande : on arrête les fréquences comprises dans l’intervalle [ν0 − ∆ν, ν0 + ∆ν]
En pratique :
Pour un x(t) donné, on peut représenter X(ν) qui est la TF du signal x(t) et on filtre en mul-
tipliant X(ν) par H(ν).
En vertu du théorème de Plancherel, on passe du produit simple dans l’espace des fréquences
au produit de convolution dans l’espace temporel et inversement.
Xs (ν) = X(ν). H(ν) où Xs (ν) est le signal filtré. On a :
R +∞
xs (t) = x(t) ∗ h(t) = −∞ x(τ )h(t − τ )dτ .
h(t) est la réponse impulsionnelle du filtre.
La causalité
L’effet (sortie du filtre) ne peut précéder la cause (entrée du filtre).
La réponse impulsionnelle d’un filtre est la réponse à une impulsion de Dirac appliquée à t = 0;
elle doit être nulle pour t < 0.
Tout système physique doit avoir : h(t) = 0 pour t < 0.
R +∞ R +∞
Pour un filtre causal : xs (t) = −∞ h(τ )x(t − τ )dτ = 0 h(τ )x(t − τ )dτ . Un filtre non causal
devra utiliser des valeurs futures de signaux d’entrée ce qui n’est pas évident, ou soit ceci est
possible en travaillant en temps différé.
Déphasage des filtres
Soit h(t) la réponse implusionnelle d’un filtre, son gain complexe est :
H(ν) = T F [h(t)] = ReH(ν) + jImH(ν)=|H(ν)| ejϕ(ν)
La relation sortie-entrée du filtre s’écrit, en fréquence, sous la forme : Xs (ν) = |H(ν)| ejϕ(ν) X(ν),
et le déphasage de la sortie par rapport à l’entrée est la phase ou l’argument ϕ(ν) du filtre.
29
Remarque : Si ϕ(ν) = 0 (gain réel), la réponse implusionnelle est paire.
Pour un filtre causal, on a : ϕ(ν) 6= 0.
15 Filtres Analogiques
15.1 Filtres analogiques continus réalisables
Les filtres réalisés et appliqués sur des signaux à temps continu (non échantillonnés) sont
constitués par des composants électroniques (Résistances, Capacités et Self, Amplificateurs
Opérationnels, niodes ...).
Le spectre S(ν) du signal de sortie s(t) est le produit du spectre E(ν) du signal de d’entrée
e(t) avec la fonction de transfert fréquentielle du filtre H(ν) :
S(ν) = E(ν) · H(ν)
30
15.3 Filtres à déphasage linéaire
Filtre à réponse non causal h1 (t) sans déphasage; h1 (t) est linéaire symétrique par rapport à
l’origine.
Supposons que h1 (t) est aussi à support borné[−θ0 , θ0 ], considérons alors le filtre dont la réponse
impulsionnelle serait déduite de h1 (t) par translation ; on a :
h(t) = h1 (t − θ0 ) et H(ν) = H1 (ν)e−2πjνθ0 .
Puisque h1 (t) est réel paire alors H1 (ν) est aussi réel paire. Le déphasage de H(ν) est alors
ϕ(ν) = −2πνθ0 (fonction linéaire de la fréquence).
16 Filtres Numériques
16.1 Définition
On appelle filtre numérique un système utilisé pour modifier la distribution fréquentielle d’un
signal numérique d’entrée en le transformant en un signal numérique désiré en sortie.
Avec le progrès en informatique les filtres numériques sont caractérisés par leur : précision,
fiabilité, stabilité, adaptabilité et facilité de commande.
En fait, ce filtre relie la sortie y(kT e) = yk à l’entrée x(kT e) = xk à chaque instant kT e, Te
31
étant la période d’échantillonnage.
yk = F onction(xk , xk−1 , ..., yk−1 , yk−2 , ...)
16.2.1 Transformée en Z
Définition
La transformé en Z peut être considéré comme une généralisation de la transformation de
Fourier à laquelle elle peut s’identifier dans des cas particuliers. La transformée en Z constitue
l’outil privilégie pour l’étude des systèmes discrets. Elle joue un rôle équivalent à celui de la
transformée de Laplace et permet de représenter un signal possédant une infinité d’échantillons
par un ensemble fini de nombres. Elle est définie pour un signal échantillonné x(n) par :
+∞
x(n)z −n
P
X(z)=TZ[x(n)]=
n=−∞
Lien avec la transformée de Fourier
Si on pose z= rej2πν , on a :
+∞ +∞
X(z)=X(rej2πν )= x(n)(rej2πν )−n = x(n)r−n e−j2πνn
P P
n=−∞ n=−∞
+∞
x(n)e−j2πν n , qui est la définition de la transformée de
P
Pour |r| = 1, on a : X(z) = X(ν)=
n=−∞
Fourier discrête.
32
16.2.2 TZ et Plancherel
H(z) = T Z {h(n)}
X(z) = T Z {x(n)}
Y (z) = T Z {y(n)}
La relation entrée-sortie va s’écrire alors :
Y (z) = H(z) · X(z)
en prenant la TZ de la relation (11) on a:
M
bk z −k
P
Y (z) 0 N (z)
H(z) = X(z)
= P = D(z)
1+ ak z −k
P
1
Le gain complexe en Z d’un filtre numérique est une fraction rationnelle en z (ou z −1 ).
Les zéros de N(z) sont les zéros du filtre, les zéros de D(z) sont les pôles du filtre.
En appelant zoj les zéros et zpi les pôles, on a :
M
Π (z−z0j )
P −M
H(z) = K · z · j=1
P , z P −M est un retard pur, K est un facteur d’échelle.
Π (z−zpi )
i=1
Un filtre numérique est donc décrit à un retard et à un facteur d’échelle près, par la connaissance
de ses zéros et ses pôles.
Les filtres à moyenne ajustée (MA) ou filtre à réponse impulsionnelle finie (RIF) ne possèdent
que des zéros (et un pôle multiple en z = 0). La relation d’entrée-sortie est :
PM
yn = bk x(n − k).
k=0
Ces filtres réalisent une moyenne (lissage) de M+1 entrées. Leur réponse implusionnelle est
telle que :
33
0 si n < 0
h(n) = bk si 0 ≤ n ≤ M ; d’où la dénomination de filtre à réponse impulsionnelle finie. Le
0si n > M
gain complexe en Z est :
M
bk z M −k
P
M
N (z)
H(z) = bk z −k =
P 0
zM
= zM
. Les zéros sont les M racines de N (z).
0
Les filtres autoregressifs (AR) ou les filtres à réponse impulsionnelle infinie (RII) ne possèdent
que des pôles, et un zéro multiple en z = 0. La relation sortie-entrée de ces filtres est :
PP
y(n) = − ak y(n − k) + x(n).
1
La sortie à l’instant n est une combinaison linéaire des sorties précédentes (d’où leur dénomination
de filtres autoregressifs) à laquelle s’ajoute l’entrée à l’instant n. Ce sont des filtres prédicteurs.
Le gain complexe de ces filtres s’exprime sous la forme :
zP zP
H(z) = P = D(z) .
zP + ak z P −k
P
1
Les pôles zpj sont les zéros de D(z).
La reponse impulsionnelle de ces filtres
( est une combinaison linéaire de termes de la forme :
n 0 n<0
hj (n) = u(n) · zpj avec u(n) =
1 n>1
Cette réponse impulsionnelle est de durée infinie. On voit également que le filtre est stable si
le module de tous les pôles est inférieur à l’unité.
Le gain complexe en Z d’un filtre numérique est une fraction rationnelle que l’on peut décomposer
en élément simples qui sont, comme pour les filtres analogiques : Les filtre du 1er ordre:
1
H1 (z) = 1−az −1
Filtre AR1 :
y(n) − ay(n − 1) = x(n)
C’est un filtre passe-bas pour : 0 ≤ a < 1; sa réponse impulsionnelle est de la forme :
h(n) = u(n)an .
Il est donc équivalent à un filtre intégrateur (filtre RC) de constante de temps τR = −TlnE a .
C’est un filtre passe-haut pour : −1 ≤ a ≤ 0.
Filtre du 2ème ordre :
1 z2
H2 (z) = 1−2ρνz−1 +ρ2 z −2
= z2 −2ρνz+ρ2
34
√ √
z1 = ρ ν + ν 2 − 1 z2 = ρ ν − ν 2 − 1
Pour 0 < ρ < 1, ν > 1, |z1 | < 1 et |z2 | < 1, filtre passe-bas du 2ème ordre.
Pour −1 < ρ < 0, ν > 1, |z1 | < 1 et |z2 | < 1, filtre passe-haut du 2ème ordre.
Pour 0 < ρ < 1 et |ν| < 1, en posant ν = cos θ,les pôles sont : z1,2 = ρe±jθ donnant un filtre
résonnant.
Ce sont des filtre AR2 définis par la relation d’entrée-sortie sous la forme :
y(n) = 2ρy(n − 1) − ρ2 y(n − 2) + x(n)
16.5 Restitution
+∞
P
{xk } → x(t) = xk δ(t−kTe ) Interpolation linéaire-Restitution par bloqueur-Transformation
k=−∞
H(p) ou H(z) en inverse. Blocage impulsionnel + intégrateur d’entrée
FIN
35