1
Signal aléatoire
1. Introduction
Le signal déterministe est totalement connu a priori. En pratique la plupart des signaux à
traiter comportent une certaine incertitude dans leurs évolutions. La reproduction de la
procédure expérimentale ne conduit pas à la même observation du fait de la présence de
perturbations que l’expérimentateur ne peut pas maîtriser totalement.
Ces perturbations peuvent être de nature variées: bruit additif, distorsion agissant sur des
signaux transmis, erreurs liées aux appareils de mesure,…L’observation comporte donc des
aléas. Il s’agit du signal aléatoire.
Un signal aléatoire est un signal qui, comme son nom l'indique, varie aléatoirement en
fonction du temps, en particulier sa valeur à un instant ne peut pas être prédite. Le traitement
du signal aléatoire fait largement appel à la théorie des probabilités et des processus
aléatoires, ainsi que la théorie des statistiques pour mettre en évidence de techniques
permettant d'évaluer des propriétés statistiques (i.e. moyennes) pour en avoir une meilleure
connaissance quantitative.
Définition : Un signal aléatoire (scalaire ou vectoriel) est une famille de variables ou vecteurs
aléatoires indexée par un ensemble de paramètres t T (le temps)
La notation est : {xt(ω) | t T} T discret ou continu
Nota :
- xt(ω) est une fonction de deux paramètres : le temps t et ω paramètre aléatoire lié au résultat
d’une expérience aléatoire
- Si la variable (vecteur) aléatoire prend ses valeurs dans un espace discret : signal numérique
ou chaîne en temps discret x ou continu x(t)
- Si la variable (vecteur) aléatoire prend ses valeurs dans un espace continu : signal
analogique ou processus stochastique en temps discret ou continu.
Pour chaque t, xt(•) est une variable aléatoire égale à l’état du processus considéré à l’instant t
- Pour ω fixé, x•(ω) est une réalisation du processus qui est une fonction du temps, appelée
aussi trajectoire.
- Pour t et ω fixés, xt(ω) est un nombre.
Figure 1
2
Exemples de signaux aléatoires :
Bruit de fond signaux sismiques
2. Moments statistiques et temporels : Stationnarité et ergodicité
2.1 Moments statistiques: signaux aléatoires stationnaires au second ordre
Moment d’ordre 1 (moyenne statistique): c’est la moyenne sur l’ensemble des événements
possibles. Le résultat dans le cas général est donc une fonction du temps.
Soit {xt(ω) | t T} noté x(t), signal tel que pour tout t, x(t) est une variable aléatoire et
la réalisation d'un signal aléatoire x(t) est l’ensemble des valeurs prises par les variables
aléatoires x(t) quand t varie.
Moyenne : t fixé, E(x(t)).
Comment l'estimer ?
Tirer un grand nombre de réalisations du signal aléatoire, et évaluer la moyenne des valeurs
prises par ces fonctions à chaque instant t.
Fonction de covariance (s; t) fixés, E(x(t)x*(s))
S'estime aussi en tirant un grand nombre de trajectoires, et en évaluant des moyennes
pertinentes.
Signaux aléatoires stationnaires au second ordre
Signaux aléatoires sont stationnaires au second ordre (au sens large) si :
- la moyenne statistique : E(x(t)) = m est indépendante de t
- la fonction d’autocorrélation statistique : E(x(t)x*(t-)) = Rxx() est indépendante de t.
Dans un grand nombre de cas pratique, une seule réalisation du processus est accessible à la
mesure.
Une propriété joue un rôle fondamental en pratique : ergodicité
3
2.2. Moments temporels : Signaux aléatoires ergodiques au second ordre
Xt(w) un processus aléatoire et x(t,w) un signal particulier qui représente une observation du
phénomène, on définit comme pour les signaux déterministes la moyenne temporelle par (
pour w fixé et t t [-T/2, T/2] ) :
T/2
x(t, w ) lim 1 x(t, w ) dt
T T / 2
T
La fonction d’autocorrélation temporelle par :
T/2
x(t, w ) x(t , w ) lim 1 x(t, w ) x(t , w ) dt
T T / 2
T
La fonction d’intercorrélation temporelle dans le cas de deux processus aléatoires: X(t,w) et
Y(t,w)
T/2
x(t, w ) y(t , w ) lim 1 x(t, w ) y(t , w ) dt
T T / 2
T
De façon plus générale un moment d’ordre l est :
1 T/2
x(t, w )...x(t , w) lim x(t, w) ...x(t
T T / 2
, w) dt
l 1 l 1
T
Signaux aléatoires ergodiques au second ordre
Signal aléatoire est ergodique à l’ordre n si les moyennes temporelles jusqu’à l’ordre n sont
indépendantes du choix de la réalisation. Si le processus est ergodique à tout ordre, on dit
qu’il est ergodique au sens strict.
Signal aléatoire est ergodique au second ordre si :
- la moyenne temporelle ne dépend pas de la réalisation (non aléatoire)
- la fonction d’autocorrélation temporelle ne dépend pas de la réalisation.
2.3. Signaux aléatoires stationnaires et ergodiques au second ordre
En général, la moyenne m et la fonction d’autocorrélation Rxx() peuvent s'estimer en
observant une seule réalisation (trajectoire) et en faisant des moyennes temporelles.
Lorsque le signal aléatoire est stationnaire et ergodique à l’ordre 2 :
- la moyenne statistique m est indép. de l’instant d’observation et peut être
obtenue d’une réalisation quelconque du processus par le calcul de la moyenne
temporelle (moyenne statistique = moyenne temporelle).
4
- La fonction d’autocorrélation statistique est égale la fonction d’autocorrélation
temporelle et peut être obtenue d’une réalisation quelconque du processus
3. Densité Spectrale de Puissance
Un signal aléatoire ne possède pas de transformée de Fourier. Cependant, on peut lui associer
une notion de densité spectrale de puissance. Elle représente la répartition de la puissance du
signal le long de l’axe des fréquences (watt/Hz = w.Hz-1)
3.1 Puissance instantanée
La puissance instantanée d’un signal déterministe r(t) est :
2
r(t)
Pour un signal aléatoire x(t) la puissance instantanée est la puissance instantanée de la
réalisation w
2
x(t )
3. 2 Puissance
Les signaux sont supposés stationnaires au second ordre et ergodiques on a
La puissance
T T
2
P E x(t) lim 1 x(u) du
2
On a P = Rxx(0)
3.3 Densité spectrale de puissance (dsp):
Définition : la dsp Sxx(f) est définie comme
Sxx(f) lim 1 E x(f)
T T
2
x(f) est la transformée de Fourier de la restriction de x(t) sur [0, T]. x(t) étant une réalisation
du signal aléatoire, la TF de x(t) est bien une variable aléatoire. La dsp s'obtient comme
l'espérance d'une variable aléatoire. Il est possible de s'affranchir de cette considération grâce
au théorème de Wiener-Kintchine
La densité spectrale de puissance SXX(f) d'un processus aléatoire stationnaire s'obtient comme
la Transformée de Fourier de sa fonction d'autocorrélation :
Sxx (f) TF[R xx ( )] R xx () e j2f dτ
où Rxx(t) est la fonction d’autocorrélation statistique.Si le signal est en plus ergodique, la
fonction d'autocorrélation peut être obtenue à partir d'une réalisation (la fonction
d’autocorrélation temporelle).
5
Exemples de dsp :
Signal
Autocorrélation
dsp
Nous avons la puissance du signal aléatoire x(t) :
P R xx (0) sxx (f) df
4. Propriétés des processus aléatoires du second ordre:
Considérons un signal aléatoire x(t) de moyenne m et de fonction d’autocorrélation Rxx()
(de dsp Sxx(f)).
a) Symétrie hermitienne:
Si x(t) est réel :
R xx (τ) R xx (τ) et sxx (f) est réelle , paire
Si x(t) est complexe :
R xx (τ) R*xx (τ) et sxx (f) est réelle
b) Fonction d’autocovariance:
Rcxx (τ) R xx (τ) m 2
c
où Rcxx() est la fonction d’autocorrélation du signal centré x (t) = x(t)- m
c)Valeur à l’origine:
P R xx (0) E x(t)
2
6
en utilisant l’inégalité de Schwartz :
2
E x(t 1)x*(t 2) E x(t 1) E x(t 2)
2 2
Pour t1 = t et t2=t-, nous avons pour tout :
R xx (τ ) R xx (0)
La fonction d’autocorrélation est maximale à l’origine.
d) Comportement à l’infini:
lim R (τ ) m
2
τ xx
La fonction d’autocorrélation doit s’affaiblir quand tend vers l’infini.
5. Bruit blanc
Le bruit revêt une importance particulière parce qu’il représente l’archétype de beaucoup de
phénomènes physiques. C’est un processus aléatoire stationnaire du second ordre dont la
d.s.p est constante sur tout l’axe des fréquences; le mot blanc prend son origine dans
l’analogie avec la lumière blanche, dont la puissance est répartie uniformément sur l’axe des
fréquences.
Le bruit blanc centré est un signal aléatoire (b(t)) stationnaire ergodique d’ordre 2 tel que:
m = E(b(t)) = 0 (moyenne)
Sbb(f) = N0 quelle que soit la fréquence (d.s.p)
Rbb() = N0 () (fonction d’autocorrélation)
Les valeurs de b(t) à deux instants différents quelconques sont décorrélées.
6. Techniques de filtrage
6.1 Filtrage linéaire :
Soit un système linéaire temps-invariant défini par sa réponse impulsionnelle h(t) ou
sa fonction de transfert H(f) = TF[h(t)] et x(t) un signal aléatoire appliqué à son entrée, la
sortie y(t) est
y(t) x(u) h(t u) du
Si on note respectivement par X(f), Y(f) et H(f) les TF de x(t), y(t) et h(t) on a:
Y(f) = X(f) H(f)
Caractérisation statistique de y(t) :
- Moyenne de y(t)
- Corrélation de y(t) et densité spectrale de puissance de y(t)
le signal aléatoire x(t)est caractérisé par sa moyenne m et sa fonction d’autocorrélation Rxx()
(stationnaire à l’ordre 2). Montrons que y(t) est stationnaire au second ordre.
my(t) Ey(t) E h(u) x(t u) du h(u) E[x(t u] du h(t) *m(t)
7
Si le signal aléatoire x(t) est stationnaire au premier ordre sa moyenne m(t) = m
my(t) h(u) m(t u) du m h(u) du m H(0) indépendante de t donc y(t)
est aussi stationnaire à l’ordre 1.
La fonction d’autocorrélation de y(t) se calcule par :
R yy(t,) Ey(t)y*(t )
R yy(t, ) h*() h(u)R xx (τuθ)du dθ
R yy(t,) h*(θ) h()R xx () θdθ
R yy(t,) h*() h( )R xx ()
Donc y(t) est stationnaire au second ordre R yy ne dépend que de
Syy(f) H*(f)H(f)S xx (f)
Syy(f) H(f) 2 Sxx (f)
Résumé :
x(t) y(t)
h(t)
y(t) = x(t) * h(t)
Y(f) = X(f) H(f)
Syy(f) = Sxx(f) |H(f)|2
La puissance de y(t) :
Py R yy(0) E y(t) 2 H(f) 2 Sxx (f) df
8
6.2 Filtrage adapté :
Problème: Soit un signal connu x(t) de durée T finie. Supposons x(t) mélangé à du bruit
additif b(t). Le bruit b(t) est supposé indépendant de x(t), et stationnaire au 2 ordre.
On appelle y(t) = x(t) + b(t).
Le problème que l’on rencontre est le suivant: déterminer, à l’aide d’un filtre linéaire à quel
moment apparaît x(t). C’est ce problème que l’on appelle la détection de présence d’un signal
dans un bruit (exemple en radar: présence ou absence de la cible).Le critère que l’on choisit
pour le filtre est le critère de rapport signal sur bruit maximal.
Un système linéaire optimisant la détection d’un signal x(t) de forme connue en présence de
bruit additif indépendant. Il maximise le rapport signal sur bruit à l’instant de la décision.
Objectif : L’optimisation du modèle du filtre afin de minimiser les effets du bruit sur la sortie
du filtre et de permettre la détection de x(t).
Soit yh(t) = xh(t) + bh(t) la sortie du filtre de réponse impulsionnelle h(t). Pour obtenir la
détection de la présence du signal x(t) à l’instant t = T, le rapport signal sur bruit doit être
maximisé:
S/B = | xh(T)| 2/ E [b2h(t)]
On cherche la réponse impulsionnelle h(t) du filtre linéaire qui maximise S/B à t =T (instant
de détection).
On a : Xh(f) (f) = H(f) X(f)
x (t) X (f) e j2ft df H(f ) X(f) e j2ft df
h h
D’où :
2 j2fT
x (T) H(f ) X(f) e df 2
h
La densité spectrale de puissance du bruit de sortie du filtre :
Sbhbh(f) = Sbb(f) │H(f)│2
La puissance moyenne du bruit de sortie :
2
E [b ( t ) ] S (f ) df S (f ) H(f ) 2 df
h b b bb
h h
On obtient :
9
j2fT
H(f ) X(f) e df 2
S
B 2
Sbb (f ) H(f ) df
Pour un signal x(t) donné, il faut trouver la réponse impulsionnelle h(t) qui maximise S/B.
En utilisant l’inégalité de Schwarz :
2
*
U(x) V (x) dx
2
U(x) dx V(x) 2 dx
L’égalité est obtenue pour U(x) = k V(x).
De l’expression S/B on a :
U(x) V*(x) = H(f) X(f) e j2fT
Et │U(x)│2 = │H(f)│2 Sbb(f)
Soit:
U(x) = H(f) (Sbb(f)) ½ e jφ
V(x) = X*(f) e -j2fT/ [(Sbb(f)) ½ e –jφ]
S/B est maximisé pour U(x) = k V(x).
D’où :
- j2fT
X*(f) e
H(f ) k
S (f )
bb
Si b(t) est un bruit blanc de dsp N0 (Sbb(f) = N0 ), en posant K = k/ N0
H(f) = K X*(f) e -j2fT
D’où la réponse impulsionnelle du filtre adapté au signal x(t) est:
h(t) = K x*(T-t)
10
6.3 Filtrage de Wiener:
Objectif : séparer deux signaux aléatoires stationnaires au second ordre, ergodiques et centrés
: y(t) = x(t) + b(t)
On se propose de déterminer un filtre linéaire qui appliqué à y(t) minimise l’erreur
quadratique moyenne entre y(t) filtré et le signal souhaité (par exemple x(t)).
Pour estimer x(t) à l’aide d’un filtre linéaire optimal au sens de l’erreur quadratique
moyenne(EQM):
Critère:
2
x̂(t) h(u) y(t u) du e E (x̂(t) x(t))
On doit déterminer h(t) qui minimise l’EQM e.
En utilisant le principe d’orthogonalité (l’erreur d’estimation orthogonale à l’observation) on
peut écrire:
E(x̂(t) x(t)) y(t ) 0
prend toutes les valeurs de – ∞ à + ∞ pour décrire toutes les observations.
e E( h(u)y(t u)du x(t)) y(t ) 0
Ex(t)y(t ) E h(u)y(t u)y(t )du
R xy () h(u)Ryy ( u)du
R xy () h() * Ryy ()
Dans le domaine fréquentiel on a:
Sxy (f ) H(f ) Syy(f )
S (f ) S (f )
xy xx
H(f )
Syy(f ) S (f ) S (f )
xx bb
H(f) est la fonction de transfert du filtre de Wiener qui dépend de la dsp du signal x(t) (Sxx(f))
et de la dsp du bruit b(t) (Sbb(f)).
1
6.4 Déconvolution de WIENER
Ainsi que l´on vient de le voir, le filtrage de WIENER ne permet que d’estimer le signal qui a été dégradé par l’ajout d’un
bruit aléatoire. Nous allons voir qu’il est possible de combiner le filtrage de WIENER avec un procédé de déconvolution. Le
signal idéal est ici dégradé par convolution avec un filtre dont la fonction de transfert est H(f ) et par l´ajout d’un bruit b(t).
Le signal dégradé est toujours noté y(t).
Soit le signal observé :
y(t) = g(t) ∗ x(t) + b(t)
où :
x(t) est un signal d’entrée (inconnu) .
h(t) est la réponse impulsionnelle connue d’un système linéaire.
b(t) est un bruit additif inconnu et indépendant de x(t).
L´objectif est de trouver un filtre linéaire de réponse impulsionnelle h(t) de sorte que nous pouvons estimer x(t) à partir
de y(t), en minimisant l´erreur quadratique moyenne. L’opération de filtrage peut être soit réalisée dans le domaine temporel
ou dans le domaine frquentiel:
X̂(f ) = H(f )Y (f )
où X̂(f ) est la transformée de Fourier de x̂(t). Il suffit ensuite de prendre la transformée de Fourier inverse de X̂(f ) pour
obtenir x̂(t).
Comme mentionné ci-dessus, nous cherchons une estimation du signal d´origine qui minimise l´erreur quadratique moyenne,
laquelle peut s´exprimer de la façon suivante :
ǫ(f ) = E[|X(f ) − X̂(f )|2 ]
oùE désigne l’espérance mathématique.
Si nous substituons X̂(f ) par l´expression obtenue précédemment, on obtient :
ǫ(f ) = E[|X(f ) − H(f )Y (f )|2 ]
ǫ(f ) = E[|X(f ) − H(f )(G(f )X(f ) + B(f ))|2 ]
ǫ(f ) = E[|(1 − H(f )G(f ))X(f ) − H(f )B(f )|2 ]
ǫ(f ) = [1 − H(f )G(f )][1 − H(f )G(f )]∗ E[|X(f )|2 ]
+ [1 − H(f )G(f )]H ∗ (f )E[X(f )B ∗ (f )]
+ H(f )[1 − H(f )G(f )]∗ E[B(f )X ∗ (f )]
+ H(f )H ∗ (f )E[|B(f )|2 ]
oùl´exposant (∗) désigne la conjugaison complexe.
Cependant, nous supposons que le bruit est indépendant du signal, donc :
E[X(f )B ∗ (f )] = E[B(f )X ∗ (f )] = 0
Aussi, nous définissons la densité spectrale de puissance comme suit:
Sxx (f ) = E[|X(f )|2 ] est la densité spectrale de puissance moyenne du signal d’entrée
2
Sbb (f ) = E[|B(f )|2 ] est la densité spectrale de puissance moyenne du bruit.
Par conséquent, on obtient :
ǫ(f ) = [1 − H(f )G(f )][1 − H(f )G(f )]∗ Sxx (f ) + H(f )H ∗ (f )Sbb (f )
Pour connaı̂tre la valeur minimale pour les erreurs, nous cherchons à annuler la dérivée de ǫ(f ) par rapport à H(f ). On
obtient:
H ∗ (f )Sbb (f ) − G(f )[1 − H(f )G(f )]∗ Sxx (f ) = 0
d’où le filtre de Wiener:
G∗ (f )Sxx (f )
H(f ) = |G(f )|2 Sxx (f )+Sbb (f )
Le fonctionnement du filtre de Wiener devient évident lorsque l´’equation de filtre ci-dessus se réécrit :
1 |G(f )|2
H(f ) = G(f ) [ |G(f )|2 +Sbb (f )/Sxx (f ) ]
Quand le bruit est négligeable, le terme entre les crochets est égale à 1, ce qui signifie que le filtre de Wiener est simplement
lı́nverse du système, comme on pouvait s’y attendre. Toutefois, comme le bruit augmente à certaines fréquences, le rapport
signal sur bruit diminue, de sorte que le terme entre crochets diminue également. Cela signifie que le filtre de Wiener atténue
les fréquences en fonction de leur rapport signal sur bruit.
6.4 Filtrage de Kalman
On considère un signal discret Y (k) généré par un système linéaire markovien et invariant dans le temps excité par une
entrée aléatoire W (k). Un tel processus peut être décrit par une représentation d´état:
X(k + 1) = A X(k) + W (k)
Y (k) = C X(k) + V (k)
où:
W (k) : bruit du système supposé b.b.g.c de matrice de covariance R
V (k) : bruit des mesures supposé b.b.g.c de matrice de covariance Q
Les bruits W (k) et V (j) sont supposés non-corrélés:
E[W (k)V T (j)] = 0 ∀k, j
E[W (k)X T (0)] = E[V (k)X T (0)] = 0 ∀k
où X(0) est état initial du système.
Le problème résolu par le filtre de Kalman est l´estimation optimale des états X(k) d´un système dynamique soumis à des
entrées déterministes et aléatoires à partir de mesures bruitées Y (1), Y (2),,Y (k − 1). L´estimation est optimale au sens de la
minimisation de l´erreur quadratique moyenne. Les estimations sont linéaires vis-à-vis des mesures.
Notations:
X̂(k/n): Estimation de l´état X(k) sachant les mesures Y (n), Y (n − 1),,Y (1) effectuées.
Si k > n : Prédiction ou estimation a priori, on ignore Y (k),
3
Si k = n: estimation ou estimation a posteriori, on possède toutes les observations jusqu´à l´instant k.
X̃(k/n): Erreur d´estimation de l´état X(k) sachant les mesures Y (n), Y (n − 1),,Y (1) effectuées.
Si k > n : erreur de prédiction ou estimation a priori,
Si k = n: erreur d´estimation ou d´estimation a posteriori,
T
P (k/n) = E[X̃(k/n)X̃ (k/n)
Si k > n : matrice de variance de l´erreur de prédiction ou estimation a priori,
Si k = n : matrice de variance de l´erreur d´estimation ou d´estimation a posteriori
Principe du filtre de Kalman:
Première étape: Après la k-ième mesure, on suppose que l´on dispose d´une estimation optimale X̂(k/k) de l´état du système.
Cette estimation est traitée par le modèle du système qui fournit une prédiction de l´état X̂(k + 1/k) et de la mesure :
Ŷ (k + 1/k) = C X̂(k/k)
Ces prédictions sont entachées d´erreurs.
Seconde étape : à l´instant k +1 on procède à la mesure de Y (k +1), on compare cette mesure avec la prédiction Ŷ (k +1/k),
l´écart (l´innovation) est traité puis réinjecté dans le modèle pour corriger au mieux l´erreur de prédiction. On dispose d´une
nouvelle estimation optimale X̂(k + 1/k + 1) qui servira à estimer l´état suivant. Le filtre de Kalman est récursif.
La mise en œuvre du filtre de Kalman se résume aux cinq étapes suivantes:
1. Prédiction:
L´estimateur de X(k + 1) qui minimise la variance de l´erreur de prédiction est:
X̂(k + 1/k) = A X̂(k/k)
2. Variance de l´erreur de prédiction:
T
P (k + 1/k) = E[X̃(k + 1/k)X̃ (k + 1/k)] = A P (k/k) AT + Q
3. Calcul du gain de Kalman:
K(k + 1) = P (k + 1/k) C T [C P (k + 1/k) C T + R]−1
4. Estimation:
Cette prédiction peut être corrigée en tenant compte de la nouvelle mesure Y (k + 1), à l´aide d´une correction linéaire
X̂(k + 1/k + 1) = X̂(k + 1/k) + K(k + 1) [ Y (k + 1) - C X̂(k/k)]
5. Variance de l´erreur d´estimation:
T
P (k + 1/k + 1) = E[X̃(k + 1/k + 1)X̃ (k + 1/k + 1)] = P (k + 1/k) - K(k + 1) C P (k + 1/k)
Pour initialiser l´algorithme on a besoin de l´état initial X(0/0) et de la matrice P (0/0).
1
Traitement du signal numérique
I. T RANSFORM ÉE EN Z
Signal discret:
Fig. 1: Signal discrétisé
La transformée en Z est utilisée en traitement du signal, qui est l’équivalent de la transformée de Laplace. Elle est utilisée
entre autres pour le calcul de filtres numériques à réponse impulsionnelle infinie.
La transformée de Fourier discrète est un cas particulier de la transformée en Z.
Sa définition mathématique est la suivante :
∑+∞
X(z) = Z{x(n)} = n=−∞ x(n)z −n
La variable n représente en général le temps discrétisé, la variable complexe z ne représente rien de particulier, il s’agit d’une
création purement abstraite. Lorsqu’on travaille sur x(n) on dit que l’on est dans le domaine temporel, lorsqu’on travaille sur
X(z) le domaine est appelé fréquentiel par analogie avec la transformée de Fourier.
Si ∀n < 0, x(n) = 0, on parle de signal causal. Inversement, si ∀n > 0, x(n) = 0, on parle de signal anti-causal.
II. E XISTENCE DE LA TRANSFORM ÉE EN Z
Région de convergence de la transformée en z de la suite (x(n))n∈Z est l’ensemble :
{ ∑∞ }
z ∈ C| n=−∞ x(n)z −n existe
On l’appelle également couronne de convergence.
En effet, en∑posant z = ρeiθ , il ∑
vient :
∞ −n ∞
|X(z)| = n=−∞ x(n)z 6 n=−∞ |x(n)| ρ−n ∑∞
La transformée en Z existe dans la région de convergence de la série n=−∞ x(n)z −n .
∑∞
Rappel : critère de Cauchy pour la convergence d’une série n=0 q(n) , Il faut que
lim |q(n)|1/n < 1
n→∞
∑−1 ∑+∞
X(z) = Z{x(n)} = n=−∞ x(n)z −n + n=0 x(n)z −n
On obtient :
lim |x(n)|1/n = Rx− < |z|
n→∞
et
[ lim |x(−m)|1/m ]−1 = Rx+ > |z|
m→∞
le domaine de convergence est compris dans une couronne : Rx− < |z| < Rx+
2
Fig. 2: Région de convergence de X(z)
Le domaine de convergence ne doit contenir aucun pôle , il est borné par les pôles dont le module est extrémum.
Cas particuliers:
- suite à gauche : x(n) = 0 pour n > 0(anticausale)
La région de convergence est à l’intérieur du cercle de rayon Rx+ .
- Suite à droite : x(n) = 0 pour n < 0 (suite causale).
La région de convergence est à l’exterieur du cercle de rayon Rx− .
III. Propriétés de la transformée en Z
A. Linéarité
La transformée en Z d’une combinaison linéaire de deux signaux est la combinaison linéaire des transformées en Z de
chaque signal.
Z{a1 x1 (n) + a2 x2 (n)} = a1 Z{x1 (n)} + a2 Z{x2 (n)}
B. Décalage temporel: suite retardée
Signal décalé:
3
Le décalage temporel d’un signal de n0 échantillons se traduit par la multiplication de la transformée en Z du signal par z −n0 .
Z{x(n − n0 )} = z −n0 X(z)
C. Translation temporelle: suite avancée
Signal translaté:
∑m−1
Z{x(n + m)} = z m (X(z) − k=0 x(k)z −k )
D. Convolution
La transformée en Z d’un produit de convolution est le produit des transformées en Z:
Z{x(n) ∗ y(n)} = Z{x(n)}Z{y(n)}
E. Multiplication par une suite exponentielle
( )
Z{an x(n)} = X az
F. Multiplication par la variable d’évolution
De façon générale :
( d k
)
Z{nk x(n)} = −z dz Z{x(n)}
( où d )k
−z dz Z{x(n)} signifie que l’on applique k fois à Z{x(n)} l’opérateur −z dz
d
Si k = 1, on obtient la formule de dérivation :
Z{nx(n)} = −z dz
d
X(z)
4
G. Théorème de la valeur initiale
Soit x(n) un signal causal et X(z) sa transformée en Z. Alors :
x(0) = lim x(n) = lim X(z)
n→0 z→+∞
H. Théorème de la valeur finale
Soit x(n) un signal causal etX(z) sa transformée en Z. Alors lorsque la limite existe, on peut écrire :
lim x(n) = lim (z − 1)X(z)
n→+∞ z→1
I. Transformées en Z usuelles
δ(n) représente l’impulsion de Dirac et u(n) la fonction de Heaviside appelée aussi échelon unitaire.
Signal x(n) Transformée en Z X(z) Domaine de convergence
δ(n) 1 C
u(n) 1
1−z −1
|z| > 1
an u(n) 1
1−az −1
|z| > |a|
az −1
nan u(n) (1−az −1 )2
|z| > |a|
−an u(−n − 1) 1
1−az −1
|z| < |a|
−1
−nan u(−n − 1) az
(1−az −1 )2
|z| < |a|
1−z −1 cos(ω0 )
cos(ω0 n)u(n) 1−2z −1 cos(ω0 )+z −2
|z| > 1
z −1 sin(ω0 )
sin(ω0 n)u(n) 1−2z −1 cos(ω0 )+z −2
|z| > 1
1−az −1 cos(ω0 )
an cos(ω0 n)u(n) 1−2az −1 cos(ω0 )+a2 z −2
|z| > |a|
az −1 sin(ω0 )
an sin(ω0 n)u(n) 1−2az −1 cos(ω0 )+a2 z −2
|z| > |a|
IV. T RANSFORM ÉE EN Z INVERSE
Il y a plusieurs façons de déterminer la suite x(n) lorsqu’on connait sa transformée X(z).
A. Méthodes des séries de puissances
Le terme x(n) est le coefficient de z −n dans le développement en série de X(z). Si on peut calculer ce développement
alors on trouve ses coefficients et donc les x(n).
B. Méthodes des des fractions partielles
Si X(z) est développée en fractions partielles :
X(z) = X1 (z) + X2 (z) + · · · + Xp (z)
alors
Z −1 (X(z)) = Z −1 (X1 (z)) + Z −1 (X2 (z)) + · · · + Z −1 (Xp (z))
et chacun des termes de la somme peut être (possiblement) calculé à partir de résultats connus. En fait, il est habituellement
préférable de développer X(z)
z plutôt que X(z) car plusieurs transformées connues comportent un facteur z au numérateur.
5
C. Méthodes des résidus
La transformée en Z inverse est donnée par :
H
x(n) = Z −1 {X(z)} = 1
2πi C
X(z)z n−1 dz
où C est un cercle de rayon > R (domaine de convergence |z| > R) parcouru dans le sens trigonométrique et appartenant
entièrement au domaine de convergence.
En pratique, ce calcul s’effectue souvent à l’aide du théorème des résidus et la formule devient dans le cas d’un signal causal:
∑
x(n) = zi =pôles de z n−1 X(z) Res{z n−1 X(z)}z=zi
On calcule les résidus traditionnellement de deux manières :
- soit à partir du développement de Laurent au voisinage de z0 ,
- soit en utilisant la formule générale suivante, si X(z) possède en z0 un pôle d’ordre k :
∂ k−1
Resz0 X(z) = 1
lim ∂z
(k−1)! z→z k−1 (z − z0 )k X(z)
0
V. F ILTRAGE NUM ÉRIQUE
A. Définition
Un filtre numérique peut être défini par une équation aux différences, c’est-à-dire l’opération mathématique du filtre dans
le domaine temporel (discret).
La forme générale du filtre d’ordre M est la suivante :
∑N ∑M
y(n) = k=0 bk x(n − k) − k=1 ak y(n − k)
y(n) = b0 x(n) + b1 x(n − 1) + b2 x(n − 2) + .... + bN x(n − N ) − a1 y(n − 1) − a2 y(n − 2) + .... + aM y(n − M )
Une fonction de transfert, dans le domaine fréquentiel (Transformée en z), permet également de définir un filtre numérique.
Ainsi, la fonction∑de transfert générale d’ordre N d’un filtre numérique est la suivante :
N −k
Y (z) k=0 bk z
H(z) = X(z) = ∑M a z −k
k=0 k
b0 +b1 z +b2 z −2 +....+bN z −N
−1
H(z) = 1+a1 z −1 +a2 z −2 +....+aM z −M
La valeur des coefficients a et b fixera le type de filtre, passe-bas, passe-haut, etc.
B. Réponse fréquentielle
X(eiω ) = X(z) .
z=eiω
C. FIR - Filtre à réponse impulsionnelle finie
Il y a deux grandes familles de filtres numériques : la première, les filtres: filtre à réponse impulsionnelle finie (FIR), Finite
Impulse Response.
Un filtre FIR est non récursif, cést-à-dire que la sortie dépend uniquement de léntrée du signal, il n’y a pas de contre-réaction.
Ainsi, les coefficients a de la forme générale des filtres numériques sont tous égaux à zéro.
Une propriété importante des filtres FIR est que les coefficients du filtre b sont égaux à la valeur de la réponse impulsionnelle
h du filtre. D’autre part, la forme temporelle du filtre est tout simplement la Produit de convolution du signal déntrée x avec
les coefficients (ou réponse impulsionnelle) b ou h.
De façon générale le filtre à réponse impulsionnelle finie est décrit par l’équation aux différences suivante où x représente
les valeurs du signal déntrée et y les valeurs du signal de sortie.
y(n) = b0 x(n) + b1 x(n − 1) + b2 x(n − 2) + .... + bN x(n − N )
Equation peut être réécrite de la façon suivante :
6
∑N
y(n) = k=0 bk x(n − k)
Puisque la réponse est une somme d’un nombre fini de valeurs, le filtre RIF est naturellement stable d’après le critère de
Stabilité EBSB (Entrée Bornée/Sortie Bornée).
Démonstration de la condition suffisante
étant donné un système linéaire et invariant (SLI) avec une réponse impulsionnelle h(n) la relation entre léntrée x(n) et la
sortie y(n) est
y(n) = h(n) ∗ x(n)
Alors en raison de la définition de la convolution, il vient :
∑∞
y(n) = k=−∞ h(k)x(n − k)
En notant ∥x∥∞ la valeur maximale de x(n), i.e. sa norme infinie.
∑∞ ∑∞
|y(n)| = k=−∞ h(n − k)x(k) ≤ k=−∞ |h(n − k)| |x(k)| (par l’inégalité de Shwartz)
∑∞ ∑∞ ∑∞
≤ k=−∞ |h(n − k)| ∥x∥∞ = ∥x∥∞ k=−∞ |h(n − k)| = ∥x∥∞ k=−∞ |h(k)|
Si h(n) est stable EBSB, alors
∑∞
k=−∞ |h(k)| = ∥h∥1 < ∞
et
∑∞
∥x∥∞ k=−∞ |h(k)| = ∥x∥∞ ∥h∥1
Donc si ∥x∥∞ < ∞ (i.e. il est borné) alors |y(n)| est également borné parce que ∥x∥∞ ∥h∥1 < ∞.
Un exemple de filtre FIR simple est une moyenne. Effectivement, effectuer la moyenne sur une série de données est équivalent
à appliquer un filtre FIR à coefficient constant 1/N .
D. IIR - Filtre à réponse impulsionnelle infinie
En opposition, les filtres de la seconde famille, les filtres à réponse impulsionnelle infinie (IIR), (Infinite Impulse Response),
possèdent une réponse impulsionnelle qui ne se stabilisera jamais, et ce, même à l’infini. Ce type de filtre est récursif, cést-à-dire
que la sortie du filtre dépend à la fois du signal déntrée et du signal de sortie, il possède ainsi une boucle de contre-réaction
(feedback). Les filtres IIR sont principalement la version numérique des filtres analogiques traditionnels : filtre de Butterworth,
filtre de Tchebychev, filtre de Bessel, filtre elliptique....
De façon générale le filtre à réponse impulsionnelle infinie est décrit par l’équation aux différences suivante où x représente
les valeurs du signal déntrée et y les valeurs du signal de sortie.
y(n) = b0 x(n) + b1 x(n − 1) + b2 x(n − 2) + .... + bN x(n − N ) − a1 y(n − 1) − a2 y(n − 2) − .... − aM y(n − M )
Equation peut être réécrite de la façon suivante :
∑N ∑M
y(n) = k=0 bk x(n − k) − k=1 ak y(n − k)
Les filtres RII ne sont pas forcément stables, la stabilité dépend de la position des pôles dans le plan complexe.
7