0% ont trouvé ce document utile (0 vote)
18 vues35 pages

Traitement Des Signaux

Transféré par

Katumbi Moïse
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
18 vues35 pages

Traitement Des Signaux

Transféré par

Katumbi Moïse
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

1

CHAPITRE 1
BASE MATHEMETIQUE

1. SYSTEME DE TELECOMMUNICATION
Pour transporter un message provenant d’une source, vers un emplacement
éloigné, on peut recourir à un système électronique de télécommunication dont le
schéma bloc est le suivant.

La source utilisera des capteurs pour produire un signal électrique représentant


une image, un son, une température, etc.
L’émetteur effectuera une modulation appropriée en vue du transport du
message.
Le canal de transmission peut être l’air, le vide, un câble métallique, etc.
Le récepteur a pour tâche d’amplifier le signal reçu puis effectuer dessus une
démodulation appropriée pour reproduire la copie du message initial.
Le bruit qui entre dans le canal provient de signaux électriques parasites de
l’environnement.

Dans cet ouvrage, nous supposons que le lecteur a suivi déjà un cours de
Télécommunication où ont été traités les différents types de modulations et
démodulations en l’absence de tout bruit. Donc notre tâche ici est de décrire
mathématiquement le bruit, puis d’étudier son effet dans les différents types de
démodulateurs.

En Télécommunications nous aurons à traiter trois types de signaux :


1. Des signaux périodiques
2. Des signaux non périodiques mais à énergie finie
3. Des signaux aléatoires
2

Le présent Chapitre donne l’analyse mathématique qui s’applique à chacun de ces


3 types de signaux. Nous supposons que le lecteur a suivi déjà un premier cours de
Télécommunications où il a été introduit aux Séries de Fourier et aux Transformées
de Fourier, donc les deux Sections qui suivent sont des rappels sur ces sujets.

2. SERIES DE FOURIER
Nous utiliserons les Séries de Fourier pour décrire mathématiquement les
signaux périodiques.
Si v(t) est un signal périodique de période T, il peut s’écrire comme une série de
Fourier, où,
+∞
2𝜋
𝑣 (𝑡 ) = ∑ 𝑉𝑛 𝑒 𝑗𝑛𝜔0𝑡 , 𝜔0 =
𝑇
𝑛=−∞

Où Vn est un nombre complexe et est appelé coefficient de Fourier et,

1 +𝑇/2
𝑉𝑛 = ∫ 𝑣(𝑡)𝑒 −𝑗𝑛𝜔0𝑡 𝑑𝑡
𝑇 −𝑇/2

Une relation fondamentale entre la puissance moyenne d’un signal périodique et ces
coefficients de Fourier est,


1 +𝑇/2
𝑃𝑚𝑜𝑦 = ∫ 𝑣(𝑡)2 𝑑𝑡 = 𝑉02 + ∑ 2|𝑉𝑛 |2
𝑇 −𝑇/2
𝑛=1

Lorsqu’un signal périodique v(t) entre dans un circuit linéaire dont la fonction de
transfert est H(jω), le signal de sortie 𝑣̅ (𝑡) aura comme coefficients de Fourier

𝑉̅𝑛 = 𝐻(𝑗𝑛𝜔0 )𝑉𝑛

Exemple 1.
3

Etablir l’expression de la puissance moyenne ci-dessous, appelée Théorème de


Parseval.

𝑃𝑚𝑜𝑦 = 𝑉02 + ∑ 2|𝑉𝑛 |2


𝑛=1

Solution
Notons que si v(t) est réel, il est égal à son conjugué complexe, et on peut alors
écrire

1 1
𝑃𝑚𝑜𝑦 = ∫ 𝑣(𝑡)2 𝑑𝑡 = ∫ 𝑣(𝑡)𝑣(𝑡)∗ 𝑑𝑡
𝑇 𝑇 𝑇 𝑇

En remplaçant v* par son expression en séries de Fourier, on a,

+∞
1
𝑃𝑚𝑜𝑦 = ∫ 𝑣(𝑡) [∑ 𝑉𝑛 ∗ 𝑒 −𝑗𝑛𝜔0𝑡 ] 𝑑𝑡
𝑇 𝑇
−∞

En introduisant l’intégration sur t à l’intérieur de la sommation, on obtient,

+∞
1
𝑃𝑚𝑜𝑦 = ∑ 𝑉𝑛 ∗ [ ∫ 𝑣(𝑡)𝑒 −𝑗𝑛𝜔0𝑡 𝑑𝑡 ]
𝑇 𝑇
−∞

On reconnait le terme entre crochets comme étant Vn, d’où,

+∞ +∞ +∞

𝑃𝑚𝑜𝑦 = ∑ 𝑉𝑛 𝑉𝑛 = ∑]𝑉𝑛 ]2 = 𝑉02 + 2 ∑]𝑉𝑛 ]2
−∞ −∞ 𝑛=1

Exemple 2
Obtenir les coefficients de Fourier pour le train d’impulsions rectangulaires
périodiques ci-dessous.
4

Solution
Les coefficients de Fourier sont ici,

1 +𝜏/2 𝐴𝜏
𝑉0 = ∫ 𝐴𝑑𝑡 =
𝑇 −𝜏/2 𝑇

et,
1 +𝜏/2 −𝑗𝑛𝜔 𝑡 𝐴 1
𝑉𝑛 = ∫ 𝐴𝑒 0 𝑑𝑡 = × [𝑒 −𝑗𝑛𝜔0𝜏/2 − 𝑒 +𝑗𝑛𝜔0 𝜏/2 ]
𝑇 −𝜏/2 𝑇 −𝑗𝑛𝜔0
𝐴 × 2 𝑒 +𝑗𝑛𝜔0 𝜏/2 − 𝑒 −𝑗𝑛𝜔0𝜏/2
= [ ]
𝑛𝜔0 𝑇 2𝑗
2𝐴
= sin(𝑛𝜔0 𝜏/2)
𝑛𝜔0 𝑇

Puisque 𝜔0 𝑇 = 2𝜋, on peut enfin écrire,


𝐴
𝑉𝑛 = sin(𝑛𝜔0 𝜏/2)
𝑛𝜋

Exemple 3.
Obtenir les coefficients de Fourier du signal périodique ci-dessous que l’on
retrouve dans les redresseurs de tension électrique.

Solution
1 𝜋 1 2
𝑉0 = ∫ sin 𝑡 𝑑𝑡 = (− cos 𝑡 )𝜋0 =
𝜋 0 𝜋 𝜋
5

Pour tout n,
1 𝜋 −𝑗2𝑛𝑡
1 𝜋 𝑒 𝑗𝑡 − 𝑒 −𝑗𝑡 −𝑗2𝑛𝑡
𝑉𝑛 = ∫ sin 𝑡 𝑒 𝑑𝑡 = ∫ [ ]𝑒 𝑑𝑡
𝜋 0 𝜋 0 2𝑗
1 𝜋 −𝑗(2𝑛−1)𝑡
∫ [𝑒 − 𝑒 −𝑗(2𝑛+1)𝑡 ]𝑑𝑡
2𝑗𝜋 0
D’où
1 1 1
𝑉𝑛 = [ (𝑒 −𝑗(2𝑛−1)𝜋 − 1) − (𝑒 −𝑗(2𝑛+1)𝜋 − 1)]
2𝑗𝑛 −𝑗(2𝑛 − 1) −𝑗(2𝑛 + 1)

A cause des termes 2π et π,

𝑒 ±𝑗2𝜋𝑛 = 1 𝑒𝑡 𝑒 ±𝑗𝜋 = −1
Alors,

1 −1 − 1 −1 − 1 1 1 1
𝑉𝑛 = [ − ]= ( − )
2𝑗𝑛 −𝑗(2𝑛 − 1) −𝑗(2𝑛 + 1) −𝜋 2𝑛 − 1 2𝑛 + 1

Ce qui donne,
−𝟐
𝑽𝒏 =
𝝅(𝟒𝒏𝟐 − 𝟏)

3. INTEGRALES DE FOURIER

Si v(t) est non périodique mais avec une énergie finie, alors sa transformée de
Fourier, est donnée par,

+∞
𝑉 (𝑗𝜔) = ∫ 𝑣(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡
−∞
6

et,
1 +∞
𝑣 (𝑡 ) = ∫ 𝑉(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔
2𝜋 −∞
et l’énergie totale v(t) est,

+∞
2(
1 −∞ −∞
𝐸=∫ 𝑣 𝑡 )𝑑𝑡 = ∫ 𝑉(𝑗𝜔) 𝑑𝜔 = ∫ |𝑉(𝑓)|2 𝑑𝑓
| |2
−∞ 2𝜋 −∞ −∞

D’où on déduit la densité de l’énergie en fonction de ω ou en fonction de f, comme,

|𝑉(𝑗𝜔)|2
𝑆 (𝜔 ) = 𝑜𝑢 𝑆(𝑓) = |𝑉(𝑓)|2
2𝜋

Lorsque v(t) pénètre une fonction de transfert H(jω) on a à la sortie 𝑣̅ (𝑡) où,

𝑉̅ (𝑗𝜔) = 𝐻 (𝑗𝜔)𝑉 (𝑗𝜔) 𝑒𝑡 𝑆̅(𝑓) = |𝐻(𝑓)|2 |𝑉(𝑓)|2

Exemple 4.
Considérer le signal v(t), où

𝐴𝑒 −𝑡/ 𝑝𝑜𝑢𝑟 𝑡 ≥ 0
𝑣 (𝑡 ) = {
0 𝑝𝑜𝑢𝑟 𝑡 < 0
1. Obtenir V(jω)
2. Si v(t) pénètre le filtre passe-bas ci-dessous de fréquence de coupure ωc, obtenir
l’énergie totale à la sortie du filtre.

Solution
Par la définition de la transformée de Fourier,
7

∞ ∞ 1
𝑉 (𝑗𝜔) = ∫ 𝑣(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = 𝐴 ∫ 𝑒 −(𝜏 +𝑗𝜔)𝑡 𝑑𝑡
0 0

D’où,
(0 − 1)𝐴 𝜏𝐴
𝑉 (𝑗𝜔) = =
1
− ( + 𝑗𝜔) 1 + 𝑗𝜔𝜏
𝜏

L’énergie sortant du filtre est,

1 +𝜔𝑐 2 2
2 +𝜔𝑐 2 (𝜏𝐴)2
𝐸= ∫ |𝐻 (𝑗𝜔)| |𝑉 (𝑗𝜔)| 𝑑𝜔 = ∫ ℎ0 𝑑𝜔
2𝜋 −𝜔𝑐 2𝜋 0+ 1 + (𝜔𝜏)2

Ceci peut s’écrire


𝐴2 ℎ0 2 𝜏 𝜔𝑐 𝑑 (𝜔𝜏)
𝐸= ∫
𝜋 0 1 + (𝜔𝜏)2
Posons x = 𝜔𝜏. Alors,
𝐴2 ℎ0 2 𝜏 𝜔𝑐𝜏 𝑑𝑥
𝐸= ∫
𝜋 0 1 + 𝑥2
Finalement,
𝐴2 ℎ0 2 𝜏
𝐸= tan−1 (𝜔𝑐 𝜏)
𝜋

Exemple 5.
Etablir la relation suivante

∫ 𝑠1 (𝑡 )𝑠2 (𝑡 )𝑑𝑡 = ∫ 𝑆1 (𝑓)𝑆2∗ (𝑡 )𝑑𝑓 = ∫ 𝑆1∗ (𝑡 )𝑆2 (𝑓)𝑑𝑓

Où 𝑆 ∗ est le conjugué complexe de S.

Solution
8

Par les propriétés des transformées de Fourier, on peut écrire,

1
∫ 𝑠1 (𝑡 )𝑠2 (𝑡 )𝑑𝑡 = ∫ 𝑠1 (𝑡 ) [ ∫ 𝑆 (𝑗𝜔)𝑒 +𝑗𝜔𝑡 𝑑𝜔] 𝑑𝑡
2𝜋 𝜔 2
1
= ∫ 𝑆 (𝑗𝜔) [∫ 𝑠1 (𝑡 )𝑒 +𝑗𝜔𝑡 𝑑𝑡] 𝑑𝜔
2𝜋 𝜔 2 𝑡
1
= ∫ 𝑆 (𝑗𝜔)[𝑆1 (−𝑗𝜔)]𝑑𝜔
2𝜋 𝜔 2
Puisque ω = 2πf, on a

∫ 𝑠1 (𝑡 )𝑠2 (𝑡)𝑑𝑡 = ∫ 𝑆2 (𝑓)[𝑆1∗ (𝑓)]𝑑𝑓


𝑡 𝑓

Et si on permute s1 et s2 on obtient la seconde partie de la relation

4. DISTRIBUTION DE LA PROBABILITE

Si X est une variable aléatoire qui prend des valeurs réelles x, on définit sa
distribution de probabilité comme,

𝐹 (𝑥) = Pr (𝑋 ≤ 𝑥)

Dans le cas où F(x) est différentiable, sa densité de probabilité est définie par

𝑑𝐹
𝑓 (𝑥 ) =
𝑑𝑥

Une densité de probabilité très courante est la densité gaussienne exprimée par

−(𝑥−𝑚)2
𝑒 2𝜎2
𝑓 (𝑥 ) =
𝜎√2𝜋
9


𝑚 = 𝐸 [𝑋 ] 𝑒𝑡 𝜎 2 = 𝑉 (𝑋 ) = 𝐸 (𝑋 − 𝑚)2

Les équations de transformation sur les variables aléatoires sont les suivantes :
Soit
𝑌𝑖 = 𝑔𝑖 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) 𝑖 = 1,2, … , 𝑛

et soit la matrice Δ ci-dessous,

𝜕𝑔1 𝜕𝑔1 𝜕𝑔1



𝜕𝑋1 𝜕𝑋2 𝜕𝑋𝑛
∆= …
𝜕𝑔𝑛 𝜕𝑔𝑛 𝜕𝑔𝑛

[𝜕𝑋1 𝜕𝑋2 𝜕𝑋𝑛 ]

Si le déterminant de Δ est non nul, alors la densité jointe de la probabilité de Y en


fonction de celle de X est,
1
𝑓𝑌 (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) = 𝑓 (𝑥 , 𝑥 , … , 𝑥𝑛 )
]∆] 𝑋 1 2

où les xi de la relation ci-dessus sont fonctions de yi et sont obtenus à partir des


relations entre X et Y données qui donneront,

𝑥𝑖 = ℎ(𝑦1 , 𝑦2 , … , 𝑦𝑛 )

Exemple 6.
Considérer une variable gaussienne X lié à une autre variable Y par la relation,

𝑌 = 𝑎𝑋 + 𝑏

Où a et b sont des constantes. Obtenir la densité de probabilité de Y.


10

Solution
Ici nous identifions,
𝑔(𝑋 ) = 𝑎𝑋 + 𝑏
D’où
𝜕𝑔
∆= =𝑎 ⇒ |∆| = |𝑎| ≠ 0
𝜕𝑋
D’autre part,
𝑌−𝑏
𝑋=
𝑎
Alors,
1 𝑦−𝑏
𝑓𝑌 (𝑦) = 𝑓𝑋 ( )
|𝑎| 𝑎
Donc

2
𝑦−𝑏
( −𝑚)
1 1 − 𝑎
𝑓𝑌 (𝑦) = × 𝑒 2𝜎2
|𝑎| 𝜎√2𝜋

On remarquera ci-haut que Y est gaussien et

𝑚𝑌 = 𝑎𝑚 + 𝑏 𝑒𝑡 𝜎𝑌 = |𝑎|𝜎

5. SOMME DE DEUX VARIABLES ALEATOIRES

Si Z = X + Y où et et sont deux variables aléatoires, alors la densité de la


probabilité de Z donnée par

+∞ +∞
𝑓𝑍 (𝑧) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑧 − 𝑥)𝑑𝑥 = ∫ 𝑓𝑋𝑌 (𝑧 − 𝑦, 𝑦)𝑑𝑦
−∞ −∞
11

Lorsque X et Y sont indépendants,

+∞
𝑓𝑍 = 𝑓𝑋 × 𝑓𝑌 ⇒ 𝑓𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑥) × 𝑓𝑌 (𝑧 − 𝑥)𝑑𝑥
−∞

Exemple 7.
Montrer que si X et Y sont des variables gaussiennes indépendantes, leur
somme est gaussienne. Pour simplifier les calculs on supposera que les moyennes sont
nulles.

Solution
Posons,
2 /2𝜎 2 2 /2𝜎 2
𝑒 −𝑥 𝑥 𝑒 −𝑦 𝑦
𝑓 (𝑥 ) = , 𝑓 (𝑦 ) =
√2𝜋𝜎𝑥2 √2𝜋𝜎𝑦2
Alors,
∞ ( 𝑥2 (𝑧−𝑥)2
1 2+ 2𝜎𝑦2
)
𝑓 (𝑧 ) = ∫ 𝑒 2𝜎𝑥 𝑑𝑥
2𝜋𝜎𝑥 𝜎𝑦 −∞
Pour évaluer cette intégrale, posons,

1/2
1 1 𝑧
𝑢 = ( 2 + 2) 𝑥−
𝜎𝑥 𝜎𝑦 1 1 1/2
𝜎𝑦2 ( 2 + 2 )
𝜎𝑥 𝜎𝑦

On de ce qui précède x et dx comme

𝑢 𝑧 𝑑𝑢
𝑥= + , 𝑑𝑥 =
1 1 1/2 𝜎 2 ( 1 + 1 ) 1 1 1/2
( 2 + 2) 𝑦 𝜎2 𝜎𝑦2 ( 2 + 2)
𝜎𝑥 𝜎𝑦 𝑥 𝜎𝑥 𝜎𝑦
12

En introduisant ces valeurs de x et dx dans l’expression de f(z), on a (après beaucoup


de manipulations algébriques),

𝑢2
−𝑧 2 /2(𝜎𝑥2 +𝜎𝑦2 ) +∞ −
𝑒 𝑒 2
𝑓 (𝑧 ) = ×∫ 𝑑𝑢
−∞ √2𝜋
√2𝜋(𝜎𝑥2 + 𝜎𝑦2 )

Puisque l’intégrale est celle d’une densité gaussienne de variance 1 et de moyenne 0,


elle vaut 1 et on a

2 /2(𝜎 2 +𝜎 2 )
𝑒 −𝑧 𝑥 𝑦
𝑓 (𝑧 ) =
√2𝜋(𝜎𝑥2 + 𝜎𝑦2 )

Donc Z est une variable gaussienne dont la variance est 𝜎𝑥2 + 𝜎𝑦2 .

6. PROCESSUS ALEATOIRE ERGODIQUE

Un processus aléatoire X(t) continu dans le temps est un processus tel que
pour tout temps ti, X(ti) est une variable aléatoire.

X(t) est stationnaire si la densité jointe de X(t1), X(t2), … , X(tn), pour tout t1,
t2, …, tn est la même que celle de X(t1+h), X(t2+h), … , X(tn+h), cela pour n entier
positif et tout h réel positif. D’une manière générale, le processus X(t) est stationnaire
si les caractéristiques de la source qui le produit ne change pas avec le temps.

Pour que les théories des variables aléatoires soient d’une utilité pour les
ingénieurs, un lien doit exister entre une observation prolongée d’un échantillon Xe(t)
de la variable aléatoire X(t) et X(t) lui-même. D’où le concept d’ergodicité. Un
processus X(t) est ergodique si :
13

𝐸 [𝑋 𝑛 (𝑡)] =< 𝑋𝑒𝑛 (𝑡) > 𝑜ù


+∞
𝐸 [𝑋 𝑛 (𝑡)] = ∫ 𝑥 𝑛 (𝑡 )𝑓𝑋 (𝑥)𝑑𝑡
−∞
1 +𝑇/2 𝑛
< 𝑋𝑒𝑛 (𝑡 ) > = lim ∫ 𝑋𝑒 (𝑡)𝑑𝑡
𝑇→∞ 𝑇 −𝑇/2

C’est-à-dire que les moyennes statistiques de X(t) peuvent être remplacées par les
moyennes d’un de ses échantillons Xe(t) prises sur le temps. D’autre part, puisse que
par sa définition, < 𝑋𝑒𝑛 (𝑡) > est indépendant du temps, il en est de même pour
𝐸 [𝑋 𝑛 (𝑡)] pour tout n, donc X(t) doit être stationnaire. Donc tous les processus ergodiques
sont forcément stationnaires.

Dans nos travaux de Télécommunications, nous supposerons l’ergodicité pour nos


processus aléatoires.

7. AUTOCORRELATION D’UNE VARIABLE ALEATOIRE

Soit X(t) une variable aléatoire, on définit son autocorrélation comme

𝑅𝑋 (𝜏) = 𝐸 [𝑋(𝑡 )𝑋(𝑡 − 𝜏)]

Dans le cas où X(t) est ergodique, alors

1 +𝑇/2
𝑅𝑋 (𝜏) =< 𝑋𝑒 (𝑡)𝑋𝑒 (𝑡 − 𝜏) >= lim ∫ 𝑋𝑒 (𝑡)𝑋𝑒 (𝑡 − 𝜏)𝑑𝑡
𝑇→∞ 𝑇 −𝑇/2

Où Xe(t) est un échantillon quelconque de X(t).

L’intérêt de l’autocorrélation est qu’il peut être évaluer pour toute variable
aléatoire et la transformée de Fourier de cette autocorrélation correspondra à la densité
de puissance de la variable aléatoire. A cet effet, faisons un rappel des relations
suivantes sur les Transformées de Fourier.
14

+∞
1. 𝑆𝑖 𝑣̅ (𝜏) = ∫ ℎ(𝑡 )𝑣(𝑡 − 𝜏)𝑑𝑡 𝑎𝑙𝑜𝑟𝑠 𝑉̅ (𝑗𝜔) = 𝐻 (𝑗𝜔)𝑉(𝑗𝜔)
−∞
2. ℱ [𝑣(−𝑡)] = 𝑉 (−𝑗𝜔) = 𝑉 ∗ (𝑗𝜔)

où V* est le conjugué complexe de V. Par conséquent pour la transformée de Fourier


de RX(τ), on a,

+𝑇/2
1
ℱ [ 𝑅𝑋 (𝜏)] = lim ℱ [∫ 𝑋𝑒 (𝑡)𝑋𝑒 [−(𝜏 − 𝑡)]𝑑𝑡 ]
𝑇→∞ 𝑇 −𝑇/2

Lorsque T tend vers ∞ nous pouvons utiliser la Relation-1 ci-dessus pour écrire,

1
ℱ [ 𝑅𝑋 (𝜏)] = lim {ℱ [𝑋𝑒 (−𝑡 )]ℱ [𝑋𝑒 (𝑡 )]}
𝑇→∞ 𝑇

Avec la Relation-2, l’équation ci-dessus donne,

1 1
ℱ [ 𝑅𝑋 (𝜏)] = lim {[𝑋𝑒∗ (𝑗𝜔)][𝑋𝑒 (𝑗𝜔)]} = lim |𝑋𝑒 (𝑗𝜔)|2
𝑇→∞ 𝑇 𝑇→∞ 𝑇

Donc,
𝟏
𝓕[ 𝑹𝑿 (𝝉)] = 𝐥𝐢𝐦 |𝑿𝒆 (𝒋𝝎)|𝟐 = 𝑮(𝒋𝝎)
𝑻→∞ 𝑻

C’est-à-dire que la transformée de Fourier de l’autocorrélation est égale à la


densité de puissance de la variable aléatoire ergodique. En effet |𝑿𝒆 (𝒋𝝎)|𝟐 est la
densité de l’énergie de Xe, et lorsqu’elle est divisée par T, nous avons la densité de
puissance.

Le bruit blanc est un processus aléatoire dont l’autocorrélation est donnée par,
15

𝑅(𝜏) = 𝐼𝛿(𝜏)

I est une constante et 𝛿(𝜏) est la fonction Delta-Dirac. La transformée de Fourier


donne,
+∞
𝐺 (𝑗𝜔) = 𝐼 ∫ 𝛿(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = 𝐼𝑒 0 = 𝐼
−∞

Donc la densité de puissance du bruit blanc est constante à toutes les fréquences.

Exemple 8.

Considérer un signal v(t) qui prend les valeurs +V et –V avec la même


probabilité à des instants séparés par T. Le temps Td (délai) du premier changement
après t = 0 est uniformément distribué de 0 à T. Le graphique de v(t) est donné ci-
dessous.

Obtenir
1. L’autocorrélation de v(t)
2. La densité de puissance de v(t).

Solution
Par définition
𝑅(𝜏) = 𝐸 [𝑣 (𝑡 )𝑣(𝑡 − 𝜏)]
Cas-1 : |𝝉| > 𝑻
Dans ce cas, v(t) et v(t-𝜏) sont évalués à de temps dont la différence est
supérieures à T, donc ces 2 variables aléatoires sont indépendantes, d’où

𝑅(𝜏) = 𝐸 [𝑣 (𝑡 )]𝐸 [𝑣(𝑡 − 𝜏)] = 0 × 0 = 0


16

Cas-2 : |𝝉| < 𝑻


Pour étudier ce cas, remarquons que v(t) est stationnaire donc son
autocorrélation est indépendant de t. Evaluons donc R(τ) avec t = 0. On obtient

𝑅(𝜏) = 𝐸 [𝑣 (0)𝑣(−𝜏)]

Supposant v(0) = +V (les conclusions qui suivent resteront valables aussi pour v(0) = -
V). Dans ce cas, v(t) autour de 0 se présente comme suit

Pour que v(-τ) ait aussi la valeur V, -τ doit se placer entre « -(T-Td) et Td) ». on
considère séparément les intervalles à gauche de 0, puis à droite de 0 . Nous
recherchons dans chaque cas l’expression de Td:

a) -τ> −(𝑻 − 𝑻𝒅 ) 𝒆𝒕 − 𝝉 < 𝟎 , ceci implique

𝑇𝑑 < (𝑇 − 𝜏) 𝑒𝑡 𝜏 > 0

b) -τ< 𝑻𝒅 𝒆𝒕 𝝉 < 𝟎

Maintenant l’autocorrélation est évaluée en tenant compte de la distribution uniforme


de Td, comme suit,

(𝑇−𝜏)
1 𝑇−𝜏
∫ 𝑉 2 𝑑𝑡 = 𝑉 2 𝑝𝑜𝑢𝑟 𝜏 > 0
0 𝑇 𝑇
𝑅 (𝜏 ) = 𝑇
1 𝑇+𝜏
∫ 𝑉 2 𝑑𝑡 = 𝑉 2 𝑝𝑜𝑢𝑟 𝜏<0
−𝜏 𝑇 𝑇
{

On peut combiner tous les résultats sous la forme,


17

𝑇 − |𝜏|
𝑉2 𝑝𝑜𝑢𝑟 |𝜏| < 𝑇
𝑅 (𝜏 ) = { 𝑇
0 𝑝𝑜𝑢𝑟 |𝜏| > 𝑇

Ce qui donne le graphe suivant,

La densité de puissance correspondant à v(t) est telle que,

𝐺 (𝑓) = ℱ [𝑅(𝜏)] 𝑎𝑣𝑒𝑐 𝜔 = 2𝜋𝑓

Les tables Mathématiques sur les Transformée de Fourier donnent

[sin(𝑓𝑇)]2
𝐺 (𝑓 ) = 𝑉 2 𝑇
(𝑓𝑇)2

Exemple 9.
Considérer l’onde sinusoïdale à phase variable suivante

𝑥 (𝑡 ) = 𝐴 cos(𝜔𝑡 + 𝜃)
Où A et ω sont des constantes tandis que θ est une variable aléatoire uniformement
distribuée avec la densité
1
𝑓 (𝜃 ) = 𝑝𝑜𝑢𝑟 −𝜋 ≤𝜃 ≤𝜋
2𝜋

Montrer que l’autocorrélation de θ est donnée par


18

𝐴2
𝑅𝑥 (𝜏) = cos 𝜔𝜏
2
Solution
Par la définition de l’autocorrélation et les identités trigonométriques,

𝑅𝑥 (𝜏) = 𝐸 [𝐴2 cos(𝜔𝑡 ) × cos(𝜔(𝑡 − 𝜏) + 𝜃)]


𝐴2 𝐴2
= 𝐸 [cos(𝜔𝜏)] + 𝐸 [cos(2𝜔𝑡 − 𝜔𝜏 + 2𝜃)]
2 2

Seul le dernier terme ci-haut dépend de θ. Alors,

𝐴2 𝐴2 𝜋 1
𝑅𝑥 (𝜏) = cos(𝜔𝜏) + ∫ cos(2𝜔𝑡 − 𝜔𝜏 + 2𝜃) 𝑑𝜃
2 2 −𝜋 2𝜋

Le terme à intégrer est périodique en θ ce donne la valeur 0 pour l’intégrale et

𝐴2
𝑅𝑥 (𝜏) = cos(𝜔𝜏)
2

8. PROPRIETES DE L’AUTOCORRELATION

L’autocorrélation satisfait les propriétés suivantes :


1. 𝑹(𝟎) = 𝑬[𝑿𝟐 (𝒕)]. Il suffit de donner à τ la valeur 0.

2. 𝑹(𝝉) = 𝑹(−𝝉)
En effet,
𝑅(−𝜏) = 𝐸 [𝑋(𝑡 )𝑋(𝑡 + 𝜏)]

Si on pose u = t+τ , alors t = u –τ et on a,


19

𝑅(−𝜏) = 𝐸 [𝑋 (𝑢 − 𝜏)𝑋(𝑢)]

Ce qui donne R(τ) si on remplace maintenant u par t.

3. 𝑹(𝟎) ≥ |𝑹(𝝉)| . Considérons les relations suivantes

0 ≤ 𝐸 [(𝑋(𝑡) ± 𝑋(𝑡 − 𝜏))2 ] ⇒ 𝐸 [𝑋 2 (𝑡)] + 𝐸 [𝑋 2 (𝑡 − 𝜏)] ± 2𝐸 [𝑋(𝑡)𝑋(𝑡 − 𝜏)]

Le terme à droite de l’égalité est positif et puisque 𝐸 [𝑋 2 (𝑡)] = 𝐸 [𝑋 2 (𝑡 − 𝜏)] = 𝑅(0),


on a,

0 ≤ 2𝐸 [𝑋 2 (𝑡)] ± 2𝑅 (𝜏) ⇒ 0 ≤ 2𝑅(0) ± 2𝑅(𝜏)

D’où on tire,
𝑅(0) ≥ ∓𝑅(𝜏)

Alors si R(τ) est positif, prenons le signe + dans la relation si haut, et prenons le signe
– dans le cas contraire. Alors la Relation-3 est correcte

9. RELATION ENTRE R(τ), VAIANCE ET MOYENNE

En vue d’obtenir la moyenne et la variance de la variable aléatoire X(t) à partir


de son autocorrélation, considérons

[𝑋(𝑡 ) − 𝑚][𝑋(𝑡 − 𝜏) − 𝑚] = 𝑋 (𝑡 )𝑋(𝑡 − 𝜏) − 𝑚𝑋(𝑡 ) − 𝑚𝑋(𝑡 − 𝜏) + 𝑚2

Où m est la moyenne de X(t) et E[X(t)] = m = E[X(t-τ)] et l’espérance de l’expression


ci-dessus donne
20

𝐸 {[𝑋 (𝑡 ) − 𝑚][𝑋(𝑡 − 𝜏) − 𝑚]} = 𝑅𝑋 (𝜏) − 𝑚2 − 𝑚2 + 𝑚2

Alors, nous avons la relation de base suivante

𝑬{[𝑿(𝒕) − 𝒎][𝑿(𝒕 − 𝝉) − 𝒎]} = 𝑹𝑿 (𝝉) − 𝒎𝟐

Dans cette relation, lorsque τ → ∞ , X(t) et X(t-τ) seront indépendants et leur


espérance est m

[𝐸(𝑋 (𝑡 )) − 𝑚][𝐸(𝑋 (𝑡 − 𝜏)) − 𝑚] = 𝑅𝑋 (∞) − 𝑚2

D’où
0 × 0 = 𝑅𝑋 (∞) − 𝑚2
Et,

𝒎𝟐 = 𝑹𝑿 (∞)

Maintenant lorsque τ = 0, la relation de base ci-haut donne,

𝐸 {[𝑋(𝑡 ) − 𝑚][𝑋 (𝑡 ) − 𝑚]} = 𝑅𝑋 (0) − 𝑚2

Par la définition de la variance, on a,

𝝈𝟐𝑿 = 𝑹𝑿 (𝟎) − 𝒎𝟐

Exemple 10.
L’autocorrélation d’un bruit gaussien est donné par,

𝑅(𝜏) = 3𝑒 −2|𝜏|
21

Déterminer la densité de la probabilité du bruit.

Solution
La moyenne et la variance sont obtenues comme suit

𝑚2 = 𝑅(∞) = 3𝑒 −2|∞| = 3 × 0 = 0 ⇒ 𝑚=0


𝜎 2 = 𝑅(0) − 𝑚2 = 3𝑒 −2|0| − 0 = 3 ⇒ 𝜎2 = 3

Alors, pour la densité de la probabilité est,

1 −𝑥 2 1 −𝑥 2
𝑓 (𝑥 ) = exp ( ) = exp ( )
√2𝜋𝜎 2 2𝜎 2 √6𝜋 6

10. RELATION ENTRE 𝝈𝟐 , 𝒎𝟐 et PUISSANCE TOTALE


Nous allons établir ici la relation utile suivante, dans le cas des processus
ergodiques.


𝐺(𝑗𝜔)
𝜎 2 + 𝑚2 = ∫ 𝑑𝜔 = 𝑁
−∞ 2𝜋

Où N est la puissance totale du processus


En effet nous savons que pour un processus ergodique, la Transformée de
Fourier de l’autocorrélation R(τ) est égale à la densité de puissance G(jω). Donc la
formule la Transformée Inverse de Fourier donne,


𝐺(𝑗𝜔) 𝑗𝜔𝜏
𝑅 (𝜏 ) = ∫ 𝑒 𝑑𝜔
−∞ 2𝜋

D’où à τ = 0,
22


𝐺(𝑗𝜔)
𝑅 (0) = ∫ 𝑑𝜔 = 𝑁
−∞ 2𝜋
Ce résultat avec ceux établis dans la Section-9 ci-haut, donnent

𝝈𝟐 + 𝒎𝟐 = 𝑹(𝟎) = 𝑵

PROBLEMES

1.
Obtenir le développement en Séries de Fourier du train d’impulsion v(t) ci-dessous, où
l’amplitude de l’impulsion est A, la durée est τ, et la période est T.

2.
Un récepteur de Télécommunication se présente comme suit

Où sr est le signal reçu, sd est un signal de démodulation, avec

𝑠𝑟 = 𝑚(𝑡 ) cos(𝜔𝑐 𝑡 ) , 𝑠𝑑 = cos(𝜔𝑐 𝑡 + 𝜃)

La plus haute fréquence du message m(t) est ωo et elle est bien inférieure à ωc. Le
Filtre Passe Bas a une fréquence de coupure inférieure à ωc
23

Donner l’expression du signal de sortie so.

3.
Pour une variable aléatoire X, on définit sa Fonction Génératrice de Moment,
comme,
𝑀𝑋 (𝑡) = 𝐸 [𝑒 𝑋𝑡 ]

1. Etablir la relation entre 𝐸 [𝑋 𝑛 ] et les dérivées de MX(t).

2. Montrer que si les variables X et Y sont indépendantes, alors,

𝑀𝑋+𝑌 (𝑡) = 𝑀𝑋 (𝑡)𝑀𝑌 (𝑡)

3. Si X est gaussienne de moyenne m et d’écart type σ, alors

2 𝑡 2 /2
𝑀𝑋 (𝑡) = 𝑒 𝑚𝑡−𝜎

4.
Utiliser les résultats du Problème précédent pour démontrer le Théorème de la
limite Centrale qui s’énonce de la façon suivante :

Soit X1, X2, … , Xn des variables aléatoires indépendantes de même moyenne


m et de même variance σ2. D’autre part définissons la variable 𝑆𝑛̅ comme suit,

𝑆𝑛 − 𝑛 × 𝑚
𝑆𝑛̅ = 𝑜ù 𝑆𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝜎 √𝑛

Alors ̅
𝑺𝒏 a une distribution gaussienne lorsque n tend vers ∞. Pour la
preuve, il suffira de montrer que
2 /2
lim 𝑀𝑆𝑛̅ = 𝑒 𝑡
𝑛→∞

Car la fonction génératrice de moment définit de façon unique la distribution.


24

5.
La transformation ci-dessous permet de passer de (X1, X2) à ((Y1, Y2).

𝑌 1 1 𝑋1 1 −(𝑥2 +𝑥2)
[ 1] = [ ] [ ] 𝑎𝑣𝑒𝑐 𝑓 (𝑥1 , 𝑥2 ) = 𝑒 1 2
𝑌2 1 −1 𝑋2 2𝜋

6.
L’autocorrélation d’un processus aléatoire ergodique X(t) est donnée par

𝛽𝑆0 −𝛽|𝜏|
𝑅 (𝜏 ) = 𝑒
2

1. Obtenir la moyenne et la variance de X(t).


2. Obtenir la densité de puissance G(f)
3. Vérifier que G(f) peut être considéré comme la densité du bruit sortant d’un
filtre passe-bas RC ayant le bruit blanc à son entrée.

7.
Si X(t) et Y(t) sont 2 processus aléatoires ergodiques indépendants gaussiens
identiquement distribués, obtenir la densité de la probabilité de

𝑍(𝑡 ) = 𝑋(𝑡 ) − 𝑌(𝑡)

On utilisera les autocorrélations des processus pour déterminer les moyennes et les
variances des processus.
25

SOLUTION

1.
Par la théorie des Séries de Fourier, on a ici,

+∞
2𝜋
𝑣 (𝑡 ) = ∑ 𝑉𝑛 𝑒 𝑗𝑛𝜔1𝑡 𝑜ù 𝜔1 =
𝑇
𝑛=−∞

et
𝜏/2
1 𝜏/2 −𝑗𝑛𝜔 𝑡 𝐴 𝑒 −𝑗𝑛𝜔1 𝑡
𝑉𝑛 = ∫ 𝐴𝑒 1 𝑑𝑡 = × |
𝑇 −𝜏/2 𝑇 −𝑗𝑛𝜔1 −𝜏/2

Ceci donne,
𝐴 −2
𝑉𝑛 = (𝑒 −𝑗𝑛𝜔1𝜏/2 − 𝑒 +𝑗𝑛𝜔1𝜏/2 ) × ( )
−𝑗𝑛𝜔1 𝑇 −2

On reconnait l’expression complexe du sinus dans l’équation ci-haut et,

2𝐴
𝑉𝑛 = sin(𝑛𝜔1 𝜏/2)
𝑛𝜔1 𝑇

2.
A la sortie du multiplieur on a,
𝑠𝑚 = 𝑠𝑟 × 𝑠𝑑 = 𝑚 cos(𝜔𝑐 𝑡 ) × cos(𝜔𝑐 𝑡 + 𝜃)
Avec les identités trigonométriques, on obtient,
26

𝑚
𝑠𝑚 = [cos(𝜃) + cos(2𝜔𝑐 𝑡 + 𝜃)]
2
𝑚 𝑚
= cos(𝜃) + cos(2𝜔𝑐 𝑡 + 𝜃)
2 2

Lorsque ce signal pénètre le filtre passe bas de fréquence de coupure ω0 égale à celle
du message, le premier terme sortira du filtre, tandis que le second terme sera
supprimé car il est localisé à 2ωc qui est bien au-delà de ω0. Donc,

𝑚
𝑠𝑜 = cos(𝜃)
2

3.
1. Par la définition de M et l’expression en série de la fonction exponentielle, on
a,
𝑀𝑋 (𝑡) = 𝐸 [𝑒 𝑋𝑡 ]
𝑋 2𝑡 2 𝑋𝑛𝑡𝑛
= 𝐸 [1 + 𝑋𝑡 + + ⋯+ + ⋯]
2 𝑛!
𝑡 2 𝐸 (𝑋 2 ) 𝑡 𝑛 𝐸 (𝑋 𝑛 )
= 1 + 𝑡𝐸 (𝑋 ) + + ⋯+ +⋯
2 𝑛!

Prenons les dérivées successives par rapport à t et ensuite prenons t = 0. On obtient

𝑑 𝑑2
𝑀𝑋 (0) = 1, 𝑀 (𝑡 )| = 𝐸 (𝑋 ) , 𝑀 (𝑡 )| = 𝐸 (𝑋 2 )
𝑑𝑡 𝑋 𝑡=0 𝑑𝑡 2 𝑋 𝑡=0

En général donc,
𝒅𝒏
𝑬(𝑿 𝒏 ) = 𝑴 (𝒕)|
𝒅𝒕𝒏 𝑿 𝒕=𝟎

3. Si X et Y sont indépendantes, on sait que pour les densités de probabilités on a


f(x,y) = f(x)f(y), d’où,
27

𝑀𝑋+𝑌 = ∬ 𝑒 (𝑥+𝑦)𝑡 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∬ 𝑒 𝑥𝑡 𝑒 𝑦𝑡 𝑓 (𝑥)𝑓 (𝑦)𝑑𝑥𝑑𝑦

En regroupant les termes, on a,

𝑀𝑋+𝑌 = (∫ 𝑓(𝑥)𝑒 𝑡𝑥 𝑑𝑥) (∫ 𝑓(𝑦)𝑒 𝑡𝑦 𝑑𝑦) = 𝑀𝑋(𝑡) 𝑀𝑌(𝑡)

3. Pour un processus gaussien,

2 /2𝜎 2
𝑡𝑥
𝑒 −(𝑥−𝑚)
𝑀𝑋(𝑡) = ∫ 𝑒 ( ) 𝑑𝑥
𝜎√2𝜋

Posons u = (x-m)/σ. Alors x = σu + m et dx = σdu. Alors,

1 𝑢2
𝑚𝑡+𝜎𝑢𝑡−
𝑀𝑋(𝑡) = ∫𝑒 2 𝑑𝑢
√2𝜋
Mais,
𝑢2 (𝑢 − 𝜎𝑡 )2 𝜎 2 𝑡 2
𝜎𝑢𝑡 − =− +
2 2 2
Alors,
1 𝜎2𝑡 2 2 /2
𝑀𝑋(𝑡) = 𝑒 𝑚𝑡+ 2 ∫ 𝑒 −(𝑢−𝜎𝑡) 𝑑𝑢
√2𝜋

Posons v = u-σt. Alors dv = du et,

𝜎2𝑡 2 1 2 /2
𝑚𝑡+
𝑀𝑋(𝑡) = 𝑒 2 [ ∫ 𝑒 −𝑣 𝑑𝑢]
√2𝜋

Le terme entre crochets est égal à 1, car il est l’intégral de la densité gaussienne de
moyenne o et de variance 1.
28

4.
Il est possible d’écrire,

𝑋1 − 𝑚 𝑋2 − 𝑚 𝑋𝑛 − 𝑚
𝑆𝑛̅ = + + ⋯+
𝜎 √𝑛 𝜎 √𝑛 𝜎 √𝑛

Où les termes sont des variables indépendantes donc d’après les résultats do Problème-
3 ci-dessus, on peut écrire,

𝑀𝑆𝑛̅ (𝑡) = ∏ 𝐸[𝑒 𝑡(𝑋𝑖 −𝑚)/𝜎√𝑛 ]


𝑖=1

Appelons Mi le terme général dans la formule du produit ci-dessus. L’expansion en


série de l’exponentiel donne

𝐸 (𝑋𝑖 − 𝑚) 𝐸 (𝑋𝑖 − 𝑚)2 1


𝑀𝑖 = 1 + 𝑡 + 𝑡2 +∝ ( )
𝜎 √𝑛 2𝜎 2 𝑛 𝑛3/2

1 1
Il est clair que le terme avec ( ) tend vers 0 plus vite que le terme avec ( ) lorsque
𝑛3/2 𝑛
n tend vers ∞. Dans ce cas nous retenons les 3 premiers termes de Mi et nous avons,

𝐸 (𝑋𝑖 ) − 𝑚 (𝜎 )2 𝑚 − 𝑚 𝑡2
𝑀𝑖 ≅ 1 + 𝑡 + 𝑡2 = 1 + 𝑡 +
𝜎 √𝑛 2𝜎 2 𝑛 𝜎 √𝑛 2𝑛

Donc lorsque n tend vers ∞,


𝑡2
𝑀𝑖 ≅ 1 +
2𝑛

Alors la fonction génératrice de moment de 𝑆𝑛̅ devient


29

𝑛 𝑛
𝑡2 𝑡2
lim [𝑀𝑆𝑛̅ (𝑡)] = lim [∏ (1 + )] = lim (1 + )
𝑛→∞ 𝑛→∞ 2𝑛 𝑛→∞ 2𝑛
𝑖=1

Donc,
𝑛
𝑡 2 /2
lim [𝑀𝑆𝑛̅ (𝑡)] = lim (1 + )
𝑛→∞ 𝑛→∞ 𝑛

Dans l’Analyse Mathématique, nous avons la relation suivante

𝑛
𝑎 𝑎 𝑎 𝑛
lim (1 + ) = 𝑒 ⇒ lim (1 + ) = 𝑒 𝑎
𝑛→∞ 𝑛 𝑛→∞ 𝑛
Par conséquent,
𝟐 /𝟐
𝐥𝐢𝐦 [𝑴̅𝑺𝒏 (𝒕)] = 𝒆𝒕
𝒏→∞

Ceci correspond bien à la fonction génératrice de moment de la variable


gaussienne de moyenne 0 et de variance 1.

5.
Par hypothèse Y1 = X1 + X2 et Y2 = X1 - X2 . de ce système d’équation on tire,

1 1
𝑋1 = (𝑌1 + 𝑌2 ) , 𝑋2 = (𝑌1 − 𝑌2 )
2 2
Tandis que
1
𝑓(𝑦1 , 𝑦2 ) = 𝑓 (𝑥1 , 𝑥2 )
|∆|
Où,
𝜕(𝑋1 + 𝑋2 ) 𝜕(𝑋1 + 𝑋2 )
𝜕𝑋1 𝜕𝑋2 1 1
∆= =[ ]
𝜕(𝑋1 − 𝑋2 ) 𝜕(𝑋1 − 𝑋2 ) 1 −1
[ 𝜕𝑋1 𝜕𝑋2 ]
D’où,
|∆| = |−1 − 1| = 2
30

Donc,

1 1 −[1(𝑦1 +𝑦2)2+1(𝑦1 −𝑦2 )2]/2


𝑓 (𝑦1 , 𝑦2 ) = { 𝑒 4 4 }
2 2𝜋

Après simplification, on obtient,

1 −1(𝑦12 +𝑦22)
𝑓 (𝑦1 , 𝑦2 ) = 𝑒 4
4𝜋

6.
Il est donné
𝛽𝑆0 −𝛽|𝜏|
𝑅 (𝜏 ) = 𝑒
2
et il a été établi dans la Section-9 du présent chapitre que,

𝑚2 = 𝑅𝑋 (∞)
𝑅𝑋 (0) = 𝜎 2 + 𝑚2
1. Alors
𝛽𝑆0 −𝛽|∞|
𝑚2 = 𝑒 =0 ⇒ 𝑚=0
2
Et

𝛽𝑆0 −𝛽|0| 𝛽𝑆0 𝛽𝑆0


𝑒 = = 𝜎 2 + 02 ⇒ 𝜎=√
2 2 2

2. La densité de puissance est calculée comme suit


𝛽𝑆0 −𝛽|𝜏| −𝑗𝜔𝜏
𝐺 (𝑗𝜔) = ∫ 𝑒 𝑒 𝑑𝜏
−∞ 2

𝛽𝑆0 0 −(𝑗𝜔−𝛽)𝜏 ∞
= [∫ 𝑒 𝑑𝜏 + ∫ 𝑒 −(𝑗𝜔+𝛽)𝜏 𝑑𝜏]
2 −∞ 0
31

Ce qui donne
𝛽𝑆0 1 −1
𝐺 (𝑗𝜔) = [ + ]
2 −(𝑗𝜔 − 𝛽) −(𝑗𝜔 + 𝛽)
D’où
𝑆0 𝛽2
𝐺 (𝑗𝜔) =
𝜔 2 + 𝛽2

3. Pour le filtre passe-bas, la fonction de transfert est,

1/𝑗𝜔𝐶 1 1/𝑅𝐶
𝐻 (𝑗𝜔) = = =
1 1
+ 𝑅 1 + 𝑗𝜔𝑅𝐶 + 𝑗𝜔
𝑗𝜔𝐶 𝑅𝐶
Posons β = 1/RC. Alors,
𝛽 𝛽2
𝐻 (𝑗𝜔) = ⇒ |𝐻 (𝑗𝜔 )|2 = 2
𝛽 + 𝑗𝜔 𝛽 + 𝜔2

Maintenant si à l’entrée du filtre on introduit un bruit blanc la densité de puissance est


S0, alors on aura à la sortie du filtre la densité,

𝑆0 𝛽2
𝐺𝑜 (𝑗𝜔) = 𝑆0 × |𝐻 (𝑗𝜔 )|2 = 2
𝛽 + 𝜔2

Cette densité est identique à la transformée de Fourier de l’autocorrélation donnée au


début de ce problème

7.
Nous commençons par l’expression de l’autocorrélation de Z(t),

𝑅𝑍 (𝜏) = 𝐸[(𝑋(𝑡 ) − 𝑌(𝑡 ))(𝑋(𝑡 − 𝜏) − 𝑌(𝑡 − 𝜏))]


32

Puisque X et Y sont identiquement distribuées, la relation ci-dessus donne

𝑅𝑍 (𝜏) = 𝑅𝑋 (𝜏)+𝑅𝑌 (𝜏) − 𝑚2 − 𝑚2 = 2𝑅𝑋 (𝜏) − 2𝑚2

Z(t) étant la différence de X(t) et Y(t), ceci est une opération linéaire, par conséquent Z
sera aussi gaussienne dont la moyenne et la variance sont

𝐸 (𝑍 ) = 𝐸 (𝑋 ) − 𝐸 (𝑌 ) = 𝑚 − 𝑚 = 0
𝜎𝑍2 = 2𝑅𝑋 (0) − 2𝑚2 = 2𝑅𝑋 (0) − 0 = 2𝑅𝑋 (0)

Finalement,
1 𝑧2

𝑓𝑍 (𝑧) = 𝑒 4𝑅𝑋 (0)
√4𝜋𝑅𝑋 (0)
33

CHAPITRE 2
BRUIT BLANC

1. INTRODUCTION
Ici, nous examinerons la puissance du bruit qui sort d’un circuit lorsqu’à l’entrée
nous avons un bruit blanc. Le bruit à la sortie d’un certain nombre de circuits typiques
est traité dans la Section 2
On se souviendra que la densité de puissance du bruit blanc est constante, nous
la prendrons comme
𝜂
𝐺𝑛 (𝑓) =
2

2. BRUIT A LA SORTIE DES FILTRES.


Lorsqu’un bruit n(t) de densité de puissance 𝐺𝑛 (𝑓) pénètre un filtre de fonction
de transfert 𝐻(𝑗𝜔), il en sort un bruit n0(t) de densité de puissance

𝐺𝑛0 (𝑓) = 𝐺𝑛 (𝑓)|𝐻(𝑗𝜔)|2

Exemple 1
Un bruit blanc de densité de puissance ƞ⁄2 est introduit dans le filtre passe-bas RC ci-
dessous.

1
𝐻(𝑗𝜔) =
1 + 𝑗𝜔𝑅𝐶
R
n(t) no(t)
C
C

Déterminer la puissance du bruit à la sortie.

Solution
La puissance totale N0 à la sortie peut être obtenue à partir de la densité de puissance du
bruit à la sortie qui est exprimée comme,
34

1
𝐺𝑛0 (𝑓) = 𝐺𝑛 (𝑓)|𝐻(𝑗𝜔)|2 , 𝐻(𝑓) =
1 + 𝑗(𝑓⁄𝑓0 )


1
2𝜋𝑓0 =
𝑅𝐶
Alors la puissance totale à la sortie est
+∞ +∞
𝜂 𝜂 +∞ 1
𝑁0 = ∫ 𝐺𝑛0 (𝑓) 𝑑𝑓 = ∫ |𝐻(𝑓)|² 𝑑𝑓 = ∫ 𝑑𝑓
−∞ −∞ 2 2 −∞ 1 + (𝑓⁄𝑓0 )²

Posons 𝑥 = 𝑓⁄𝑓0, alors 𝑑𝑓 = 𝑓0𝑑𝑥 et


+∞
𝜂 1 𝜂 +∞ 𝜂 𝜋 𝜋
𝑁0 = 𝑓0 ∫ 𝑑𝑥 = 𝑓0 𝑡𝑔−1 (𝑥)| = 𝑓0 [ + ]
2 −∞ 1 + 𝑥² 2 −∞ 2 2 2

Soit
𝑁0 = 𝜂𝜋 𝑓0⁄2

Exemple 2.
Considérer la figure ci-dessous

n(t) 1 no(t)
𝑑
𝛼
𝑑𝑡
-B +B

Où n(t) est un bruit de densité 𝜂⁄2. Obtenir la puissance 𝑁0 du bruit à la sortie.

Solution
Pour le différenciateur, sa fonction de transfert est 𝐻1 (𝑗𝜔) = 𝑗𝜔𝛼. Pour le filtre
passe bas, 𝐻2 (𝑗𝜔) = 1 avec –B < f < B. Alors
𝐵 𝐵
ƞ
𝑁0 = ∫ ( ) ⌊𝑗2𝜋𝑓𝛼⌋² 𝑑𝑓 = 2ƞ𝜋²𝛼² ∫ 𝑓² 𝑑𝑓
−𝐵 2 −𝐵

Ce qui donne après intégration,


4𝜋² 2 3
𝑁0 = 𝜂𝛼 𝐵
3
35

Exemple 3.
Un bruit blanc de densité 𝜂⁄2, pénètre dans un intégrateur de 0 à T. Obtenir la
puissance du bruit à la sortie.

Solution
La fonction de transfert de l’intégrateur de 0 à T est, d’après la Théorie des
Transformées de Fourier,
𝜔𝑇
−𝑗𝜔𝑇 𝑠𝑖𝑛 (
𝐻(𝑗𝜔) =
1
[1 − 𝑒 −𝑗𝜔𝑇
]=𝑒 2 2 ).𝑇
𝑗𝜔𝜏 𝜔𝑇
(2 ) 𝜏

où 𝜏 est une constante. Alors,


2
𝑠𝑖𝑛(𝜋𝑓𝑇) 𝑇 2
|𝐻(𝑗𝜔)|2 =( ) .( )
𝜋𝑓𝑇 𝜏

Alors
2

𝜂 𝑇 2 𝑠𝑖𝑛(𝜋𝑓𝑇)
𝑁0 = ∫ ( ) ( ) 𝑑𝑓
−∞ 2 𝜏 𝜋𝑓𝑡

Posons 𝑥 = 𝜋𝑓𝑇. Alors 𝑑𝑥 = 𝜋𝑇𝑑𝑓 et


𝜂 𝑇 2 1 ∞ 𝑠𝑖𝑛𝑥 2
𝑁0 = ( ) ∫ ( ) 𝑑𝑥
2 𝜏 𝜋𝑇 −∞ 𝑥

Les tables de mathématique donnent comme valeur de cette dernière intégrale, 𝜋.


Finalement,
𝜂𝑇
𝑁0 =
2𝜏²

Vous aimerez peut-être aussi