Traitement Des Signaux
Traitement Des Signaux
CHAPITRE 1
BASE MATHEMETIQUE
1. SYSTEME DE TELECOMMUNICATION
Pour transporter un message provenant d’une source, vers un emplacement
éloigné, on peut recourir à un système électronique de télécommunication dont le
schéma bloc est le suivant.
Dans cet ouvrage, nous supposons que le lecteur a suivi déjà un cours de
Télécommunication où ont été traités les différents types de modulations et
démodulations en l’absence de tout bruit. Donc notre tâche ici est de décrire
mathématiquement le bruit, puis d’étudier son effet dans les différents types de
démodulateurs.
2. SERIES DE FOURIER
Nous utiliserons les Séries de Fourier pour décrire mathématiquement les
signaux périodiques.
Si v(t) est un signal périodique de période T, il peut s’écrire comme une série de
Fourier, où,
+∞
2𝜋
𝑣 (𝑡 ) = ∑ 𝑉𝑛 𝑒 𝑗𝑛𝜔0𝑡 , 𝜔0 =
𝑇
𝑛=−∞
1 +𝑇/2
𝑉𝑛 = ∫ 𝑣(𝑡)𝑒 −𝑗𝑛𝜔0𝑡 𝑑𝑡
𝑇 −𝑇/2
Une relation fondamentale entre la puissance moyenne d’un signal périodique et ces
coefficients de Fourier est,
∞
1 +𝑇/2
𝑃𝑚𝑜𝑦 = ∫ 𝑣(𝑡)2 𝑑𝑡 = 𝑉02 + ∑ 2|𝑉𝑛 |2
𝑇 −𝑇/2
𝑛=1
Lorsqu’un signal périodique v(t) entre dans un circuit linéaire dont la fonction de
transfert est H(jω), le signal de sortie 𝑣̅ (𝑡) aura comme coefficients de Fourier
Exemple 1.
3
Solution
Notons que si v(t) est réel, il est égal à son conjugué complexe, et on peut alors
écrire
1 1
𝑃𝑚𝑜𝑦 = ∫ 𝑣(𝑡)2 𝑑𝑡 = ∫ 𝑣(𝑡)𝑣(𝑡)∗ 𝑑𝑡
𝑇 𝑇 𝑇 𝑇
+∞
1
𝑃𝑚𝑜𝑦 = ∫ 𝑣(𝑡) [∑ 𝑉𝑛 ∗ 𝑒 −𝑗𝑛𝜔0𝑡 ] 𝑑𝑡
𝑇 𝑇
−∞
+∞
1
𝑃𝑚𝑜𝑦 = ∑ 𝑉𝑛 ∗ [ ∫ 𝑣(𝑡)𝑒 −𝑗𝑛𝜔0𝑡 𝑑𝑡 ]
𝑇 𝑇
−∞
+∞ +∞ +∞
∗
𝑃𝑚𝑜𝑦 = ∑ 𝑉𝑛 𝑉𝑛 = ∑]𝑉𝑛 ]2 = 𝑉02 + 2 ∑]𝑉𝑛 ]2
−∞ −∞ 𝑛=1
Exemple 2
Obtenir les coefficients de Fourier pour le train d’impulsions rectangulaires
périodiques ci-dessous.
4
Solution
Les coefficients de Fourier sont ici,
1 +𝜏/2 𝐴𝜏
𝑉0 = ∫ 𝐴𝑑𝑡 =
𝑇 −𝜏/2 𝑇
et,
1 +𝜏/2 −𝑗𝑛𝜔 𝑡 𝐴 1
𝑉𝑛 = ∫ 𝐴𝑒 0 𝑑𝑡 = × [𝑒 −𝑗𝑛𝜔0𝜏/2 − 𝑒 +𝑗𝑛𝜔0 𝜏/2 ]
𝑇 −𝜏/2 𝑇 −𝑗𝑛𝜔0
𝐴 × 2 𝑒 +𝑗𝑛𝜔0 𝜏/2 − 𝑒 −𝑗𝑛𝜔0𝜏/2
= [ ]
𝑛𝜔0 𝑇 2𝑗
2𝐴
= sin(𝑛𝜔0 𝜏/2)
𝑛𝜔0 𝑇
Exemple 3.
Obtenir les coefficients de Fourier du signal périodique ci-dessous que l’on
retrouve dans les redresseurs de tension électrique.
Solution
1 𝜋 1 2
𝑉0 = ∫ sin 𝑡 𝑑𝑡 = (− cos 𝑡 )𝜋0 =
𝜋 0 𝜋 𝜋
5
Pour tout n,
1 𝜋 −𝑗2𝑛𝑡
1 𝜋 𝑒 𝑗𝑡 − 𝑒 −𝑗𝑡 −𝑗2𝑛𝑡
𝑉𝑛 = ∫ sin 𝑡 𝑒 𝑑𝑡 = ∫ [ ]𝑒 𝑑𝑡
𝜋 0 𝜋 0 2𝑗
1 𝜋 −𝑗(2𝑛−1)𝑡
∫ [𝑒 − 𝑒 −𝑗(2𝑛+1)𝑡 ]𝑑𝑡
2𝑗𝜋 0
D’où
1 1 1
𝑉𝑛 = [ (𝑒 −𝑗(2𝑛−1)𝜋 − 1) − (𝑒 −𝑗(2𝑛+1)𝜋 − 1)]
2𝑗𝑛 −𝑗(2𝑛 − 1) −𝑗(2𝑛 + 1)
𝑒 ±𝑗2𝜋𝑛 = 1 𝑒𝑡 𝑒 ±𝑗𝜋 = −1
Alors,
1 −1 − 1 −1 − 1 1 1 1
𝑉𝑛 = [ − ]= ( − )
2𝑗𝑛 −𝑗(2𝑛 − 1) −𝑗(2𝑛 + 1) −𝜋 2𝑛 − 1 2𝑛 + 1
Ce qui donne,
−𝟐
𝑽𝒏 =
𝝅(𝟒𝒏𝟐 − 𝟏)
3. INTEGRALES DE FOURIER
Si v(t) est non périodique mais avec une énergie finie, alors sa transformée de
Fourier, est donnée par,
+∞
𝑉 (𝑗𝜔) = ∫ 𝑣(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡
−∞
6
et,
1 +∞
𝑣 (𝑡 ) = ∫ 𝑉(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔
2𝜋 −∞
et l’énergie totale v(t) est,
+∞
2(
1 −∞ −∞
𝐸=∫ 𝑣 𝑡 )𝑑𝑡 = ∫ 𝑉(𝑗𝜔) 𝑑𝜔 = ∫ |𝑉(𝑓)|2 𝑑𝑓
| |2
−∞ 2𝜋 −∞ −∞
|𝑉(𝑗𝜔)|2
𝑆 (𝜔 ) = 𝑜𝑢 𝑆(𝑓) = |𝑉(𝑓)|2
2𝜋
Lorsque v(t) pénètre une fonction de transfert H(jω) on a à la sortie 𝑣̅ (𝑡) où,
Exemple 4.
Considérer le signal v(t), où
𝐴𝑒 −𝑡/ 𝑝𝑜𝑢𝑟 𝑡 ≥ 0
𝑣 (𝑡 ) = {
0 𝑝𝑜𝑢𝑟 𝑡 < 0
1. Obtenir V(jω)
2. Si v(t) pénètre le filtre passe-bas ci-dessous de fréquence de coupure ωc, obtenir
l’énergie totale à la sortie du filtre.
Solution
Par la définition de la transformée de Fourier,
7
∞ ∞ 1
𝑉 (𝑗𝜔) = ∫ 𝑣(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = 𝐴 ∫ 𝑒 −(𝜏 +𝑗𝜔)𝑡 𝑑𝑡
0 0
D’où,
(0 − 1)𝐴 𝜏𝐴
𝑉 (𝑗𝜔) = =
1
− ( + 𝑗𝜔) 1 + 𝑗𝜔𝜏
𝜏
1 +𝜔𝑐 2 2
2 +𝜔𝑐 2 (𝜏𝐴)2
𝐸= ∫ |𝐻 (𝑗𝜔)| |𝑉 (𝑗𝜔)| 𝑑𝜔 = ∫ ℎ0 𝑑𝜔
2𝜋 −𝜔𝑐 2𝜋 0+ 1 + (𝜔𝜏)2
Exemple 5.
Etablir la relation suivante
Solution
8
1
∫ 𝑠1 (𝑡 )𝑠2 (𝑡 )𝑑𝑡 = ∫ 𝑠1 (𝑡 ) [ ∫ 𝑆 (𝑗𝜔)𝑒 +𝑗𝜔𝑡 𝑑𝜔] 𝑑𝑡
2𝜋 𝜔 2
1
= ∫ 𝑆 (𝑗𝜔) [∫ 𝑠1 (𝑡 )𝑒 +𝑗𝜔𝑡 𝑑𝑡] 𝑑𝜔
2𝜋 𝜔 2 𝑡
1
= ∫ 𝑆 (𝑗𝜔)[𝑆1 (−𝑗𝜔)]𝑑𝜔
2𝜋 𝜔 2
Puisque ω = 2πf, on a
4. DISTRIBUTION DE LA PROBABILITE
Si X est une variable aléatoire qui prend des valeurs réelles x, on définit sa
distribution de probabilité comme,
𝐹 (𝑥) = Pr (𝑋 ≤ 𝑥)
Dans le cas où F(x) est différentiable, sa densité de probabilité est définie par
𝑑𝐹
𝑓 (𝑥 ) =
𝑑𝑥
Une densité de probabilité très courante est la densité gaussienne exprimée par
−(𝑥−𝑚)2
𝑒 2𝜎2
𝑓 (𝑥 ) =
𝜎√2𝜋
9
Où
𝑚 = 𝐸 [𝑋 ] 𝑒𝑡 𝜎 2 = 𝑉 (𝑋 ) = 𝐸 (𝑋 − 𝑚)2
Les équations de transformation sur les variables aléatoires sont les suivantes :
Soit
𝑌𝑖 = 𝑔𝑖 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) 𝑖 = 1,2, … , 𝑛
𝑥𝑖 = ℎ(𝑦1 , 𝑦2 , … , 𝑦𝑛 )
Exemple 6.
Considérer une variable gaussienne X lié à une autre variable Y par la relation,
𝑌 = 𝑎𝑋 + 𝑏
Solution
Ici nous identifions,
𝑔(𝑋 ) = 𝑎𝑋 + 𝑏
D’où
𝜕𝑔
∆= =𝑎 ⇒ |∆| = |𝑎| ≠ 0
𝜕𝑋
D’autre part,
𝑌−𝑏
𝑋=
𝑎
Alors,
1 𝑦−𝑏
𝑓𝑌 (𝑦) = 𝑓𝑋 ( )
|𝑎| 𝑎
Donc
2
𝑦−𝑏
( −𝑚)
1 1 − 𝑎
𝑓𝑌 (𝑦) = × 𝑒 2𝜎2
|𝑎| 𝜎√2𝜋
𝑚𝑌 = 𝑎𝑚 + 𝑏 𝑒𝑡 𝜎𝑌 = |𝑎|𝜎
+∞ +∞
𝑓𝑍 (𝑧) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑧 − 𝑥)𝑑𝑥 = ∫ 𝑓𝑋𝑌 (𝑧 − 𝑦, 𝑦)𝑑𝑦
−∞ −∞
11
+∞
𝑓𝑍 = 𝑓𝑋 × 𝑓𝑌 ⇒ 𝑓𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑥) × 𝑓𝑌 (𝑧 − 𝑥)𝑑𝑥
−∞
Exemple 7.
Montrer que si X et Y sont des variables gaussiennes indépendantes, leur
somme est gaussienne. Pour simplifier les calculs on supposera que les moyennes sont
nulles.
Solution
Posons,
2 /2𝜎 2 2 /2𝜎 2
𝑒 −𝑥 𝑥 𝑒 −𝑦 𝑦
𝑓 (𝑥 ) = , 𝑓 (𝑦 ) =
√2𝜋𝜎𝑥2 √2𝜋𝜎𝑦2
Alors,
∞ ( 𝑥2 (𝑧−𝑥)2
1 2+ 2𝜎𝑦2
)
𝑓 (𝑧 ) = ∫ 𝑒 2𝜎𝑥 𝑑𝑥
2𝜋𝜎𝑥 𝜎𝑦 −∞
Pour évaluer cette intégrale, posons,
1/2
1 1 𝑧
𝑢 = ( 2 + 2) 𝑥−
𝜎𝑥 𝜎𝑦 1 1 1/2
𝜎𝑦2 ( 2 + 2 )
𝜎𝑥 𝜎𝑦
𝑢 𝑧 𝑑𝑢
𝑥= + , 𝑑𝑥 =
1 1 1/2 𝜎 2 ( 1 + 1 ) 1 1 1/2
( 2 + 2) 𝑦 𝜎2 𝜎𝑦2 ( 2 + 2)
𝜎𝑥 𝜎𝑦 𝑥 𝜎𝑥 𝜎𝑦
12
𝑢2
−𝑧 2 /2(𝜎𝑥2 +𝜎𝑦2 ) +∞ −
𝑒 𝑒 2
𝑓 (𝑧 ) = ×∫ 𝑑𝑢
−∞ √2𝜋
√2𝜋(𝜎𝑥2 + 𝜎𝑦2 )
2 /2(𝜎 2 +𝜎 2 )
𝑒 −𝑧 𝑥 𝑦
𝑓 (𝑧 ) =
√2𝜋(𝜎𝑥2 + 𝜎𝑦2 )
Donc Z est une variable gaussienne dont la variance est 𝜎𝑥2 + 𝜎𝑦2 .
Un processus aléatoire X(t) continu dans le temps est un processus tel que
pour tout temps ti, X(ti) est une variable aléatoire.
X(t) est stationnaire si la densité jointe de X(t1), X(t2), … , X(tn), pour tout t1,
t2, …, tn est la même que celle de X(t1+h), X(t2+h), … , X(tn+h), cela pour n entier
positif et tout h réel positif. D’une manière générale, le processus X(t) est stationnaire
si les caractéristiques de la source qui le produit ne change pas avec le temps.
Pour que les théories des variables aléatoires soient d’une utilité pour les
ingénieurs, un lien doit exister entre une observation prolongée d’un échantillon Xe(t)
de la variable aléatoire X(t) et X(t) lui-même. D’où le concept d’ergodicité. Un
processus X(t) est ergodique si :
13
C’est-à-dire que les moyennes statistiques de X(t) peuvent être remplacées par les
moyennes d’un de ses échantillons Xe(t) prises sur le temps. D’autre part, puisse que
par sa définition, < 𝑋𝑒𝑛 (𝑡) > est indépendant du temps, il en est de même pour
𝐸 [𝑋 𝑛 (𝑡)] pour tout n, donc X(t) doit être stationnaire. Donc tous les processus ergodiques
sont forcément stationnaires.
1 +𝑇/2
𝑅𝑋 (𝜏) =< 𝑋𝑒 (𝑡)𝑋𝑒 (𝑡 − 𝜏) >= lim ∫ 𝑋𝑒 (𝑡)𝑋𝑒 (𝑡 − 𝜏)𝑑𝑡
𝑇→∞ 𝑇 −𝑇/2
L’intérêt de l’autocorrélation est qu’il peut être évaluer pour toute variable
aléatoire et la transformée de Fourier de cette autocorrélation correspondra à la densité
de puissance de la variable aléatoire. A cet effet, faisons un rappel des relations
suivantes sur les Transformées de Fourier.
14
+∞
1. 𝑆𝑖 𝑣̅ (𝜏) = ∫ ℎ(𝑡 )𝑣(𝑡 − 𝜏)𝑑𝑡 𝑎𝑙𝑜𝑟𝑠 𝑉̅ (𝑗𝜔) = 𝐻 (𝑗𝜔)𝑉(𝑗𝜔)
−∞
2. ℱ [𝑣(−𝑡)] = 𝑉 (−𝑗𝜔) = 𝑉 ∗ (𝑗𝜔)
+𝑇/2
1
ℱ [ 𝑅𝑋 (𝜏)] = lim ℱ [∫ 𝑋𝑒 (𝑡)𝑋𝑒 [−(𝜏 − 𝑡)]𝑑𝑡 ]
𝑇→∞ 𝑇 −𝑇/2
Lorsque T tend vers ∞ nous pouvons utiliser la Relation-1 ci-dessus pour écrire,
1
ℱ [ 𝑅𝑋 (𝜏)] = lim {ℱ [𝑋𝑒 (−𝑡 )]ℱ [𝑋𝑒 (𝑡 )]}
𝑇→∞ 𝑇
1 1
ℱ [ 𝑅𝑋 (𝜏)] = lim {[𝑋𝑒∗ (𝑗𝜔)][𝑋𝑒 (𝑗𝜔)]} = lim |𝑋𝑒 (𝑗𝜔)|2
𝑇→∞ 𝑇 𝑇→∞ 𝑇
Donc,
𝟏
𝓕[ 𝑹𝑿 (𝝉)] = 𝐥𝐢𝐦 |𝑿𝒆 (𝒋𝝎)|𝟐 = 𝑮(𝒋𝝎)
𝑻→∞ 𝑻
Le bruit blanc est un processus aléatoire dont l’autocorrélation est donnée par,
15
𝑅(𝜏) = 𝐼𝛿(𝜏)
Donc la densité de puissance du bruit blanc est constante à toutes les fréquences.
Exemple 8.
Obtenir
1. L’autocorrélation de v(t)
2. La densité de puissance de v(t).
Solution
Par définition
𝑅(𝜏) = 𝐸 [𝑣 (𝑡 )𝑣(𝑡 − 𝜏)]
Cas-1 : |𝝉| > 𝑻
Dans ce cas, v(t) et v(t-𝜏) sont évalués à de temps dont la différence est
supérieures à T, donc ces 2 variables aléatoires sont indépendantes, d’où
𝑅(𝜏) = 𝐸 [𝑣 (0)𝑣(−𝜏)]
Supposant v(0) = +V (les conclusions qui suivent resteront valables aussi pour v(0) = -
V). Dans ce cas, v(t) autour de 0 se présente comme suit
Pour que v(-τ) ait aussi la valeur V, -τ doit se placer entre « -(T-Td) et Td) ». on
considère séparément les intervalles à gauche de 0, puis à droite de 0 . Nous
recherchons dans chaque cas l’expression de Td:
𝑇𝑑 < (𝑇 − 𝜏) 𝑒𝑡 𝜏 > 0
b) -τ< 𝑻𝒅 𝒆𝒕 𝝉 < 𝟎
(𝑇−𝜏)
1 𝑇−𝜏
∫ 𝑉 2 𝑑𝑡 = 𝑉 2 𝑝𝑜𝑢𝑟 𝜏 > 0
0 𝑇 𝑇
𝑅 (𝜏 ) = 𝑇
1 𝑇+𝜏
∫ 𝑉 2 𝑑𝑡 = 𝑉 2 𝑝𝑜𝑢𝑟 𝜏<0
−𝜏 𝑇 𝑇
{
𝑇 − |𝜏|
𝑉2 𝑝𝑜𝑢𝑟 |𝜏| < 𝑇
𝑅 (𝜏 ) = { 𝑇
0 𝑝𝑜𝑢𝑟 |𝜏| > 𝑇
[sin(𝑓𝑇)]2
𝐺 (𝑓 ) = 𝑉 2 𝑇
(𝑓𝑇)2
Exemple 9.
Considérer l’onde sinusoïdale à phase variable suivante
𝑥 (𝑡 ) = 𝐴 cos(𝜔𝑡 + 𝜃)
Où A et ω sont des constantes tandis que θ est une variable aléatoire uniformement
distribuée avec la densité
1
𝑓 (𝜃 ) = 𝑝𝑜𝑢𝑟 −𝜋 ≤𝜃 ≤𝜋
2𝜋
𝐴2
𝑅𝑥 (𝜏) = cos 𝜔𝜏
2
Solution
Par la définition de l’autocorrélation et les identités trigonométriques,
𝐴2 𝐴2 𝜋 1
𝑅𝑥 (𝜏) = cos(𝜔𝜏) + ∫ cos(2𝜔𝑡 − 𝜔𝜏 + 2𝜃) 𝑑𝜃
2 2 −𝜋 2𝜋
𝐴2
𝑅𝑥 (𝜏) = cos(𝜔𝜏)
2
8. PROPRIETES DE L’AUTOCORRELATION
2. 𝑹(𝝉) = 𝑹(−𝝉)
En effet,
𝑅(−𝜏) = 𝐸 [𝑋(𝑡 )𝑋(𝑡 + 𝜏)]
𝑅(−𝜏) = 𝐸 [𝑋 (𝑢 − 𝜏)𝑋(𝑢)]
D’où on tire,
𝑅(0) ≥ ∓𝑅(𝜏)
Alors si R(τ) est positif, prenons le signe + dans la relation si haut, et prenons le signe
– dans le cas contraire. Alors la Relation-3 est correcte
D’où
0 × 0 = 𝑅𝑋 (∞) − 𝑚2
Et,
𝒎𝟐 = 𝑹𝑿 (∞)
𝝈𝟐𝑿 = 𝑹𝑿 (𝟎) − 𝒎𝟐
Exemple 10.
L’autocorrélation d’un bruit gaussien est donné par,
𝑅(𝜏) = 3𝑒 −2|𝜏|
21
Solution
La moyenne et la variance sont obtenues comme suit
1 −𝑥 2 1 −𝑥 2
𝑓 (𝑥 ) = exp ( ) = exp ( )
√2𝜋𝜎 2 2𝜎 2 √6𝜋 6
∞
𝐺(𝑗𝜔)
𝜎 2 + 𝑚2 = ∫ 𝑑𝜔 = 𝑁
−∞ 2𝜋
∞
𝐺(𝑗𝜔) 𝑗𝜔𝜏
𝑅 (𝜏 ) = ∫ 𝑒 𝑑𝜔
−∞ 2𝜋
D’où à τ = 0,
22
∞
𝐺(𝑗𝜔)
𝑅 (0) = ∫ 𝑑𝜔 = 𝑁
−∞ 2𝜋
Ce résultat avec ceux établis dans la Section-9 ci-haut, donnent
𝝈𝟐 + 𝒎𝟐 = 𝑹(𝟎) = 𝑵
PROBLEMES
1.
Obtenir le développement en Séries de Fourier du train d’impulsion v(t) ci-dessous, où
l’amplitude de l’impulsion est A, la durée est τ, et la période est T.
2.
Un récepteur de Télécommunication se présente comme suit
La plus haute fréquence du message m(t) est ωo et elle est bien inférieure à ωc. Le
Filtre Passe Bas a une fréquence de coupure inférieure à ωc
23
3.
Pour une variable aléatoire X, on définit sa Fonction Génératrice de Moment,
comme,
𝑀𝑋 (𝑡) = 𝐸 [𝑒 𝑋𝑡 ]
2 𝑡 2 /2
𝑀𝑋 (𝑡) = 𝑒 𝑚𝑡−𝜎
4.
Utiliser les résultats du Problème précédent pour démontrer le Théorème de la
limite Centrale qui s’énonce de la façon suivante :
𝑆𝑛 − 𝑛 × 𝑚
𝑆𝑛̅ = 𝑜ù 𝑆𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝜎 √𝑛
Alors ̅
𝑺𝒏 a une distribution gaussienne lorsque n tend vers ∞. Pour la
preuve, il suffira de montrer que
2 /2
lim 𝑀𝑆𝑛̅ = 𝑒 𝑡
𝑛→∞
5.
La transformation ci-dessous permet de passer de (X1, X2) à ((Y1, Y2).
𝑌 1 1 𝑋1 1 −(𝑥2 +𝑥2)
[ 1] = [ ] [ ] 𝑎𝑣𝑒𝑐 𝑓 (𝑥1 , 𝑥2 ) = 𝑒 1 2
𝑌2 1 −1 𝑋2 2𝜋
6.
L’autocorrélation d’un processus aléatoire ergodique X(t) est donnée par
𝛽𝑆0 −𝛽|𝜏|
𝑅 (𝜏 ) = 𝑒
2
7.
Si X(t) et Y(t) sont 2 processus aléatoires ergodiques indépendants gaussiens
identiquement distribués, obtenir la densité de la probabilité de
On utilisera les autocorrélations des processus pour déterminer les moyennes et les
variances des processus.
25
SOLUTION
1.
Par la théorie des Séries de Fourier, on a ici,
+∞
2𝜋
𝑣 (𝑡 ) = ∑ 𝑉𝑛 𝑒 𝑗𝑛𝜔1𝑡 𝑜ù 𝜔1 =
𝑇
𝑛=−∞
et
𝜏/2
1 𝜏/2 −𝑗𝑛𝜔 𝑡 𝐴 𝑒 −𝑗𝑛𝜔1 𝑡
𝑉𝑛 = ∫ 𝐴𝑒 1 𝑑𝑡 = × |
𝑇 −𝜏/2 𝑇 −𝑗𝑛𝜔1 −𝜏/2
Ceci donne,
𝐴 −2
𝑉𝑛 = (𝑒 −𝑗𝑛𝜔1𝜏/2 − 𝑒 +𝑗𝑛𝜔1𝜏/2 ) × ( )
−𝑗𝑛𝜔1 𝑇 −2
2𝐴
𝑉𝑛 = sin(𝑛𝜔1 𝜏/2)
𝑛𝜔1 𝑇
2.
A la sortie du multiplieur on a,
𝑠𝑚 = 𝑠𝑟 × 𝑠𝑑 = 𝑚 cos(𝜔𝑐 𝑡 ) × cos(𝜔𝑐 𝑡 + 𝜃)
Avec les identités trigonométriques, on obtient,
26
𝑚
𝑠𝑚 = [cos(𝜃) + cos(2𝜔𝑐 𝑡 + 𝜃)]
2
𝑚 𝑚
= cos(𝜃) + cos(2𝜔𝑐 𝑡 + 𝜃)
2 2
Lorsque ce signal pénètre le filtre passe bas de fréquence de coupure ω0 égale à celle
du message, le premier terme sortira du filtre, tandis que le second terme sera
supprimé car il est localisé à 2ωc qui est bien au-delà de ω0. Donc,
𝑚
𝑠𝑜 = cos(𝜃)
2
3.
1. Par la définition de M et l’expression en série de la fonction exponentielle, on
a,
𝑀𝑋 (𝑡) = 𝐸 [𝑒 𝑋𝑡 ]
𝑋 2𝑡 2 𝑋𝑛𝑡𝑛
= 𝐸 [1 + 𝑋𝑡 + + ⋯+ + ⋯]
2 𝑛!
𝑡 2 𝐸 (𝑋 2 ) 𝑡 𝑛 𝐸 (𝑋 𝑛 )
= 1 + 𝑡𝐸 (𝑋 ) + + ⋯+ +⋯
2 𝑛!
𝑑 𝑑2
𝑀𝑋 (0) = 1, 𝑀 (𝑡 )| = 𝐸 (𝑋 ) , 𝑀 (𝑡 )| = 𝐸 (𝑋 2 )
𝑑𝑡 𝑋 𝑡=0 𝑑𝑡 2 𝑋 𝑡=0
En général donc,
𝒅𝒏
𝑬(𝑿 𝒏 ) = 𝑴 (𝒕)|
𝒅𝒕𝒏 𝑿 𝒕=𝟎
2 /2𝜎 2
𝑡𝑥
𝑒 −(𝑥−𝑚)
𝑀𝑋(𝑡) = ∫ 𝑒 ( ) 𝑑𝑥
𝜎√2𝜋
1 𝑢2
𝑚𝑡+𝜎𝑢𝑡−
𝑀𝑋(𝑡) = ∫𝑒 2 𝑑𝑢
√2𝜋
Mais,
𝑢2 (𝑢 − 𝜎𝑡 )2 𝜎 2 𝑡 2
𝜎𝑢𝑡 − =− +
2 2 2
Alors,
1 𝜎2𝑡 2 2 /2
𝑀𝑋(𝑡) = 𝑒 𝑚𝑡+ 2 ∫ 𝑒 −(𝑢−𝜎𝑡) 𝑑𝑢
√2𝜋
𝜎2𝑡 2 1 2 /2
𝑚𝑡+
𝑀𝑋(𝑡) = 𝑒 2 [ ∫ 𝑒 −𝑣 𝑑𝑢]
√2𝜋
Le terme entre crochets est égal à 1, car il est l’intégral de la densité gaussienne de
moyenne o et de variance 1.
28
4.
Il est possible d’écrire,
𝑋1 − 𝑚 𝑋2 − 𝑚 𝑋𝑛 − 𝑚
𝑆𝑛̅ = + + ⋯+
𝜎 √𝑛 𝜎 √𝑛 𝜎 √𝑛
Où les termes sont des variables indépendantes donc d’après les résultats do Problème-
3 ci-dessus, on peut écrire,
1 1
Il est clair que le terme avec ( ) tend vers 0 plus vite que le terme avec ( ) lorsque
𝑛3/2 𝑛
n tend vers ∞. Dans ce cas nous retenons les 3 premiers termes de Mi et nous avons,
𝐸 (𝑋𝑖 ) − 𝑚 (𝜎 )2 𝑚 − 𝑚 𝑡2
𝑀𝑖 ≅ 1 + 𝑡 + 𝑡2 = 1 + 𝑡 +
𝜎 √𝑛 2𝜎 2 𝑛 𝜎 √𝑛 2𝑛
𝑛 𝑛
𝑡2 𝑡2
lim [𝑀𝑆𝑛̅ (𝑡)] = lim [∏ (1 + )] = lim (1 + )
𝑛→∞ 𝑛→∞ 2𝑛 𝑛→∞ 2𝑛
𝑖=1
Donc,
𝑛
𝑡 2 /2
lim [𝑀𝑆𝑛̅ (𝑡)] = lim (1 + )
𝑛→∞ 𝑛→∞ 𝑛
𝑛
𝑎 𝑎 𝑎 𝑛
lim (1 + ) = 𝑒 ⇒ lim (1 + ) = 𝑒 𝑎
𝑛→∞ 𝑛 𝑛→∞ 𝑛
Par conséquent,
𝟐 /𝟐
𝐥𝐢𝐦 [𝑴̅𝑺𝒏 (𝒕)] = 𝒆𝒕
𝒏→∞
5.
Par hypothèse Y1 = X1 + X2 et Y2 = X1 - X2 . de ce système d’équation on tire,
1 1
𝑋1 = (𝑌1 + 𝑌2 ) , 𝑋2 = (𝑌1 − 𝑌2 )
2 2
Tandis que
1
𝑓(𝑦1 , 𝑦2 ) = 𝑓 (𝑥1 , 𝑥2 )
|∆|
Où,
𝜕(𝑋1 + 𝑋2 ) 𝜕(𝑋1 + 𝑋2 )
𝜕𝑋1 𝜕𝑋2 1 1
∆= =[ ]
𝜕(𝑋1 − 𝑋2 ) 𝜕(𝑋1 − 𝑋2 ) 1 −1
[ 𝜕𝑋1 𝜕𝑋2 ]
D’où,
|∆| = |−1 − 1| = 2
30
Donc,
1 −1(𝑦12 +𝑦22)
𝑓 (𝑦1 , 𝑦2 ) = 𝑒 4
4𝜋
6.
Il est donné
𝛽𝑆0 −𝛽|𝜏|
𝑅 (𝜏 ) = 𝑒
2
et il a été établi dans la Section-9 du présent chapitre que,
𝑚2 = 𝑅𝑋 (∞)
𝑅𝑋 (0) = 𝜎 2 + 𝑚2
1. Alors
𝛽𝑆0 −𝛽|∞|
𝑚2 = 𝑒 =0 ⇒ 𝑚=0
2
Et
∞
𝛽𝑆0 −𝛽|𝜏| −𝑗𝜔𝜏
𝐺 (𝑗𝜔) = ∫ 𝑒 𝑒 𝑑𝜏
−∞ 2
𝛽𝑆0 0 −(𝑗𝜔−𝛽)𝜏 ∞
= [∫ 𝑒 𝑑𝜏 + ∫ 𝑒 −(𝑗𝜔+𝛽)𝜏 𝑑𝜏]
2 −∞ 0
31
Ce qui donne
𝛽𝑆0 1 −1
𝐺 (𝑗𝜔) = [ + ]
2 −(𝑗𝜔 − 𝛽) −(𝑗𝜔 + 𝛽)
D’où
𝑆0 𝛽2
𝐺 (𝑗𝜔) =
𝜔 2 + 𝛽2
1/𝑗𝜔𝐶 1 1/𝑅𝐶
𝐻 (𝑗𝜔) = = =
1 1
+ 𝑅 1 + 𝑗𝜔𝑅𝐶 + 𝑗𝜔
𝑗𝜔𝐶 𝑅𝐶
Posons β = 1/RC. Alors,
𝛽 𝛽2
𝐻 (𝑗𝜔) = ⇒ |𝐻 (𝑗𝜔 )|2 = 2
𝛽 + 𝑗𝜔 𝛽 + 𝜔2
𝑆0 𝛽2
𝐺𝑜 (𝑗𝜔) = 𝑆0 × |𝐻 (𝑗𝜔 )|2 = 2
𝛽 + 𝜔2
7.
Nous commençons par l’expression de l’autocorrélation de Z(t),
Z(t) étant la différence de X(t) et Y(t), ceci est une opération linéaire, par conséquent Z
sera aussi gaussienne dont la moyenne et la variance sont
𝐸 (𝑍 ) = 𝐸 (𝑋 ) − 𝐸 (𝑌 ) = 𝑚 − 𝑚 = 0
𝜎𝑍2 = 2𝑅𝑋 (0) − 2𝑚2 = 2𝑅𝑋 (0) − 0 = 2𝑅𝑋 (0)
Finalement,
1 𝑧2
−
𝑓𝑍 (𝑧) = 𝑒 4𝑅𝑋 (0)
√4𝜋𝑅𝑋 (0)
33
CHAPITRE 2
BRUIT BLANC
1. INTRODUCTION
Ici, nous examinerons la puissance du bruit qui sort d’un circuit lorsqu’à l’entrée
nous avons un bruit blanc. Le bruit à la sortie d’un certain nombre de circuits typiques
est traité dans la Section 2
On se souviendra que la densité de puissance du bruit blanc est constante, nous
la prendrons comme
𝜂
𝐺𝑛 (𝑓) =
2
Exemple 1
Un bruit blanc de densité de puissance ƞ⁄2 est introduit dans le filtre passe-bas RC ci-
dessous.
1
𝐻(𝑗𝜔) =
1 + 𝑗𝜔𝑅𝐶
R
n(t) no(t)
C
C
Solution
La puissance totale N0 à la sortie peut être obtenue à partir de la densité de puissance du
bruit à la sortie qui est exprimée comme,
34
1
𝐺𝑛0 (𝑓) = 𝐺𝑛 (𝑓)|𝐻(𝑗𝜔)|2 , 𝐻(𝑓) =
1 + 𝑗(𝑓⁄𝑓0 )
Où
1
2𝜋𝑓0 =
𝑅𝐶
Alors la puissance totale à la sortie est
+∞ +∞
𝜂 𝜂 +∞ 1
𝑁0 = ∫ 𝐺𝑛0 (𝑓) 𝑑𝑓 = ∫ |𝐻(𝑓)|² 𝑑𝑓 = ∫ 𝑑𝑓
−∞ −∞ 2 2 −∞ 1 + (𝑓⁄𝑓0 )²
Soit
𝑁0 = 𝜂𝜋 𝑓0⁄2
Exemple 2.
Considérer la figure ci-dessous
n(t) 1 no(t)
𝑑
𝛼
𝑑𝑡
-B +B
Solution
Pour le différenciateur, sa fonction de transfert est 𝐻1 (𝑗𝜔) = 𝑗𝜔𝛼. Pour le filtre
passe bas, 𝐻2 (𝑗𝜔) = 1 avec –B < f < B. Alors
𝐵 𝐵
ƞ
𝑁0 = ∫ ( ) ⌊𝑗2𝜋𝑓𝛼⌋² 𝑑𝑓 = 2ƞ𝜋²𝛼² ∫ 𝑓² 𝑑𝑓
−𝐵 2 −𝐵
Exemple 3.
Un bruit blanc de densité 𝜂⁄2, pénètre dans un intégrateur de 0 à T. Obtenir la
puissance du bruit à la sortie.
Solution
La fonction de transfert de l’intégrateur de 0 à T est, d’après la Théorie des
Transformées de Fourier,
𝜔𝑇
−𝑗𝜔𝑇 𝑠𝑖𝑛 (
𝐻(𝑗𝜔) =
1
[1 − 𝑒 −𝑗𝜔𝑇
]=𝑒 2 2 ).𝑇
𝑗𝜔𝜏 𝜔𝑇
(2 ) 𝜏
Alors
2
∞
𝜂 𝑇 2 𝑠𝑖𝑛(𝜋𝑓𝑇)
𝑁0 = ∫ ( ) ( ) 𝑑𝑓
−∞ 2 𝜏 𝜋𝑓𝑡