Processus Aléatoires en Électronique
Processus Aléatoires en Électronique
Luc Deneire
Iannis Aliferis
Les statistiques, c’est comme le bikini : ça donne des idées mais ça cache
l’essentiel !
Coluche
Processus Aléatoires 2
Table des matières
1 Introduction 7
1.1 De la variable aléatoire vers le processus aléatoire . . . . . . . . . 7
1.1.1 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Processus Stochastiques 9
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Grandeurs statistiques . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Stationnarité (au sens large) . . . . . . . . . . . . . . . . 11
2.3.2 bm=Propriétés de R_X(tau) . . . . . . . . . . . . . . . . 11
2.3.3 Cyclo-stationnarité . . . . . . . . . . . . . . . . . . . . . . 13
2.3.4 Mesurer l’espérance (un peu de Statistique) . . . . . . . . 13
2.4 Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4.1 Interpétation de l’espérance et de la variance . . . . . . . 14
2.5 Densité spectrale de puissance . . . . . . . . . . . . . . . . . . . . 15
2.5.1 Densité spectrale de puissance (ssl) . . . . . . . . . . . . . 15
2.5.2 Densité spectrale de puissance (csl) . . . . . . . . . . . . . 15
2.5.3 Densité spectrale de puissance : propriétés . . . . . . . . . 16
2.5.4 Deux processus stochastiques . . . . . . . . . . . . . . . . 16
2.6 Filtrage d’un processus stochastique . . . . . . . . . . . . . . . . 17
2.7 Processus gaussien : définition . . . . . . . . . . . . . . . . . . . . 17
2.7.1 Processus gaussien : propriétés . . . . . . . . . . . . . . . 17
2.7.2 Signal binaire aléatoire . . . . . . . . . . . . . . . . . . . . 18
2.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Bruit 23
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.1 Bruit thermique : definition . . . . . . . . . . . . . . . . . 23
3.1.2 Bruit thermique : dsp disponible . . . . . . . . . . . . . . 24
3.1.3 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.4 Bruit coloré . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 4
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
7 Chaînes de Markov 93
7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2 Matrice de transition . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.3 Trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7.4 Classification des états . . . . . . . . . . . . . . . . . . . . . . . . 94
7.5 Périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.6 Comportement à long terme . . . . . . . . . . . . . . . . . . . . . 95
7.7 Chaînes ergodiques . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.8 Processus de naissance et de mort . . . . . . . . . . . . . . . . . 96
7.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Syllabus
Ce polycopié couvre le cours de “Processus Aléatoires”, donné en ELEC3,
comprenant la partie cours magistral ainsi que les exercices donnés en travaux
dirigés.
Outre qu’il convient (malheureusement !) de rappeler que la présence aux
cours et travaux dirigés est obligatoire, il est utile d’indiquer que les matières
enseignées dans ces cours demandent un travail régulier qui ne peut pas être
compensé par un travail, même sérieux, sur un temps court avant les DS (devoirs
surveillés).
De manière à aider les étudiants motivés que vous êtes à fournir ce travail ré-
gulier, les travaux dirigés devront être impérativement préparés chaque semaine,
et cette préparation sera sanctionnée par une note de contrôle continu.
D’autre part, deux devoirs surveillés seront organisés pour chaque cours.
Le contrôle des connaissances sera donc organisé de la manière suivante :
Processus Aléatoires 5
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires
Contrôle continu D.S. 1 (10ème cours)
Pondération 40 % 60 %
Processus Aléatoires 6
Chapitre 1
Introduction
Un processus aléatoire (ou processus stochastique) peut être
vu comme un processus qui est le résultat d’un événement
aléatoire. Il peut également être vu comme étant une collec-
tion de variables aléatoires.
1.1.1 Bibliographie
– Probabilités, Processus de Bernoulli, Poisson, Markov :
– D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,
Athena Scientific, Belmont, 2002
– Signaux aléatoires, bruit, filtrage :
– S. Haykin, “Communication Systems”, 3rd edition,
John Wiley & Sons, New York, 1994, Ch. 4
7
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 8
Chapitre 2
Processus Stochastiques
e Polytechnique de l’UNS Département d’Électronique
tech’Nice-Sophia 3e année
2.1 Définition
ocessus Stochastiques 6
– Associer une fonction à chaque issue
d’une expérience aléatoire
éfinition
Associer une fonction à chaque issue
d’une expérience aléatoire x1 (t)
X(ω, t)
t
ω2 x2 (t)
ω1
Ω ωn
t
xi (t) = X(ωi , t)
xn (t)
une réalisation de X(ω, t)
7
2.2 Grandeurs statistiques
– Observer X(t) aux instants t1 , t2 , . . . , tk
– Obtenir k V.A. : X(t1 ), X(t2 ), . . . , X(tk )
– Densité de probabilité conjointe : pX(t1 )X(t2 )...X(tk ) (x1 , x2 , . . . , xk )
9
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
2.3 Stationnarité
Processus Aléatoires 10
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année
École Polytechnique
École dede
Polytechnique l’UNS
l’UNSA Département d’ÉlectroniqueDépartement d’Électronique
Stationnarité (au sens large)
Polytech’Nice-Sophia
Polytech’Nice-Sophia 3e année 3e année
x1 (t) τ τ
2.3.1 Stationnarité (au sens large)
Stationnarité (au sens large)
t
x1 (t) τ τ
x2 (t)
mX (t) = mX
t
t RX (t1 , t2 ) = RX (τ )
x2 (t)
xn (t) mX (t) = mX
t RX (t1 , t2 ) = RX (τ )
xn (t) t
t1 t2 t1 + ∆T
t2 + ∆T
t
t1 t2 t1 + ∆T 10
t2 + ∆T
10
2.3.2 Propriétés de RX (τ )
– X(t) : stationnaire (au sens large)
11
École Polytechnique de l’UNSA Département d’Électronique
École Polytech’Nice-Sophia
Polytechnique de l’UNS 3e année
Département d’Électronique
Polytech’Nice-Sophia 3e année
École Polytechnique de l’UNS Département d’Électronique
Signal sinusoïdal ; fréquence aléatoire
Polytech’Nice-Sophia 3e année
Signal sinusoïdal ; fréquence aléatoire
1.0
Signal sinusoïdal ; fréquence aléatoire
0.5
1.0
0.0
0.5
!0.5
0.0
!1.0
!0.5
!10 !5 0 5 10
!1.0
! X(t) = a cos(2πF
!10 t) ; F v.a. uniforme
!5 sur [0, W ] (W
0 = 1) 5 10
! mX (t) = a sinc(2W t)
! RX (t–=
! X(t) 1 ;X(t)
τa = t2=
− at1t)
cos(2πF )= a2
cos(2πF t) ; F (2t
{sinc[2W
; F2 v.a. v.a.
uniforme +uniforme
1sur )] −
τ[0, ] (W sur
W sinc[2W 1)[0,
= (τ )]}W ] (W = 1)
! –
Signal non
m stationnaire
(t) =
! m (t) = a sinc(2W t)
X a sinc(2W t)
X
2
RX (t–1 ; R t1 ) = a2(2t{sinc[2W
2
! τX= (t ) =t2a2−{sinc[2W
; τt1=
t21− (2t1 + τ(τ)])]}− sinc[2W (τ )]}
1 + τ )] − sinc[2W 12
! – non
Signal Signal non stationnaire
stationnaire
12
!10 !5 0 5 10
!1.0
! X(t) = A cos(2πf
!10 t) ; A v.a. uniforme
!5 sur [0, 1] (f0 = 1) 5 10
! mX (t) = 12 cos(2πf t)
! RX (t1 ; τ = t2 − t1 ) = 16 {cos[2πf (2t1 + τ )] + cos(2πf τ )}
!
! X(t)
mX (t=+ATcos(2πf t) ; et
) = mX (t) AR v.a. uniforme sur [0, 1] (f = 1)
X (t + T ; τ ) = RX (t; τ )
!
! m = 12 cos(2πf t) (au sens large)
X (t) cyclo-stationnaire
Signal
! RX (t–1 ; X(t)
τ = t2= −At1 )cos(2πf t) ; A
= 16 {cos[2πf (2tv.a.
1 + τuniforme
)] + cos(2πfsur
τ )}[0, 1] (f = 1)
! mX (t– +mTX) (t)= m= 1
X (t)
2 et
cos(2πf
R X (t t)
+ T ; τ ) = R X (t; τ ) 13
! – cyclo-stationnaire
Signal RX (t1 ; τ = t2 −(au t1 )sens 1
= large)
6 {cos[2πf (2t1 + τ )] + cos(2πf τ )}
– mX (t + T ) = mX (t) et RX (t + T ; τ ) = RX (t; τ )
13
– Signal cyclo-stationnaire (au sens large)
Processus Aléatoires 12
Processus Stochastiques 9
Processus Stochastiques 9
École École
Polytechnique de l’UNS de l’UNSA
Polytechnique Département
Département d’Électronique
d’Électronique
Polytech’Nice-Sophia
Polytech’Nice-Sophia 3e année
3e année
Signal
Signal sinusoïdal
sinusoïdal ; phase
; phase aléatoire
aléatoire
1.0
0.5
0.0
!0.5
!1.0
! X(t)–=X(t) = atcos(2πf
a cos(2πf + Θ) ; Θt v.a.
+ Θ) ; Θ v.a.
uniforme sur uniforme
[0, 2π] (a =sur
1, f[0, 1) (a = 1, f = 1)
= 2π]
! – m
mX (t) =X 0 (t) = 0
2
! RX (t–1 ;RτX=(tt21− ) =t2a2−cos(2πf
; τt1=
2
t1 ) = τa2) cos(2πf τ )
! Signal stationnaire (au sens large)
– Signal stationnaire (au sens large)
14
2.3.3 Cyclo-stationnarité
– « Est-ce que les propriétés statistiques changent périodiquement avec le
temps ? »
– Observer X(t) aux instants t1 , t2 , . . . , tk
– Obtenir k V.A. : X(t1 ), X(t2 ), . . . , X(tk )
Cyclo-stationnarité
– Observer X(t) aux instants t1 + T0 , t2 + T0 , . . . , tk + T0
! « Est-ce – que
Obtenir k V.A.statistiques
les propriétés : X(t1 +changent T0 ), X(tpériodiquement
2 + T0 ), . . . , X(t
aveckle+temps T0 ) ? »
– X(t)
! Observer X(t)cyclo-stationnaire
aux instants t1 , t2 , . . au . , tksens strict (css) ∃T0 :
pX(t1k)X(t
" Obtenir V.A. 2 )...X(t
(x1 , x),2 ,. .. .. ,. X(t
: X(tk1)), X(t
, xk )) = pX(t1 +T0 )X(t2 +T0 )...X(tk +T0 ) (x1 , x2 , . . . , xk )
2 k
∀k , ∀(t1 , t2 , . . . , tk )
! Observer X(t) aux instants t1 + T0 , t2 + T0 , . . . , tk + T0
– X(t) cyclo-stationnaire au sens large (csl) ∃T0 :
" Obtenir
k = 1k (css V.A. :: X(t pX(t 1+ T0 ),=
(x) X(t pX(t2 + T+T 0 ), .).(x)
. , X(t
, k∀t+1T)0 )
1) 1 0
csl : mX (t1 au
! X(t) cyclo-stationnaire +T 0) =
sens mX(css)
strict (t1 )∃T0 :
k 2=
pX(t1 )X(t 2 (css
)...X(t k)
(x1 ,: xp2X(t
, . . .1,)X(t
xk ) 2=) (x 1, x
pX(t 2 )0 )X(t
1 +T = p2X(t 1 +T0 )X(t
+T0 )...X(t (x10, )x(x
2 +T
k +T0 )
, 2x)k ), ∀t1 , t2 )
2 , .1.,.x
∀k , ∀(t1 ,csl
t2 , .:. .R, tXk )(t1 + T0 ; τ ) = RX (t1 ; τ )
! X(t) cyclo-stationnaire au sens large (csl) ∃T0 :
k = 1 (css : pX(t1 ) (x) = pX(t1 +T0 ) (x) , ∀t1 )
2.3.4 Mesurer l’espérance (un peu de Statistique)
csl : mX (t1 + T0 ) = mX (t1 )
k = 2 –(css : pX(tX(t)
Figer (x1 , x2 ) = pX(t
1 )X(t2 )à l’instant t0 1; +T
obtenir
0 )X(t2 +Tv.a.
0)
, x2 ) ,) ∀t1 , t2 )
(x1X(t
0
csl : RX (t1 + T0 ; τ ) = RX (t1 ; τ )
– Comment mesurer E {X(t0 )} ?
– Observer n réalisations à t0 : échantillon de taille n 15
– La population génère de v.a. Xi (t0 ) :
indépendantes, même distribution, µX(t0 ) , σX(t0 )
Xn
– Moyenne de l’échantillon : X̄(t0 ) = n1 Xi (t0 )
i=1
– E X̄(t0 ) = µX(t0 )
Processus
Processus Aléatoires
Stochastiques 10 13
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
– σX̄(t
2
0)
= n1 σX(t
2
0)
2.4 Ergodicité
– « Est-ce que les moyennes statistiques sont égales aux moyennes tempo-
relles ? »
– Équiv. : « Est-ce qu’une seule réalisation x(t) caractérise complètement le
processus stochastique X(t) ? »
– Ergodicité au sens strict :
– Condition nécessaire : X(t) stationnaire au sens strict
Z +T /2
ess
< . . . > , limT →∞ T1 . . . dt = E {. . .}
−T /2
– Ergodicité au sens large :
– Condition nécessaire : X(t) stationnaire au sens large
Z +T /2
1. < x(t) > = limT →∞ T1 x(t) dt
−T /2
esl
= E {X(t)} = mX
Z +T /2
2. ΓX (τ ) = < x(t + τ )x(t) > = limT →∞ T1 x(t + τ )x(t) dt
−T /2
esl
= E {X(t + τ )X(t)} = RX (τ )
– X(t) : p.s. stationnaire au sens large
Z +T /2 Z
1 +T /2
– Définir : µx (T ) = T
1
x(t) dt , γx (T ; τ ) = x(t + τ )x(t) dt
−T /2 T −T /2
– variables aléatoires
(Z(dépendent de ) T et de la réalisation choisie)
+T /2 Z +∞ Z +T /2
– E {µx (T )} = T1 E x(t) dt = T1 x(t)pX(t) (x) dt dx
−T /2 −∞ −T /2
Z +T /2 Z
1 +T /2
= T1 E {X(t)} dt = mX dt = mX
−T /2 T −T /2
– E {γx (T ; τ )} = . . . = RX (τ )
– Ergodicité au sens large :
Z +T /2
1 esl
< x(t) > = limT →∞ T x(t) dt = lim µx (T ) = mX
−T /2 T →∞
Z +T /2
esl
ΓX (τ ) = limT →∞ T1 x(t + τ )x(t) dt = lim γx (T ; τ ) = RX (τ )
−T /2 T →∞
– Égalité au sens :
limT →∞ E {µx (T )} = mX et limT →∞ var[µx (T )] = 0
Processus Aléatoires 14
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
ssl esl
– E {X(t)} = mX = < x(t) > = composante continue (DC)
2
– E {X(t)} = Pdc
esl
– E X(t)2 = RX (0) = Γx (0) = < x(t)2 > = P̄tot (DC+AC)
2
– 2
σX(t) = var[X(t)] = E (X(t) − E {X(t)})2 = E X(t)2 − E {X(t)}
esl
= < x(t)2 > − < x(t) > 2 = < (x(t)− < x(t) >)2 > = P̄ac (AC)
p
– σX(t) = P̄ac : valeur efficace (rms)
2
E X(t)2 = E {X(t)} + σX(t)
2
−→ P̄tot = Pdc + P̄ac
– Puissance de X(t) :
Z +∞
E X(t) 2
= RX (t, t) = RX (0) = SX (f ) df
−∞
– Z +T0 /2
1
cn = n
RX (τ ) = RX (t; τ ) e− j 2π(n/T0 )t dt
T0 −T0 /2
Z +T0 /2
– « Composante continue » c0 = RX 0
(τ ) = T10 RX (t; τ ) dt , R̄X (τ )
−T0 /2
– S̄X (f ) = F R̄X (τ ) : d.s.p. moyenne sur une période
Processus Aléatoires 15
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
trale
X (f, T ) : v.a. (dépend de la réalisation choisie)
Si X(t) ergodique au sens large,
1
SX (f ) = lim E |X (f, T )|2
T →∞ T
2
Z T /2
1
= lim E x(t) exp(− j 2πf t) dt
T →∞ T −T /2
– En pratique : E {. . .} = moyennage
Processus Aléatoires 16
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
–
SY X (f ) = H(f )SX (f )
Processus Aléatoires 17
École Polytechnique de l’UNSA Département d’Électronique
École Polytechnique de l’UNS
Polytech’Nice-Sophia Département d’Électronique
3ee année
Polytech’Nice-Sophia 3 année
+A
t
−A
td Tb
!+∞
! X(t) = k=−∞ Ak p(t − kTb − Td )
! +∞à temps discret, p (a = +A) = p (a = −A) = 0.5
X
Ak : p.s. discret Ak k Ak k
!– X(t)
E[A k ] ==0 Ak p(t − kTb − Td )
! indépendantes−→ RA (m, n) = E[Am An ] = A2 δ(m − n)
v.a. Am , Ank=−∞
! p(t) = 1 , 0 ≤ t ≤ Tb
– Ak : p.s. discret à temps discret, pAk (ak = +A) = pAk (ak = −A) = 0.5
! Tb : constante
!– E
Td :{A k } uniforme
v.a.c., = 0 [0, Tb ]
– v.a. Am , An indépendantes −→ RA (m, n) = E {Am An } = A2 δ(m − n)
27
– p(t) = 1 , 0 ≤ t ≤ Tb
– Tb : constante
– Td : v.a.c., uniforme [0,Tb ]
(
2 |τ |
A 1 − Tb , |τ | < Tb
– RX (τ ) =
0 , ailleurs
–– SX (f ) = A2 Tb sinc2 (Tb f )
|P (f )|2
SX (f ) = où P (f ) = F[p(t)]
Tb
2.8 Exercices
Exercice 2.1 Fréquence aléatoire
Processus Aléatoires 18
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 19
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
t
b
1 2
Fig. 1
Processus Aléatoires 20
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
t
1 2
Fig. 2
Processus Aléatoires 21
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 22
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année
+A
t
−A
td Tb
! " #
|τ |
A2 1− Tb , |τ | < Tb
! RX (τ ) =
Chapitre 3 0
! SX (f ) = A2 Tb sinc2 (Tb f )
, ailleurs
! |P (f )|2
SX (f ) = où P (f ) = F[p(t)]
Tb
Bruit 28
Bruit 29
3.1 Définition
Définition
– Signal indésirable
! Signal indésirable
!– Contrôle
Contrôle incomplet
incomplet
!– Externe
Externe ou interne
ou interne au système
au système
!– Additifouou
Additif multiplicatif
multiplicatif
Y (t)
Y (t)=
= s(t)+N
s(t)+N (t)(t)
30
23
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
SV (f ) KT
Sa (f ) = = (W/Hz)
4R 2
SX (f ) RX (τ )
η η
2 2
f τ
! Bruit blanc gaussien centré : rien de plus aléatoire !
– Bruit blanc gaussien centré : rien de plus aléatoire !
33
1. le bruit blanc est irréalisable (puissance moyenne infinie !)
si on l’observe à l’oscillo, il est toujours différent (RX = 0) mais pour
chaque base de temps il a la même allure (contient toutes les frequences)
2. Blanc se réfère à la dsp
Gaussien à la densité de probabilité
3. Si un bruit blanc est gaussien à moyenne nulle, alors les v.a. qu’on obtient
à τ 6= 0 sont décorrélées, c.a.d. indépendantes. Le bruit blanc gaussien
centre est la « chose » la plus aléatoire qui existe. . .
Commentaires
1. le bruit blanc est irréalisable (puissance moyenne infinie !)
si on l’observe à l’oscillo, il est toujours différent (RX = 0) mais pour chaque base de temps il a la
3.1.4 Bruit coloré
même allure (contient toutes les frequences)
2. Blanc se réfère à la dsp
– Bruit blanc filtré (fonction de transfert H(f ))
Gaussien à la densité de probabilité
– S3.Y (f
Si un =
) |H(f
bruit
2
blanc)|estSgaussien |H(f )|
X (f ) à=moyenne
2
η/2
nulle, alors les v.a. qu’on obtient à τ != 0 sont décorrélées,
c.a.d. indépendantes. Le bruit blanc gaussien centre est la « chose » la plus aléatoire qui existe. . .
– RY (τ ) = η2 F −1 |H(f )|2
– Bande passante équivalente
Z +∞ bruit, BN : Z
2 +∞
η
E Y = RY (0) = 2 2
|H(f )| df = η |H(f )|2 df
−∞ 0
, ηBN |H(f )|2max
– Exemple : bruit blanc à l’entrée d’un filtre passe-bas idéal
– H(f ) = 1 , −B ≤ f ≤ +B
– SY (f ) = η/2 , −B ≤ f ≤ +B
– RY (τ ) = η2 2Bsinc(2Bτ )
Z +∞
– E Y2 = SY (f ) df = ηB
−∞
– |H(f )|max = 1
E{Y 2 }
– BN = η|H(f )|2 =B
max
Processus Aléatoires 25
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 26
Chapitre 4
Signaux passe-bande
(rappels)
4.1 definition
– y(t) Y (f ) : signal réel, déterministe (passe-bande)
– Y (f ) 6= 0 , |f | ∈ [fc − B, fc + B] (autour de ±fc )
– y+ (t) Y+ (f ) : signal analytique (passe-bande, f > 0)
0 f <0
Y+ (f ) = Y (f ) f = 0 → Y+ (f ) 6= 0 , f ∈ [fc − B, fc + B]
2Y (f ) f > 0
– y(t) = Re{y+ (t)}
– ỹ(t) Ỹ (f ) : enveloppe complexe (bande de base)
Ỹ (f ) = Y+ (f + fc ) 6= 0 , f ∈ [−B, +B]
– y(t) = Re{y+ (t)} = Re{ỹ(t) exp( j 2πfc t)}
– ỹ(t) = yI (t) + j yQ (t) → y(t) = yI (t) cos(2πfc t) − yQ (t) sin(2πfc t)
– ỹ(t) = a(t) exp( j φ(t)) → y(t) = a(t) cos(2πfc t + φ(t))
– yI (t), yQ (t), a(t), φ(t) : signaux réels, en bande de base [−B, +B]
27
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
(
SN (f − fc ) + SN (f + fc ) −B ≤ f ≤ B
– SNI (f ) = SNQ (f ) =
0 ailleurs
– Si N (t) gaussien : NI (t), NQ (t) conjointement gaussiens
– Si N (t) gaussien centré et SN (f ) symétrique autour de ±fc :
NI (t), NQ (t) indépendants
– Bruit blanc gaussien centré à l’entrée d’un filtre sélectif
– Représentation canonique :
N (t) = NI (t) cos(2πfc t) − NQ (t) sin(2πfc t)
– Transformation en amplitude / phase (Statistiques Appliquees, TD 4.3)
NI (t), NQ (t) indépendants :
N (t) = q
R(t) cos[2πfc t + Φ(t)]
– R(t) = NI2 (t) + NQ
2 (t)
– RX (t1 , t2 ) = E {X(t
n 1 )X(t2 )} o
= 4 E X̃(t1 )X̃(t2 ) exp( j 2πfc (t1 + t2 ))
1
n o
+ 41 E X̃ ∗ (t1 )X̃ ∗ (t2 ) exp(− j 2πfc (t1 + t2 ))
n o
+ 41 E X̃(t1 )X̃ ∗ (t2 ) exp( j 2πfc (t1 − t2 ))
n o
+ 41 E X̃ ∗ (t1 )X̃(t2 ) exp(− j 2πfc (t1 − t2 ))
n n o o
– RX (t1 , t2 ) = 21 Re E X̃(t1 )X̃(t2 ) exp( j 2πfc (t1 + t2 ))
n n o o
+ 21 Re E X̃(t1 )X̃ ∗ (t2 ) exp( j 2πfc (t1 − t2 ))
n o
– E X̃(t1 )X̃(t2 ) = 0 (sans démonstration)
n n o o
– RX (t1 , t2 ) = 21 Re E X̃(t1 )X̃ ∗ (t2 ) exp( j 2πfc (t1 − t2 ))
– n o
RX̃ (t1 , t2 ) , E X̃(t1 )X̃ ∗ (t2 )
–
1
RX (t1 , t2 ) = Re {RX̃ (t1 , t2 ) exp( j 2πfc (t1 − t2 ))}
2
– Si X(t) ssl, RX̃ (t1 , t2 ) = RX̃ (τ )
Processus Aléatoires 28
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
SY X (f )
H(f ) =
SX (f )
E {Y(f, T )X ∗ (f, T )}
H(f ) =
E {|X (f, T )|2 }
Processus Aléatoires 29
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Stochastiques
École Polytechnique de l’UNSA TD 3 Département d’Électronique
Polytech’Nice-Sophia Bruit et filtrage 3e année
3.1 Filtrage
Deux bruits / échantillonnage
blancs gaussiens, centrés, décorrélés, stationnaires au sens large,
de densitéDeux bruits blancs
spectrale degaussiens,
puissancecentrés, décorrélés,
η1 /2 stationnaires
et η2 /2 au sens large,se super-
respectivement,
posentdeà densité spectrale
l’entrée d’undefiltre
puissance 1 /2 et η2 /2 respectivement, se superposent à
RC ηpasse-bas.
l’entrée d’un filtre RC passe-bas.
X1 (t)
X(t)
H(f ) Y (t)
X2 (t)
La sortie Y (t) est échantillonnée. Quelle est la condition qu’il faut imposer
La sortie
sur laY fréquence
(t) est échantillonnée.
d’échantillonnage siQuelle
on veut est
que la
les condition qu’il faut
échantillons successifs de imposer
(t) soient indépendants
sur la Yfréquence ?
d’échantillonnage si on veut que les échantillons successifs
de Y (t) soient indépendants
Remarque 1 On considère ? que l’autoccorélation statistique de Y (t) est nulle
si elle est inférieure à 1% de la valeur maximale.
Remarque 4.1 On considère que l’autoccorélation statistique 2a de Y (t) est
Remarque 2 On peut utiliser la relation (paire de Fourier) : e−a|t| ↔ a +(2πf
2 ) .
2
nulle si elle est inférieure à 1% de la valeur maximale.
3.2 « Démodulation »
Remarque 4.2 On peut utiliser la relation (paire de Fourier) : e−a|t| ↔
2a
a2 +(2πf )2
. Y (t) U (t)
X(t) H1 (f ) H2 (f ) V (t)
Processus Aléatoires 30
X2 (t)
La sortie Y (t) est échantillonnée. Quelle est la condition qu’il faut imposer
sur la fréquence d’échantillonnage si on veut que les échantillons successifs de
Y (t) soient indépendants ?
Polytech’Nice-Sophia 3e année
3.2 « Démodulation »
Y (t) U (t)
X(t) H1 (f ) H2 (f ) V (t)
2 exp (− j 2πfc t)
Les fonctions
Les fonctions de transfert
de transfert des deuxdesfiltres
deuxsont
filtres sont par
données données
(B << par
fc (B
) : << fc ) :
( ! ( !
1 , |f
1 ± f|f
, c| ±
≤Bf c | ≤ B 1 , |f | 1≤, B |f | ≤ B
H1 (fH)1=
(f ) 0=, ailleurs H2 (f ) =H2 (f0 ), =ailleurs
0 , ailleurs 0 , ailleurs
Le processus stochastique X(t), à l’entrée du premier filtre, est stationnaire
Le processus stochastique X(t), à l’entrée du premier filtre, est stationnaire
au sens large, réel, à temps continu.
au sens large, réel, à temps continu.
1. Calculer la moyenne statistique de Y (t).
a. Calculer la moyenne statistique de Y (t).
2. Calculer la densité spectrale de puissance SY (f ) en fonction de SX (f ).
On met SY (f ) sous la forme :
Processus Stochastiques 1
SY (f ) = SY+ (f ) + SY− (f )
1. E[Y (t)] = 0.
(
SX (f ) , |f ± fc | ≤ B
2. SY (f ) = .
0 , sinon
c. SY+ (−f ) = SY− (f ).
d. RU (τ ) = 4e− j 2πfc τ RY (τ ).
(
SU (f ) , −B ≤ f ≤ B
e. SV (f ) = = 4SY+ (f + fc ).
0 , sinon
η
f. RY (τ ) = 2
sinc(2Bτ ) cos(2πfc τ ) ; P = RY (0) = η2B.
g. RV (τ ) = 4 η2 2Bsinc(2Bτ ); P = RV (0) = η4B.
Processus Aléatoires 31
TD 3
Bruit et filtrage
X2 (t)
La sortie Y (t) est échantillonnée. Quelle est la condition qu’il faut imposer
sur la fréquence d’échantillonnage si on veut que les échantillons successifs de
Y (t) soient indépendants ?
Remarque
On 2 On peutd’un
donne le schéma-bloc utiliser la relation
récepteur (paire
composé d’undefiltre
Fourier) :e
passe-bande ↔
et
−a|t|
a2 +(2πf )2 .
2a
Y (t) U (t)
X(t) H1 (f ) H2 (f ) V (t)
2 exp (− j 2πfc t)
Les fonctions
Les fonctions de transfert
de transfert des deuxdesfiltres
deuxsont
filtres sont par
données données
(B << par
fc )(B
: << fc ) :
( ! ( !
1 , |f
1 ,± f|f
c| ±
≤Bfc | ≤ BH2 (f ) = 1 , |f | 1≤,B |f | ≤ B
H1 (fH) =
1 (f ) 0=, ailleurs H2 (f0 ), =ailleurs
0 , ailleurs 0 , ailleurs
Le signal aléatoire à l’entrée du récepteur peut être modélisé par :
Le processus stochastique X(t), à l’entrée du premier filtre, est stationnaire
au sens large, réel, à temps
X(t)continu.
= S(t) + W (t)
a. Calculer
où S(t) la moyenne
est le signal modulé enstatistique deW
amplitude et Y (t)
(t).un bruit blanc, gaussien,
centré, de dsp égale à η/2.
ÀProcessus
l’émetteur, on obtient S(t) en multipliant
Stochastiques 1 le message M (t) (signal aléa-
toire, stationnaire au sens large, dont la dsp se situe en bande de base et
occupe une bande passante égale à B) avec le signal d’un oscillateur local,
Ac cos(2πfc t).
À la sortie du filtre passe-bande, on a Y (t) = S(t) + N (t). Utiliser la repré-
sentation canonique du bruit passe-bande sous la forme :
Processus Aléatoires 32
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
=
E {S(t)} indépendance Ac .E {M (t)} .E {cos(2πfc t + Θ)} = 0
Donc
A2c
S(f ) = F{RS (τ )} = (SM (f − fc ) + SM (f + fc ))
2
A2c A2c
La puissance vaut donc PS = RS (0) = 2 RM (0) = PM 2 .
On obtient alors : 2 Ac
PS .PM
– SNRc = Pbruit = 2
ηB
– SNRe :
SY (f ) = |H1 (f )|2 SX (f )
(on a une dsp de niveau η/2 sur les intervalles fc ± B et
−fc ± B).
A2
c .P
d’où SNRe = 22.ηBM
– On s’intéressera à la partie réelle de U (t)
Processus Aléatoires 33
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 34
Chapitre 5
35
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
R = RH (5.7)
Cette propriété découle directement de la définition de la matrice de cor-
rélation. On peut d’ailleurs aisément vérifier que r(−k) = r∗ (k). Dans le
cas d’un processus à valeurs réelles, la matrice R est symétrique.
2. La matrice de corrélation d’un processus stationnaire discret est une ma-
trice Toeplitz carrée.
Une matrice carrée est dite Toeplitz si tous les éléments d’une même dia-
gonale ou sous-diagonale sont égaux. On voit directement que c’est le cas
ici. D’autre part, cette propriété est directement liée à la propriété de sta-
tionnarité (au sens large) du processus. Cette propriété est importante,
car elle permet dans bien des cas de simplifier les calculs algébriques.
3. La matrice de corrélation d’un processus stationnaire discret est toujours
définie non négative (et souvent définie positive).
Soit X un vecteur aléatoire complexe quelconque de dimension M x1. Dé-
finissons Y = uH X(n) (et donc y ∗ = uH (n)X). La puissance de Y est
définie par :
E |Y |2 = E {Y
HY ∗}
= E u X(n)XH (n)u
(5.8)
= uH E X(n)XH (n) u
= uH Ru
Processus Aléatoires 36
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
1 + ρ1 exp(jω) ··· exp(jω(M − 1))
exp(−jω) 1 + ρ1 ··· exp(jω(M − 2))
R = |α|2 .. .. .. ..
. . . .
exp(jω(−M + 1)) exp(jω(−M + 2)) ··· 1 + ρ1
(5.11)
2
où ρ est le rapport signal-bruit défini par ρ = |α|
σv2 .
Dans le cas où ce rapport est infini (c’est-à-dire dans le cas sans bruit), R
peut s’écrire :
1
e−jω
h i
e −2jω
R= . 1ejω e2jω · · · e(M −1)jω (5.12)
..
.
e−(M −1)jω
Il s’ensuit que la matrice R est de rang 1. Dans le cas de K sinusoïdes, nous
aurons donc une matrice de rang (au plus égal) à K.
Processus Aléatoires 37
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
La densité spectrale étant obtenue en évaluant Sxx (z) sur le cercle unité.
Supposons que Sxx (z) est analytique dans une région incluant le cercle unité.
On peut alors écrire la série de Laurent :
∞
X
log Sxx (z) = ν(m)z −m (5.14)
m=−∞
ce qui, sur le cercle unité, devient :
∞
X
log Sxx (f ) = ν(m)e−j2πf m (5.15)
m=−∞
Les coefficients ν(m) sont donc les coefficients de Fourier de la série de Fourier
représentant la fonction périodique log Sxx (f ). Donc :
Z 1
2
ν(m) = log Sxx (f )e−j2πf m df, m = 0; ±1, . . . (5.16)
− 12
Processus Aléatoires 38
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
∞
X
u(n) = hk v(n − k)
v(n) k=0
Filtre Linéaire causal H(z)
Bruit blanc
u(n) v(n)
1
Filtre Linéaire causal H(z)
Bruit Blanc
B(z)B(z −1 )
Sxx (z) = σv2 r1 < |z| < r2 (5.21)
A(z)A(z −1 )
où B(z) et A(z) ont leurs racines à l’intérieur du cercle unité. On peut alors
écrire :
q
X
bk z −k
B(z) k=0
H(z) = σv2 = p r1 < |z| (5.22)
A(z) X
−k
1+ ak z
k=1
De plus, par construction, H(z) est causal, stable et à phase minimale. Son
inverse 1/H(z) est également causal, stable et à phase minimale.
On peut exprimer la relation ci-dessus par l’équation aux différences sui-
vante :
p
X q
X
X(n) + ak X(n − k) = bk V (n − k) (5.23)
k=1 k=0
Processus Aléatoires 39
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
p
X
X(n) + ak X(n − k) = V (n) (5.24)
k=1
v(n) u(n)
+
Bruit blanc Processus AR
z −1
+ a1
z −1
+ aq−1
z −1
aq
Exercice 5.1 D
Processus Aléatoires 40
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
−5
0 50 100 150 200 250
10
−10
0 50 100 150 200 250
20
10
−10
0 50 100 150 200 250
Figure 5.3 – Exemples de processus AR. Bruit blanc ; A=[1 0.1 -0.8] ; A =
[1 -0.975 0.95]
q
X
X(n) = bk v(n − k) (5.25)
k=0
v(n)
z −1 z −1 z −1
b1 b2 bp−1 bp
u(n)
+ + + +
processus
MA
Figure 5.4 – Filtre générateur de processus MA
Processus Aléatoires 41
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
−5
0 50 100 150 200 250
5
−5
−10
0 50 100 150 200 250
−5
0 50 100 150 200 250
5
−5
0 50 100 150 200 250
0.5
−0.5
0 50 100 150 200 250
Figure 5.6 – Exemples de processus AR. Bruit blanc, A=[1 -0.975 0.95] B
comme ci-dessus
Processus Aléatoires 42
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
v(n)
+ b0 +
Bruit blanc processus
ARMA
z −1
+ a1 b1 +
z −1
+ aq−1 bp
z −1
aq
Processus Aléatoires 43
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
p
X
E {X(n)X ∗ (n − m)} = − ak E {X(n − k)X ∗ (n − m)}
k=1
Xq (5.26)
∗
+bk E {V (n − k)X (n − m)}
k=0
Soit
p
X q
X
rxx (m) = − ak rxx (m − k) + bk rvx (m − k) (5.27)
k=1 k=0
p
X
− ak rxx (m − k), m>q
k=1
rx (m) = X p q−m
X (5.29)
− a r (m − k) + σ 2
hk bk+m , 0 ≤ m ≤ q
k xx v
k=1 k=0
∗
rxx (−m) m<0
Dans le cas d’un processus AR, ces équations se simplifient comme suit :
p
X
−
ak rxx (m − k), m>0
k=1
p
rxx (m) = X (5.30)
− ak rxx (m − k) + σv2 , m = 0
∗ k=1
rxx (−m) m<0
Processus Aléatoires 44
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
r(0) r∗ (1) ··· r∗ (p) 1 σv2
r(1) r(0) ··· r∗ (p − 1) a1 0
.. .. .. .. .. = ..
. . . . . .
r(p) r(p − 1) · · · r(0) ap 0
(5.31)
pace6mm
M
X
X̂(k) = − aM (m)X(k − m) (5.32)
m=1
2
n o M
X
min E |X(k) − X̂(k)|2 = min E X(k) + aM (m)X(k − m)
aM (m) aM (m)
m=1
(5.33)
Soit, en appelant l’erreur de prédiction d’ordre M à l’instant k : FM (k) et
en posant aM (0) = 1 :
M
X M
X
FM (k) = X(k) − X̂(k) = X(k) + aM (m)X(k − m) = aM (m)X(k − m)
m=1 m=0
(5.34)
L’erreur quadratique moyenne vaut alors :
p
X p X
X p
∗
2
E |FM (k)| = r(0) + 2< ap (k)r(k) + a∗p (l)ap (k)r(l − k) (5.35)
k=1 k=1 l=1
Processus Aléatoires 45
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Le critère MMSE.
Un cas particulier largement utilisé est le critère de l’erreur quadratique
moyenne minimale (Minimum Mean Squared Error) où la fonction de coût est :
CM M SE (θ̃) = |θ̃|2 avec θ̃ = θ − θ̂(U).
Dans ce cas, on obtient :
Z ∞
min RM M SE (θ̂(U)|U) = min f (θ|U)|θ − θ̂(U)|2 dθ (5.39)
θ̂(U) θ̂(U) −∞
D’où
Processus Aléatoires 46
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
De plus, cette dernière équation nous indique que nous sommes en présence
d’un minimum global.
Cet estimateur peut aisément s’étendre au cas de paramètres vectoriels.
n o Z Z Z
E θ̂(U)g(U) = fθ,U (θ, U)g(U)dθdU vfv=θ|U (v|U)dv
Z Z Z
= fU (U)g(U)dU vfθ|U (v|U)dv fθ|U (θ|U)dθ
| {z }
Z Z =1
Processus Aléatoires 47
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
d(n)
y(n) - e(n)
s(n) u(n) Filtre linéaire +
+ optimal
+
v(n)
Bruit
Figure 5.8 – Modèle pour le filtrage linéaire optimal.
représente les données que l’on devrait idéalement recevoir. Il parait évident que
le filtre de Wiener sera dans ce cas une approximation de l’inverse du canal.
Le schéma bloc (5.9) illustre cette manière de voir.
d(n)
v(n)
Bruit
Figure 5.9 – Modèle pour l’egalisation linéaire.
Hypothèses
On suppose que les signaux u(n), d(n) et v(n) sont stationnaires et mutuellement
stationnaires au sens large, et de moyenne nulle.
Processus Aléatoires 48
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
effet, dans le cas du critère MMSE, la fonction qui transforme u(n) en y(n) est
généralement non linéaire (on parle de filtrage non linéaire).
ˆ = y(n)) :
L’équation de minimisation s’écrit donc (avec d(n)
2
n o X∞
ˆ 2 = min E d(k) −
min E |d(k) − d(k)|
hk,n u(k − n) (5.46)
hk,n hk,n n=−∞
∞
X
hn ruu (m − n) = rdu (m) ∀m
n=−∞
(5.51)
Ce sont les équations normales.
Dans le cas tout-à-fait général que nous traitons ici, nous sommes confrontés
à une infinité d’équations en une infinité d’inconnues hn . Cependant, le membre
gauche de l’équation (5.51) est un produit de convolution. En définissant :
∞
X ∞
X
Sdu (z) = rdu (n)z −n , et H(z) = hn z −n . (5.52)
n=−∞ n=−∞
Processus Aléatoires 49
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Sdu (z)
H(z) = (5.53)
Suu (z)
En notant l’erreur quadratique minimale (le MMSE) ξ, et par le principe
d’orthogonalité :
n o ∞
X n o
ˆ
E (d(k) − d(k)) dˆ∗ (k) = ˆ
h∗n E (d(k) − d(k))u ∗
(k − n) = 0
n=−∞ | {z }
n o n =0 o
⇒ E d(k)dˆ∗ (k) = E |d(k)|
ˆ 2
(5.54)
Ce qui permet de déterminer :
n o
ξ ˆ 2
= E |d(k) − d(k)|
n o n o
ˆ
= E (d(k) − d(k))d ∗ ˆ
(k) − E (d(k) − d(k)) dˆ∗ (k)
| {z }
n o =0
n o
= E |d(k)|2 − E d(k)dˆ∗ (k) = E |d(k)|2 − E |d(k)| ˆ 2 ≤ E |d(k)|2
(5.55)
ou encore, pour permettre le calcul :
n o
ξ = E |d(k)|2 − E d(k)dˆ∗ (k)
X∞
= rdd (0) − h∗n E {u∗ (k − n)d(k)}
n=−∞
(5.56)
X∞
= rdd (0) − h∗n E {rdu (n)}
n=−∞
Processus Aléatoires 50
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Le seul pôle à l’intérieur du cercle unité est z = 31 . Le résidu est donc donné
par :
0.3555
= 0.40
1 − 1/3z z= 1
3
ξ = M M SEnc = 0.40
Processus Aléatoires 51
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
L’avantage de partir d’un bruit blanc est que rii (n) = δn , ce qui conduit aux
solutions :
Processus Aléatoires 52
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
1
Q(z) = [Sdi (z)]+ (5.70)
σi2
Pour déterminer [Sdi (z)]+ , il suffit d’exprimer la sortie du filtre blanchissant :
∞
X
i(n) = wm u(n − m) (5.71)
m=0
X∞
1
= W (z) = wm z −m (5.72)
G(z) m=0
Processus Aléatoires 53
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
D’où :
1 Sdu (z)
Q(z) = 2 (5.75)
σi G(z −1 ) +
Enfin, le filtre de Wiener IIR s’exprime par :
Q(z) 1 Sdu (z)
Hopt (z) = = 2 (5.76)
G(z) σi G(z) G(z −1 ) +
En résumé, pour obtenir le filtre IIR de Wiener, il faut procéder à la facto-
risation spectrale de Suu (z), pour obtenir G(z) et ensuite déterminer la partie
causale de Sdu (z)/G(z −1 ).
1 − 1/3z −1
G(z) =
1 − 0.6z −1
Se rappelant :
0.64
Sss (z) =
(1 − 0.6z)(1 − 0.6z −1 )
On obtient :
Sdu (z) 0.64
=
G(z −1 ) +
−1
(1 − 1/3z)(1 − 0.6z ) +
0.8 0.266z
= +
1 − 0.6z −1 1 − 1/3z +
0.8
=
1 − 0.6z −1
Le filtre IIR optimal peut donc s’écrire :
1 − 0.6z −1 0.8
Hoptiir = 1/1.8
1 − 1/3z −1 1 − 0.6z −1
4/9
=
1 − 1/3z −1
et une réponse impulsionnelle
4 1 n
hoptiir (n) = ( ) , n≥0
9 3
Processus Aléatoires 54
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
De la même manière que dans le cas non causal, on trouve le MMSE par la
formule (5.60) où l’intégrand vaut cette fois :
0.3555
(z − 1/3z)(1 − 0.6z)
et on trouve
ξ = M M SEiir = 0.444
On remarque que cette valeur est proche de celle du filtre optimal non causal.
L’avantage est que l’on peut exprimer les équations (5.78) sous la forme
matricielle :
Rh = rdu (5.79)
où R est la matrice d’autocorrélation du signal u(n) et rdu est le vecteur de
crosscorrélation rdu = [rdu (0), rdu (1), . . . , rdu (M − 1)]T .
La solution du problème est donc :
Processus Aléatoires 55
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
2h(0) + 0.6h(1) =1
0.6h(0) + 2h(1) = 0.6
soit :
h(0) = 0.451, h(1) = 0.165
Soit une valeur très proche de celle dérivée dans le cas du filtre IIR causal.
M
X
ŷ(k) = − aM (m)y(k − m) (5.82)
m=1
2
M
X
min E |y(k) − ŷ(k)| 2
= min E y(k) + aM (m)y(k − m) (5.83)
aM (m) aM (m)
m=1
Processus Aléatoires 56
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
M
X M
X
fM (k) = y(k)−ŷ(k) = y(k)+ aM (m)y(k−m) = aM (m)y(k−m) (5.84)
m=1 m=0
y(k)
fM (k)
ŷ(k)
[y(k − 1)...y(k − M )]
M
X
E {fM (k)y ∗ (k − i)} = aM (m)E {y(k − i)y ∗ (k − m)}
m=0
M (5.85)
X
= aM (m)ryy (i − m) = 0, i = 1, . . . , n
m=0
Processus Aléatoires 57
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Le MMSE (ξ = σf,M
2
) est donné par :
2
M
X
2
σf,M = E |fM |2 (k) = E y(k) + aMopt (m)y(k − m)
m=1
M
X (5.86)
= E {fM (k)y ∗ (k)} + a∗Mopt (m) E {fM (k)y ∗ (k − m)}
m=1
| {z }
=0
= E {fM (k)y ∗ (k)}
E {y(k)fM
∗
(k)} 2
σf,M
E {y(k − 1)fM
∗
(k)} 0
∗
E {YM +1 (k)fM (k)} = .. = .. (5.88)
. .
E {y(k − M )fM
∗
(k)} 0
2
σf,M
∗ 0
∗
E {YM +1 (k)fM H
(k)} = E YM +1 (k)YM +1 (k) aM = .. = RM +1 a∗M
.
0
(5.89)
Ces équations sont appelées équations normales. On remarque qu’on obtient
exactement les équations de Yule-Walker que nous avons dérivées dans le cas
d’un processus AR. Donc, dans le cas où y(n) est un processus AR d’ordre M ,
nous obtiendrons comme filtre prédicteur le filtre de synthèse du processus AR,
et la variance de l’erreur de prédiction σf,M2
sera égale à la puissance σv2 du
processus d’innovation ν(n).
En d’autres termes, le filtre prédicteur est un filtre blanchissant qui produit
la séquence d’innovations ν(n).
Processus Aléatoires 58
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
min E |y(k − M ) − ŷ(k − M )|2
bM (m) 2
XM (5.91)
= min E y(k − M ) + bM (m)y(k − M + m)
bM (m)
m=1
M
X
E {gM (k)y (k − M + i)}
∗
= bM (m)E {y(k − M + i)y ∗ (k − M + m)}
m=0
XM
= bM (m)ryy (i − m) = 0, i = 1, . . . , n
m=0
(5.93)
Grâce à la stationarité de y(n), ces équations sont toujours indépendantes
du temps et le filtre optimal est constant dans le temps.
Processus Aléatoires 59
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
y(k − M )
gM (k)
ŷ(k − M )
[y(k)...y(k − M +)]
Le MMSE (ξ = σg,M
2
) est donné par :
2
M
X
2
σg,M = E |gM |2 (k) = E y(k − M ) + bMopt (m)y(k − M + m)
m=1
M
X
= E {bM (k)y ∗ (k − M )} + b∗Mopt (m) E {bM (k)y ∗ (k − M + m)}
m=1
| {z }
=0
= E {bM (k)y ∗ (k − M )}
(5.94)
Les conditions d’orthogonalité s’écrivent alors :
E {y(k)gM
∗
(k)} 0
E {y(k − 1)gM
∗
(k)} ..
∗ .
E {YM +1 (k)gM (k)} = .. = (5.95)
. 0
E {y(k − M )gM
∗
(k)} 2
σg,M
Processus Aléatoires 60
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
0
∗ ..
∗ .
E {YM +1 (k)gM H
(k)} = E YM +1 (k)YM +1 (k) bM = = RM +1 b∗M
0
2
σg,M
(5.96)
Ce sont les équations normales pour la prédiction linéaire arrière.
2
0 σg,M
.. 0
.
RM +1 Jb∗M = JR∗M +1 JJb∗M = JR∗M +1 b∗M = J = .. (5.99)
0 .
2
σg,M 0
On voit donc clairement que les équations normales pour la prédiction li-
néaire avant et arrière sont identiques, à l’ordre des coefficients près :
Processus Aléatoires 61
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
L’algorithme est récursif dans l’ordre, ce qui signifie que l’on détermine les
prédicteurs d’ordre m, m = 1, . . . , M . L’étape initiale est laissée au soin du
lecteur.
Admettons que nous ayons la solution pour l’ordre m, la solution à l’ordre
m + 1 peut s’écrire :
2 2
σf,m σf,m+1
0 0
a∗
(5.101)
M +K
.. ..
Rm+2 m+1 wm+1 = +Km+1 xm+1 =
0
.
.
∆m+1 0
∆m+1
Km+1 = − 2 (5.102)
σf,m
Ce choix particulier, et la relation que nous avons fait entre prédiction arrière
et prédiction avant permet alors d’écrire l’équation précédente sous la forme :
2 2
σf,m ∆m+1 σf,m+1
0 0 0
∗
0
am
.. .. ..
Rm+2 +Km+1 ∗
= +Km+1 =
0 bm
.
.
.
2
σf,m
∆m+1 0
(5.103)
La récursion sur la solution devient :
a∗m
a∗m+1 = (I + Km+1 J) (5.104)
0
En particulier, am+1 (m + 1) = Km+1 . L’erreur de prédiction devient alors :
2 2 2 2
σf,m+1 = σf,m + Km+1 ∆m+1 = σf,m (1 − Km+1 ) (5.105)
Une puissance devant être positive, l’équation précédente implique que
|Km+1 | ≤ 1 (5.106)
D’autre part, on a que
2 2
σm+1 ≤ σm ≤ · · · ≤ σ12 ≤ σ02 (5.107)
ce qui confirme l’intuition selon laquelle l’augmentation de l’ordre de prédic-
tion diminue l’erreur de prédiction. Dans le cas d’un processus AR(m), après
l’ordre m, les variances seront égales (voir plus haut).
Processus Aléatoires 62
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Algorithme de Levinson
Initialisation 2
a0 = [1], σf,0 = ryy (0)pace5mm
récursion ∆m+1 = [ryy (m + 1) · · · ryy (1)]a∗m
∆m+1
Km+1 = − 2
σ∗ f,m
∗ am 0
am+1 = + Km+1
0 Ja∗m
2 2 2
σf,m+1 = σf,m (1 − Km+1 )
M
X 2M (M + 1)
2n = ' M2 (5.108)
n=1
2
E {fm (k)gm∗
(k − 1)}
Km+1 = − (5.109)
E {|fm (k − 1)|2 }
Cette dernière expression est appelée coefficient de corrélation partielle
(PARCOR).
Processus Aléatoires 63
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Ces deux équations décrivent une section d’un filtre en treillis, que l’on peut
représenter sous la forme de la figure 5.12.
y(k)
z −1 z −1 z −1
AM (z)
fM (k)
Processus Aléatoires 64
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
D’autre part, d’un point de vue numérique, le fait que les coefficients PAR-
COR sont bornés (|Km | < 1|) nous assure des résultats intermédiaires égale-
ment bornés, ce qui est très intéressant dans les calculateurs à virgule fixe (pas
d” ’overflow”).
k2
X
ξ(h) = |e(k)|2 (5.112)
k=k1
Dans ce cas-ci, les coefficients h du filtre optimal sont d’office constants sur
la période d’observation. Si on désire tenir compte d’une non stationnarité du
canal, il suffit d’opter pour le critère :
k2
X
ξ(h) = λk |e(k)|2 0<λ≤1 (5.113)
k=k1
M
X −1
e(i) = d(i) − hk u(i − k) (5.114)
k=0
5.7.2 Fenêtrage.
Les bornes k1 et k2 peuvent être choisies de différentes manières. On se
placera dans le cas où nous disposons des données [u(0), u(1), . . . , u(N − 1)]
La méthode de la covariance ne fait pas d’hypothèses sur les valeurs des
données en dehors de la fenêtre d’observation. On peut alors exprimer les
Processus Aléatoires 65
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Filtre (n)
+ bruit de mesure
"vrai"
d(n)
y(n) - e(n)
s(n) u(n) Filtre linéaire +
+ Least-Squares
+
v(n)
Bruit
Figure 5.14 – Modèle pour le filtrage par les moindres carrés.
Processus Aléatoires 66
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
ξ(h) = eH e, où e = d − UT h (5.120)
On détermine alors :
∂ eH e
∂h0
∂ eH e
∂ ∂h1
(ξ(h)) =
..
(5.121)
∂h .
∂ eH e
∂hM −1
En utilisant les relations de l’appendice, on trouve
∂
(ξ(h)) = −(d − UT h)H UT = −eH UT (5.122)
∂h
Processus Aléatoires 67
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Cette relation, pour avoir un minimum, doit être annulée. Ensuite, on vérifie
aisément que la dérivée seconde est positive.
On peut donc écrire
eH UT = 0 (5.123)
qui exprime l’orthogonalité entre les erreurs et les entrées du filtre optimal.
On a donc un principe d’orthogonalité similaire à celui du cas stochastique
(filtre de Wiener).
De la même manière, toute combinaison linéaire de l’équation précédente est
valable, et on obtient aisément que :
eH y = eH d̂ (5.124)
que l’on interprète en disant que l’erreur doit être orthogonale aux entrées
et à l’estimation.
ξmin = êH ê
H H
= (d − Xĥ)H (d − Xĥ) = dH d − dH Xĥ − ĥ XH d + ĥ XH Xĥ
−1
= dH d − dH X(XH X) XH d
(5.126)
Ce qui exprime l’erreur et la solution directement en fonction des données
et de la réponse désirée.
On définit alors, de manière analogue au cas stochastique, la matrice ce
corrélation :
φ(0, 0) φ(1, 0) ··· φ(M − 1, 0)
φ(0, 1) φ(1, 1) ··· φ(M − 1, 1)
Φ = XH X = .. .. .. .. (5.127)
. . . .
φ(0, M − 1) φ(1, M − 1) · · · φ(M − 1, M − 1)
Processus Aléatoires 68
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
N
X −1
φ(t, k) = u(i − k)u∗ (i − t) (5.128)
i=M −1
Φĥ = Θ (5.130)
qui sont les équations normales pour la méthode des moindres carrés. On
y retrouve la relation entre la matrice d’autocorrélation et la matrice de cross-
corrélation d’une manière similaire à l’équation (5.79) pour le critère MMSE
dans le cas stochastique.
Le vecteur de sortie est alors exprimé par :
y = d̂ = Xĥ (5.131)
Processus Aléatoires 69
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
−1
d̂ = X(XH X) XH d = Pd
met en lumière que l’opérateur P nous fait passer de d à d̂. Cet opérateur peut
donc être interprété comme l’opérateur de projection de l’espace total sur le
sous-espace signal.
D’autre part, on définit l’opérateur de projection orthogonal
I−P
P
d̂
d
I−P
emin
Processus Aléatoires 70
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
1.5
0.5
0 6
0 4
1
2 2
3
0
4
Processus Aléatoires 71
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
−1
ĥ = (XH X) XH d et d = Xho + (5.136)
On déduit :
−1 −1
ĥ = (XH X) XH Xho + (XH X) XH
−1 (5.137)
= ho + (XH X) XH
h̃ = Bd =⇒ h̃ = BXho + B (5.140)
n o
De même, l’hypothèse de moyenne nulle du bruit implique E h̃ = BXho .
Pour que l’estimée h̃ soit non biaisée, il faut donc :
BX = I (5.141)
Processus Aléatoires 72
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
5.8 Exercices
Exercice 5.2
Un processus auto-régressif (AR) d’ordre un X(n) à valeurs réelle est défini
par l’équation aux différences :
Processus Aléatoires 73
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Exercice 5.3
où
r(0) r(1) r(2)
R = r(1) r(0) r(1)
r(2) r(1) r(0)
Pour M = 2, on trouve a1 = −0.5256571 et
Commentez vos résultats. a2 = 0.1214018 ainsi que σv2 = 1.5375469 (facile à
faire en écrivant les équations et en faisant une réso-
lution par substitution). Pour M = 5, on trouve A =
[1.; −0.5248620; 0.1127047; 0.0262534; −0.0318556; 0.0116506]T
et σv2 = 1.536118 . Pour M = 10, on trouve
A = [1.−0.5248837; 0.1127541; 0.0262413; −0.0321242; 0.0125908;
− 0.0013810; −0.0013231; 0.0009182; −0.0002707; 0.0000121]T et
σv2 = 1.5361101
On en déduit que l’approximation M = 2 est plutôt bonne, et
qu’un processus MA peut être approximé presque parfaitement
par un processus AR d’ordre élevé (par exemple ici M = 10).
Exercice 5.4
Processus Aléatoires 74
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Xn = Xn−1 − 0.5Xn−2 + Vn
Processus Aléatoires 75
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 76
Chapitre 6
n
X
– E {S} = E {Xi } = np
i=1
77
pT (t) = (1 − p)t−1 p ,
n
X
ind
– var[S] = var[Xi ] = np(1 − p)
i=1
– T : v.a. géométrique p (v.a. discrète)
– Nombre d’essais jusqu’au premier succès inclus (échecs + 1 succès)
pT (t) = (1 − p)t−1 p , t = 1, 2, . . .
– E {T } = 1/p
– var[T ] = (1 − p)/p2
v.a. Bernoulli
E[X] =
6.1.3 v.a. Bernoulli
Bernoulli
1.0
Espérance / écart!type
0.8
0.6
E[X]
!X
0.4
0.2
0.0
p
E {X} = p, σX = p(1 − p)
Processus Aléatoires 78
École Polytechnique de l’UNS
Polytech’Nice-Sophia
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
p = 0.3
p = 0.5
Fonction de probabilité
0.20
0.10
0.00
0 2 4 6 8 10
m : nombre de succès
p
E {S} = np, σS = np(1 − p)
v.a. Géométrique
Processus Aléatoires 79
Géométrique
5
0
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
v.a. Géométrique
Géométrique
0.5
10
p = 0.5
Espérance / écart!type
Fonction de probabilité
0.4
8
0.3
p = 0.3
6
0.2
4
0.1
2
0.0
0
2 4 6 8 10 12 14
pT (t) = (1 − p)t−1 p , t = 1, 2, . . .
Processus Aléatoires 80
Processus Stochastiques 28
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Géométrique
10
E[T]
Espérance / écart!type
8
6
4
!T
2
0
p
!
E {T } = 1/p, p)/p (1 − p)/p
E[T ] = 1/p, σ(1T−=
École Polytechnique de l’UNS
σT = Département d’Électronique
Polytech’Nice-Sophia 3e année
47
Indépendance
6.1.6 Indépendance
! Xi : v.a. indépendantes
! Si–U,X : v.a. indépendantes
V i indépendantes −→ f (U ), g(V ) indépendantes
! Le–processus de Bernoulli
Si U, V indépendantes se renouvelle
−→ fà (Uchaque instant
), g(V ) indépendantes
! Le futur est indépendant du passé
!
– Le processus de Bernoulli se renouvelle
Exemple : on observe Xi pendant n = 5 intervalles
à chaque instant
– Le futur est indépendant du passé
" Aucun succès jusqu’à n = 5
– Exemple : on observe Xi pendant n = 5 intervalles
" T : le nombre d’essais (temps) jusqu’au premier succès
" –T −Aucun succès
n : le temps qui jusqu’à n n,
reste, après = jusqu’au
5 premier succès
" –P (TT −: nle=nombre
t|T > n) d’essais (temps)
= (1 − p)t−1 p = P (Tjusqu’au
− n = t) premier succès
– T− : le temps
: sans qui reste, après n, jusqu’au premier succès
28 ! Processus de nBernoulli mémoire
– P (T − n = t|T > n) = (1 − p)t−1 p = P (T − n = t)
– Processus de Bernoulli : sans mémoire 48
Processus Aléatoires 81
Temps d’attente
! Le futur est indépendant du passé
! Exemple : on observe Xi pendant n = 5 intervalles
" Aucun succès jusqu’à n = 5
" T : le nombre d’essais (temps) jusqu’au premier succès
" T − n : le temps qui reste, après n, jusqu’au premier succès
" P (T − n = t|T > n) = (1 − p)t−1 p = P (T − n = t)
! Processus de Bernoulli : sans mémoire
48
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
! Ym = T1 + T2 + . . . + Tm
! T1 , . . . , Tm v.a. géométriques, de même paramètre p, indépendantes
! E[Ym ] = E[T1 ] + E[T2 ] + . . . + E[Tm ] = m/p
! –var[Y
Ymm ]=ind
=Tvar[T
1 + 1T ++
]2 . . 2. ]+
var[T +T. .m. + var[Tm ] = m(1 − p)/p2
! –YmT≥1,m. . ,. ,PT(Ymm v.a. géométriques,
= t) = P (m − 1 succès en det −
même paramètre
1 essais)P t) indépendantes
(succès en p,
!
–Distribution
E {Ym } de = Pascal
E {T1de}+paramètre
E {T2 }m+: . . . + E {Tm } = m/p
ind ! "
– var[Ym ] = var[T ] +=var[T
pYm1(t)
t − 1] +m. . . + var[T
2 p (1 − p)t−m m , ] t= m, m −
= m(1 p)/p
+ 1, ...
2
m − 1
– Ym ≥ m , P (Ym = t) = P (m − 1 succès en t − 1 essais)P (succès en t)
– Distribution de Pascal de paramètre m : 50
t−1 m
pYm (t) = p (1 − p)t−m , t = m, m + 1, . . .
m−1
Exemple de
Processus réalisation
Aléatoires 82
R script :
Pr. de Bernoulli, p = 0.2
n = 50 # nombre d’essais
p = 0.2 # probabilité de succès
10
# vecteur de n Bernoulli
ivées entre 0 et t
X = rbinom( n, 1, p )
# accumuler les arrivées
6
N = 0 * (1:n) # initialisation
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Exemple de réalisation
6.1.9 Exemple de réalisation
R script :
Pr. de Bernoulli, p = 0.2
n = 50 # nom
p = 0.2 # pr
10
# vecteur de
Nombre d’arrivées entre 0 et t
X = rbinom(
# accumuler
6
N = 0 * (1:n
N[1] = X[1]
4
for (i in 2:
N[i] = N[
2
}
0
# ajouter le
0 10 20 30 40 50
plot( 0:n, c
t
lines( 0:n,
R script :
n = 50 # nombre d’essais
p = 0.2 # probabilité de succès
# vecteur de n Bernoulli
X = rbinom( n, 1, p )
# accumuler les arrivées
N = 0 * (1:n) # initialisation
N[1] = X[1]
for (i in 2:n) {
N[i] = N[i-1] + X[i]
}
# ajouter le point (0,0)
plot( 0:n, c(0,N), type="p" )
lines( 0:n, c(0,N), type="h" )
Processus Stochastiques
Processus Aléatoires 83
30
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année
Combinaison de processus
Processus Aléatoires 84
! S : v.a. binomiale p, n ; nombre de succès sur n essais indépendants
! Si p # 1, !n $ 1 et p · n = w :
n" m n! wm
! "
w n−m
pS (m) = m p (1 − p)n−m = m!(n−m)! nm 1 − n
wm
! "
w n−m
= n(n−1)...(n−m+1)
m! nm !1 − n " !
n n−1 n−m+1 w m w n
"−m
= n n ... n m! 1 − n 1− wn
w m −w −w wm
−→ 1 · 1 · . . . · 1 m! e · 1 = e m! = pZ (m)
n→∞
! Z : v.a. Poisson, de paramètre w (v.a. discrète)
! E[Z] = w = np
! var[Z] = w ≈ np(1 − p)
! Z : nombre de succès, quand on a w succès en moyenne
École
! Polytechnique de l’UNSA
En pratique, l’approximation Département
est valide si : n ≥ 100 et p ≤ 0.01 d’Électronique
Polytech’Nice-Sophia
! Si X, Y des v.a. Poisson indépendantes, de paramètres w, u : 3e année
X + Y v.a. Poisson de paramètre w + u
54
– En pratique, l’approximation est valide si : n ≥ 100 et p ≤ 0.01
– Si X, Y des v.a. Poisson indépendantes, de paramètres w, u :
X + Y v.a. Poisson de paramètre w + u
Binomiale
6.1.13 −→ Poisson 2−→ Poisson 2
Binomiale
B: n = 1000 , p = 0.01 / P: w = 10
0.12
Fonction de probabilité
0.08
0.04
0.00
0 5 10 15 20 25 30
m : nombre de succès
55
6.2.1 Définition
– Processus discret à temps continu, d’intensité λ
Processus Stochastiques
– N (t) , nombre d’arrivées entre 0 et32 t
– Nτ , N (t + τ ) − N (t) : nombre d’arrivées entre t et t + τ
– P (k, τ ) , P ({il y a k arrivées dans l’intervalle [t, t + τ ]}) = pNτ (k)
– Propriétés
1. Homogénéité temporelle :
P (k, τ ) indépendant de t
2. Indépendance :
Les nombres d’arrivées dans des intervalles disjoints
sont des variables aléatoires indépendantes
3. Petits intervalles :
1 − λδ ,k = 0
Si δ → 0 , P (k, δ) ≈ λδ ,k = 1
0 ,k > 1
Processus Aléatoires 85
2. Indépendance :
Les nombres d’arrivées dans des intervalles disjoints
sont des variables aléatoires indépendantes
3. Petits intervalles :
1 − λδ ,k = 0
Si δ → 0 , P (k, δ) ≈ λδ ,k = 1
0 ,k > 1
57
Nombre Nombre
6.2.2 d’arrivées en d’arrivées
τ en τ
δ
0
τ
! –Discretiser
Discretiserτ en nτ =en = τ /δ périodes
τ /δnpériodes
! –PP δ) ≈
(0,(0, δ)1≈− λδ
1 −,λδP (1,, δ) ≈ P λδ
(1, δ) ≈ λδ
! Processus de Bernoulli de paramètre λδ
!
–NProcessus de Bernoulli de paramètre λδ
τ : nombre de succès sur n essais indépendants (binomiale)
! –E[N
Nττ ] :=nombre
n · λδ = λτ de succès sur n essais indépendants (binomiale)
! –δ E
→{N τ} = n →
0, binomiale · λδ = λτ
Poisson
% & k
! –pNδτ (k)
→= 0,Pbinomiale
(k, τ ) = nk (λδ) (1 − λδ)n−k −→ e−nλδ (nλδ)
→ kPoisson k!
n→∞
k
– pNτ (k) )k
= P(λτk!(k,
= e−λτ n
2, . . . k
k (λδ) (1 − λδ)
,τk) ==0, 1, n−k
−→ e−nλδ (nλδ)
k!
! Nτ : loi de Poisson de paramètre n→∞
λτ , E[Nτ ] = λτ , var[N τ ] = λτ
)k
! e−λτ /(λτ
Intensité λ :=arrivées unité ,dektemps
k! = 0, 1, 2, . . .
– Nτ : loi de Poisson de paramètre λτ , E {Nτ } = λτ , var[Nτ ] = λτ
58
– Intensité λ : arrivées / unité de temps
–
P (T > t) = e−λt
6.2.4 Indépendance
– Le processus de Poisson se renouvelle à chaque instant
– Le futur est indépendant du passé
– Exemple : on observe le processus jusqu’à l’instant t0
– T̄ : le temps du premier événement après t0
– P (T̄ − t0 > s) = P (0 arrivées dans [t0 , t0 + s]) = P (0, s)
0
= e−λs (λs)
0! = e
−λs
: T̄ − t0 v.a. exponentielle
– Processus de Poisson : sans mémoire
Processus Aléatoires 86
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 87
N
Temps d’attente T géométrique exponentielle
E[T ] ! 1/p 1/λ
σT (1 − p)/p 1/λ
Temps d’arrivée Ym Pascal Erlang
E[Ym ] ! m/p m/λ
√
σYm m(1 − p)/p m/λ
63
6.2.8 « Incidence
« Incidence aléatoire » aléatoire »
L
t̂
U V
t̂ − U V − t̂
! Poisson d’intensité λ :
– temps
Poisson d’attented’intensité
exponentiels, : moyenne 1/λ
λ de
tempsund’attente
! Choisir instant t̂ entreexponentiels, de moyenne
deux arrivées consécutives, U, V 1/λ
Exemples de réalisation
– Le paradoxe de l’incidence aléatoire !
# temps
Nombre d’arrivées entre 0 et t
T = rexp
15
# temps
Y = 0 *
10
Y[1] = T
for (i i
5
Y[i]
}
0
# ajoute
0 5 10 15 20 25 30
plot( c(
t
Processus Aléatoires 88
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
6.3 Exercices
Exercice 6.1 Pluie
Un flux binaire est caractérisé par une probabilité d’erreur à un bit égale à
p = 0.02. Les erreurs sont indépendantes.
1. Donner une description détaillée (fonction de probabilité, espérance et
variance) du nombre de bits sans erreur (Nb ) entre deux bits erronnés.
2. On combine deux flux binaires indépendants, de même probabilité
d’erreur, pour obtenir des symboles de deux bits. Donner une des-
ciption détaillée du nombre de symboles sans erreur (Ns ) entre deux
symboles erronés.
1. Nb + 1 : v.a. géométrique de paramètre p ;
pNb (n) = (1 − p)n p, E[Nb ] = p1 − 1, var[Nb ] = (1 − p)/p2 .
2. Ns + 1 : v.a. géométrique de paramètre q = 1 − (1 − p)2 ;
pNs (n) = (1 − q)n q, E[Ns ] = 1q − 1, var[Ns ] = (1 − q)/q 2 .
Dans une rue de circulation moyenne, les places sont occupées de façon
indépendante les unes des autres. Les probabilités d’occupation sont égales
à qd = 0.7 (côté droite) et qg = 0.6 (côté gauche).
1. Combien de places vous devez « attendre » en moyenne si vous voulez
vous garer ?
2. Combien de places vous devez « attendre » en moyenne s’il y a deux
voitures devant vous qui veulent se garer ? (Afin de simplifier le pro-
blème, on fera l’hypothèse que les voitures ne se garent pas simulta-
nément à des places opposées.)
Combiner les places libres.
1. E[T ] = 1/(1 − qg qd )
2. E[Y3 ] = 3/(1 − qg qd )
Processus Aléatoires 89
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
N = YN , N −t
2. Temps d’attente
pT (t) = Nt−1
−1
p (1 − p) , E[T ] = N/p, var[T ] = N 1−p
p2
.
Votre neveu passe tout son temps devant sa console en jouant au même jeu.
On note p la probabilité qu’il gagne une partie et on considère qu’elle est
indépendante des autres résultats. Vous entrez dans sa chambre à 18h25 et
vous constatez qu’il est en train de perdre une partie.
Calculer la fonction de probabilité du nombre de parties (L) perdues entre
la dernière partie gagnée et la première partie qu’il va gagner dans l’avenir.
Quelle est l’espérance de L ? Pourquoi vos observations sont contestées par
votre neveu ?
Incidence aléatoire dans un processus à temps disctet.
pL (n) = np2 (1 − p)n−1 , E[L] = p2 − 1 alors que E[T ] = p1 .
Processus Aléatoires 90
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
On considère qu’à la Poste on trouve deux types de clients : ceux qui veulent
poster une lettre et ceux qui veulent retirer un colis. Les premiers arrivent
suivant un processus de Poisson de paramètre λ1 et les deuxièmes arrivent
suivant un autre processus de Poisson, indépendant du premier, de para-
mètre λ2 .
1. Montrer que le nombre d’arrivées totales est un processus de Poisson
de paramètre λ1 + λ2 .
2. Montrer que la probabilité que le client qui
vient d’arriver (petit intervalle) poste une lettre,
P ({il y a une arrivée lettre}|{il y a une arrivée}), est égale à
λ1
λ1 +λ2
.
1. Il faut montrer que le processus combiné est un proces-
sus de Poisson : indépendance, homogénéité et petits in-
tervalles. Les petits intervalles donnent comme intensité
λ1 + λ2 .
2. Calculer la probabilité conditionnelle avec les formules de
petits intervalles.
Processus Aléatoires 91
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 92
Chapitre 7
Chaînes de Markov
7.1 Définition
– Processus discret à temps discret ou continu
– Séquence de variables aléatoires Xn
– xn ∈ S = {1, 2, . . . , m}
– Propriété de Markov :
– Normalisation :
m
X
pik = 1 , ∀i ∈ S
k=1
93
p11 p12 . . . p1m
p21 p22 . . . p2m
P=
... ...
... ...
pm1 pm2 . . . pmm
! Normalisation :
m
'
pik = 1 , ∀i ∈ S
École Polytechnique de l’UNSA Département d’Électronique
k=1
Polytech’Nice-Sophia 3e année
! Exemple : suivre un cours
0.3
( )
0.7 0.3
0.7 1 2 0.9 P=
0.1 0.9
à jour 0.1 en retard
7.3 Trajectoires
– Probabilité d’une trajectoire
Processus Stochastiques 39 70
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
– État i récurrent :
∀j ∈ A(i) : i ∈ A(j)
2 3
S1 1
S2
6 5
S3
!
Classe récurrente périodique :
il existe une partition!S1 , . . . , Sd (d > 1) de ses états telle que :
pace-0.3cm j ∈ Sk+1 , k < d
si i ∈ Sk et pij > 0,
– Classe récurrente j ∈périodique
S1 , k=d :
il existe une partition ( 1 , .ij. . , Sd (d > 1) de ses états telle que :
(n)
! Classe récurrente apériodique : S
∃n : p > 0 , ∀i, j
j ∈ Sk+1 , k < d 72
si i ∈ Sk et pij > 0,
j ∈ S1 , k=d
(n)
– Classe récurrente apériodique : ∃n : pij > 0 , ∀i, j
– Une
1. seule classe
Pour chaque récurrente,
état j, apériodique
(n) (+ des états transitoires)
pij −→ πj , ∀i
n→∞
1. Pour chaque état j,
2. Les πj sont la solution unique du système :
(n)
" pij −→ π"
j , ∀i
πj = πk pkj , ∀j n→∞
et πk = 1
k k
3. États transitoires : πj = 0
États récurrents : πj > 0
# #
Processus Aléatoires
! limn→∞ P (Xn = j) = lim#
n→∞
(n)
k P (X0 = k)pkj = k P (X0 = k)πj 95
= πj k P (X0 = k) #= πj #
! Si ∀i, P (X0 = i) = πi : P (X1 = i) = k P (X0 = k)pki = k πk pki = πi
πi : distribution de probabilités stationnaire
73
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
3. États transitoires : πj = 0
États récurrents : πj > 0
X (n)
X
– limn→∞ P (Xn = j) = limn→∞ P (X0 = k)pkj = P (X0 = k)πj
X k k
= πj P (X0 = k) = πj
k X X
– Si ∀i, P (X0 = i) = πi : P (X1 = i) = P (X0 = k)pki = πk pki = πi
k k
πi : distribution
École Polytechnique de l’UNS de probabilités stationnaire Département d’Électronique
Polytech’Nice-Sophia 3e année
1 − b0 1 − b1 − d1 1 − bm−1 − dm−1 1 − dm
b0 b1 bm−2 bm−1
0 1 m−1 m
d1 d2 dm−1 dm
!
! πj = k πk pkj , ∀j se simplifie :
! πk pkj : fréquence relative de transitions qikj (n)/n , n → ∞
Processus
! Symétrie Aléatoires
: qik(k+1)(n) = qi(k+1)k (n) , n → ∞ , 0 ≤ k ≤ m − 1 96
πk+1 bk
! πk bk = πk+1 dk+1 −→ πk = dk+1 , 0≤k ≤m−1
"j−1 πk+1 "j−1 bk b0 b1 . . . bj−1
! k=0 πk = k=0 dk+1 −→ πj = π0 , 1≤j≤m
d1 d2 . . . dj
!
! Normalisation : j πj = 1
75
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
7.9 Exercices
Processus Aléatoires 97
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Processus Aléatoires 98
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Le professeur Tournesol donne des D.S. qui sont soit durs, soit moyen-
nement durs, soit faciles. Heureusement, il ne donne jamais deux D.S.
durs de suite. S’il donne un D.S. dur, le D.S. suivant est de façon
équiprobale, soit moyennement dur, soit facile. Par contre, s’il donne
un D.S. moyennement dur ou facile, le test suivant est du même ni-
veau de difficulté avec une probabilité de 50 %, et d’un des autres ni-
veaux de difficulté avec une probabilité de 25 %. Modélisez ce proces-
sus par une chaîne de Markov et trouvez les probabilités stationnaires.
π1 = 1/5, π2 = π3 = 2/5
Processus Aléatoires 99