0% ont trouvé ce document utile (0 vote)
57 vues5 pages

Cours TS - ch5

Ce document introduit les notions de base sur les signaux aléatoires. Il définit ce qu'est un processus aléatoire et décrit les propriétés statistiques d'ordre 1 et 2 comme la moyenne, la variance et l'autocorrélation. Le document présente également les concepts de stationnarité au sens strict et large ainsi que l'ergodicité.

Transféré par

Adem Dhokar
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
57 vues5 pages

Cours TS - ch5

Ce document introduit les notions de base sur les signaux aléatoires. Il définit ce qu'est un processus aléatoire et décrit les propriétés statistiques d'ordre 1 et 2 comme la moyenne, la variance et l'autocorrélation. Le document présente également les concepts de stationnarité au sens strict et large ainsi que l'ergodicité.

Transféré par

Adem Dhokar
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ENSEIGNANT KAIS OUNI

Signaux Aléatoires

I - Introduction

Les signaux déterministes sont insuffisants pour représenter l'ensemble des phénomènes
rencontrés en théorie de signal. En particulier, lorsqu'on examine un phénomène de bruit,
comme par exemple le signal observé aux bornes d'une résistance et lié à l'agitation thermique
des électrons, on constate que ce signal a une forme imprévisible à l'avance et ne peut être
décrit par une fonction mathématique x(t) bien définit. On est alors amener à le considérer
comme un signal aléatoire, ce qui introduit des notions de calcul de probabilités en théorie de
signal.
Un processus aléatoire peut être défini comme une famille de fonctions réelles ou complexes à
deux variables noté { X(t, )}, ou plus simplement, X(t). en théorie du signal t représente
usuellement le temps. la variable dénote la nature aléatoire du processus
La notion de processus aléatoire est basée sur la notion de variable aléatoire ( v.a ). Une v.a
X( ) est une quantité réelle ou complexe dépendant d'une épreuve probabiliste symbolisée par
. Dans un jeu de Dé par exemple, le jeu peut être désigner par i. le résultat du jeu est X. et si
X obéit à la loi du jeu i, alors on a X( i).

Pour les applications qui nous concernent, une v.a est complètement décrite par sa fonction de
répartition :

F ( x) P X( ) x , qui est la mesure de probabilité liée à l'ensemble des point réalisant


l'inégalité X( ) < x. Si la v.a est continue, F(x) admet une densité de probabilité fX (x)

Si un processus dépend de t, X(t), il est appelé processus stochastique. Pour caractériser un


processus aléatoire, on l'observe à des instants t1, t2, t3, …, tn. Si on observe le processus à
er
l'instant t1, alors c'est une caractéristique de 1 ordre. Si on observe le processus aux instants
nd
t1 et t2, c'est une caractéristique de 2 ordre, etc.

Statistique d'ordre 1
Soit X, une v.a réelle correspondant à l'instant ti. Sa fonction de répartition exprime la
probabilité d'avoir Xi inférieure ou égale à un niveau x donnée.
F ( x, t i ) P Xi x,
la densité de probabilité est simplement la dérivée de la fonction de répartition par rapport à x :

x
dFX ( x, t i )
f X ( x, t i ) FX ( x ) f X (u )du
dx

Statistique d'ordre 2

COURS TRAITEMENT DU SIGNAL 23


ENSEIGNANT KAIS OUNI

On considère le couple de variables réelles X 1 X (t1 ) et X 2 X (t 2 ) . La fonction de


répartition conjointe représente la probabilité que X1 et X2 soient respectivement inférieures ou
égales aux niveaux x1 et x2 :

F ( x1 , x 2 ; t1 , t 2 ) P X1 x1 , X 2 x2 ,

de même on défini les notions suivantes :


2
FX ( x1 , x 2 , t1 , t 2 )
La densité de probabilité conjointe par la quantité : f X ( x1 , x 2 , t1 , t 2 )
x1 x 2

La fonction d'autocorrélation : E X (t1 ). X (t 2 ) x1 x 2 . f ( x1 , x 2 , t1 , t 2 )dx1 dx 2 R X (t1 , t 2 )

La fonction d'autocovariance :

C (t1 , t 2 ) E X (t1 ) m X t1 . X (t 2 ) m X t 2 x1 m X t1 x2 m X t 2 . f ( x1 , x 2 , t1 , t 2 )dx1 dx 2

On montre que :
C (t1 , t 2 ) R X (t1 , t 2 ) m X (t1 ).m X (t 2 )

I - 1 - Moments d'une Variable Aléatoire

I - 1 - 1 - Cas discret

On appelle moyenne de X ou espérance mathématique de X, la quantité :


E( X ) xi p i mX
i

On appelle moment d'ordre 2, la quantité : E( X 2 ) xi2 pi


i
2 2 2
On appelle variance de X, la quantité : X xi E ( X ) pi E( X 2 ) E( X )
i
2
la racine carrée ( X ) s'appelle l'écart type de X.
( X ) de
r
on appelle moment d'ordre r de X la quantité : E X x r pi
i
I - 1 - 2 - Cas continu

On appelle moment d'ordre r de X ( v.a continue) la quantité : E( X r ) x r f ( x)dx

Pour r = 1, E( X ) E X (t ) x. f ( x)dx mX m X (t ) , s'appelle moyenne statistique ou

espérance mathématique de X.

Pour r = 2, E( X 2 ) x 2 . f ( x)dx , s'appelle moment d'ordre 2 de X.

2 2 2
On appelle variance de X, la quantité : X x E ( X ) . f ( x)dx E( X 2 ) E( X )
2
la racine carrée ( X ) de ( X ) s'appelle l'écart type de X.

COURS TRAITEMENT DU SIGNAL 24


ENSEIGNANT KAIS OUNI

I - 1 - 3 - Remarques

Si X a un moment d'ordre 2, on dit que X(t) est de carré intégrable.


Si X a un moment d'ordre p, alors, X(t)a un moment d'ordre q pour tout q p
Un signal aléatoire est dit centré si mX (t)=0. On peut associer à tout signal aléatoire X(t)
non centré un autre signal X(t)- mX(t)qui est évidemment centré.

II - Stationnarité

Un signal aléatoire est dit stationnaire si certaines de ses propriétés statistiques sont
invariantes dans toute translation de l'origine du temps.
Fn x1 , x 2 ,..., x n , t1 , t 2 ,..., t n Fn x1 , x 2 ,..., x n , t1 , t2 ,..., t n , Fn étant la
fonction de répartition d'ordre n de X.

II - 1 - Stationnarité au sens strict

Un processus est stationnaire au sens strict si ses propriétés statistiques ne varie pas par
changement de l'origine du temps. On en déduit que :
er
1 ordre
La valeur moyenne : m E X (t ) d'un signal aléatoire est constante, de même:
F( x, t) = F( x, t + ) = F(x).
f( x, t) = f( x, t + ) = f(x).

E( X ) E X (t ) x. f ( x, t )dx x. f ( x)dx mX Cte

E X 2 (t ) x 2 . f ( x, t )dx x 2 . f ( x)dx Cte

E X n (t ) Cte
Var [X(t)] =Cte

nd
2 ordre
F ( x1 , x 2 , t1 , t 2 ) F ( x1 , x 2 , t1 , t2 ) F ( x1 , x 2 , t1 t2 )
si on pose : = t1-t2 :
F ( x1 , x 2 , t1 , t 2 ) F ( x1 , x 2 , t1 t 2 ) F ( x1 , x 2 , )
f ( x1 , x 2 , t1 , t 2 ) f ( x1 , x 2 , t1 t 2 ) f ( x1 , x 2 , )

R X (t1 , t 2 ) x1 x 2 . f ( x1 , x 2 , t1 , t 2 )dx1 dx 2 x1 x 2 . f ( x1 , x 2 , )dx1 dx 2 RX ( ) R X (t1 t2 )

II - 2 - Stationnarité au sens large ou du second ordre

Un signal aléatoire est dit stationnaire au sens large ou de second ordre, si :


m E X (t ) Cte
R X (t1 , t 2 ) R X ( ) R X (t1 t2 ) E X (t1 ). X * (t 2 )

COURS TRAITEMENT DU SIGNAL 25


ENSEIGNANT KAIS OUNI

III - Ergodicité

La notion d'ergodicité ne s'applique qu'aux processus stationnaires.


Soit X(t) stationnaire au sens large ( m E X (t ) Cte et R X (t1 , t 2 ) R X ( ) ):
T /2
lim 1
E X (t ) T X (t )dt c'est l'ergodicité de la moyenne.
T T /2
Donc un processus est ergodique si sa moyenne statistique est égale à sa moyenne
temporelle.

III - 1 - Ergodicité au sens large

T /2
lim 1
m E X (t ) T X (t )dt : on dit que le processus est ergodiquement moyen.
T T /2
T /2
lim 1
RX ( ) T X (t ). X (t )dt : on dit que le processus est ergodiquement corrélé.
T T /2

III - 2 - Densité spectrale de puissance

On définie la densité spectrale de puissance d'un processus stationnaire comme étant la


transformée de Fourier de sa fonction de corrélation :

SX ( ) RX exp j d , ou encore :

SX ( f ) RX exp j2 f d

S X ( ) est réelle.

On peut écrire de même : RX S X ( f ) exp j2 f df

1
Ou encore : RX S X ( ) exp j d
2
1
En particulier : RX 0 S X ( )d S X ( f )df
2

III - 3 - Densité interspectrale de puissance

On définie la densité interspectrale de puissance comme étant la quantité :

S XY ( ) R XY exp j d

1
R XY S XY ( ) exp j d .
2

COURS TRAITEMENT DU SIGNAL 26


ENSEIGNANT KAIS OUNI

IV - Exemples de processus aléatoires

IV - 1 - Processus de MARKOV

Un processus de MARKOV est un processus stochastique dont l'état futur ne dépend pas des
états passés mais uniquement de son état présent.
Prob (x1/x2 , x3, …, xn) = Prob (x1/x2).
x3, …, xn sont les états passés.
x2 état présent.
x1 état futur.

IV - 2 - Processus normal ( Gaussien )

Un processus X(t) est dit normal (gaussien) si le vecteur (x1, x2 , x3, …, xn) constitue une
variable aléatoire normale à n dimensions.

Un processus normal est entièrement défini par sa valeur moyenne et sa fonction


d'autocorrélation donc il est défini par sa statistique d'ordre 2.
Pour un processus normal la non corrélation implique l'indépendance statistique. On démontre
que si x et y sont deux fonctions normales non corrélées f x ( x, y ) f x ( x). f x ( y )
2
1 x m X (t )
f X x, t exp
2 C t, t 2C (t , t )

exemple : soit X (t ) A0 cos 0 t , avec v.a uniformément répartie sur - et + .

IV - 3 - Processus Poissonien

Un processus poissonien est défini comme suit :


Les événements xi se produisent avec la même probabilité mais de distribué de façon
aléatoire.
Si on considère des intervalles de temps de même longueur t alors la probabilité qu'un
événement se produise k fois dans un intervalle t quelconque est donné par la distribution
k
t exp t
poissonienne : p(k ) par unité de temps t.
k!
Où est la moyenne par unité de temps.
x(0) = 0, à l'instant 0 aucun événement ne se produit.
x(t1)-x(t2)= nombre de points dans l'intervalle t1-t2. il s'agit donc d'un processus de comptage.

COURS TRAITEMENT DU SIGNAL 27

Vous aimerez peut-être aussi