0% ont trouvé ce document utile (0 vote)
38 vues20 pages

Processus-Sto Unique

Le document traite des processus stochastiques, en se concentrant sur les vecteurs gaussiens et leurs propriétés. Il couvre des définitions, des exemples, ainsi que des propriétés statistiques et temporelles des processus aléatoires. Des concepts tels que le mouvement brownien et le processus de Poisson sont également abordés.

Transféré par

Chesnay Robby Kamdem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
38 vues20 pages

Processus-Sto Unique

Le document traite des processus stochastiques, en se concentrant sur les vecteurs gaussiens et leurs propriétés. Il couvre des définitions, des exemples, ainsi que des propriétés statistiques et temporelles des processus aléatoires. Des concepts tels que le mouvement brownien et le processus de Poisson sont également abordés.

Transféré par

Chesnay Robby Kamdem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Processus Stochastiques

Master 1
Ecole Nationale Supérieure des Postes, des
Télécommunications et des TIC

Siméon FOTSO
Département de Mathématiques
Ecole Normale Supérieure
Université de Yaoundé 1
e-mail : simeonfotso@[Link]

Yaoundé, le 20 décembre 2022


Table des matières

1 Vecteurs gaussiens 2
1.1 Dé…nition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Propriétés des vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . 2

2 Processus stochastiques 5
2.1 Dé…nition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Dé…nition et généralités . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Description d’un processus aléatoire . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 Description complète . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2 Description partielle . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Propriétés statistiques d’un processus . . . . . . . . . . . . . . . . . . . . . 7
2.3.1 Valeur moyenne, variance . . . . . . . . . . . . . . . . . . . . . . . 7
2.3.2 Fonction d’autocorrélation et d’autocovariance . . . . . . . . . . . . 8
2.3.3 Cas des processus aléatoires complexes . . . . . . . . . . . . . . . . 8
2.3.4 Un exemple graphique . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Propriétés d’un processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.1 Processsus aléatoires stationnaires . . . . . . . . . . . . . . . . . . . 9
2.4.2 Processus à accroissements stationnaires . . . . . . . . . . . . . . . 10
2.4.3 Processus à accroissements indépendants . . . . . . . . . . . . . . . 10
2.5 Propriétés temporelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.6 Signal ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3 Processus gaussiens 12
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Exemples de processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.1 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.2 Pont brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4 Processus de Poisson 15
4.1 Dé…nition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2 Lois des inter-arrivées dans un processus de Poisson . . . . . . . . . . . . . 16
4.3 Processus de Poisson non homogène . . . . . . . . . . . . . . . . . . . . . . 17
4.4 Processus de Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . 18

1
Chapitre 1

Vecteurs gaussiens

1.1 Dé…nition et généralités


Soit 2 Rn et une matrice symétrique dé…nie positive.

Dé…nition 1.1 Un vecteur aléatoire X = t (X1 ; X2 ; :::; Xn ) suit une loi normale de di-
mension n de paramètres et ; N n ( ; ); si sa densité de probabilité est donnée par :
p
j 1j 1t
f (x1 ; x2 ; :::; xn ) = n exp (x ) 1 (x ) (1.1)
(2 ) 2 2

avec x = t (x1 ; x2 ; :::; xn ) 2 Rn :

On note alors X # N n ( ; ).

Remarque 1.1 Si X # N n ( ; ) avec = (ckl )1 k;l n et = t( 1; 2 ; :::; n) alors :


(i ) = E(X) = t (E(X1 ); E(X2 ); :::; E(Xn ))
(ii) est la matrice des variances et covariances de X.
(iii) La fgm de X est
!
1 XX
n n
1t
MX (t1; :::tn ) = exp t t + t t = exp ht; i + ckl tk tl
2 2 k=1 l=1
2 2
où t = t (t1 ; :::; tn ); de sorte que pour n = 1, on retrouve MX (t) = et + 2
t
:
(iv) La fonction caractéristique de X est
!
1 XX
n n
1t
'X (t) = exp it t t t = exp i ht; i ckl tk tl
2 2 k=1 l=1
2 2
de sorte que pour n = 1; on retrouve 'X (t) = eit 2
t

1.2 Propriétés des vecteurs gaussiens


Proposition 1.1 (Rappel) Toute combinaison linéaire de v.a.r gaussiennes indépendantes,
est une v.a.r gaussienne.

Proposition 1.2 Si X = t (X1 ; X2 ; :::; Xn ) # N n ( ; ) et si est diagonale, les va-


riables X1 ; :::; Xn sont des variables gaussiennes indépendantes.

2
ENSPT Processus Stochastiques

Preuves
Nous allons utiliser le corollaire 1.2 ci-dessous qui dit que si X est un vecteur gaussien,
alors ses composantes sont des v.a.r gaussiennes.
Posons 2k = V (Xk ). En utilisant l’expression (1.1) la densité conjointe f de X s’écrit :

" # " #
1X Y
n 2 n 2
1 xk k 1 1 xk k
f (x1 ; :::; xn ) = n exp = p
exp
(2 ) 2 1 ::: n 2 k=1 k
k=1 k 2 2 k

C’est le produit des densités de n lois N ( k; k ).

X1
Corollaire 1.1 Si est un vecteur gaussien de dimension 2 tel que cov(X1 ; X2 ) =
X2
0; alors X1 et X2 sont indépendantes.

Stabilité par transformation a¢ ne

Proposition 1.3 Si X # N n ( ; ), on dé…nit Y = AX + b où A est une matrice m n


et b un vecteur de Rm . Alors Y # N m (A + b; A t A):

Preuve
On détermine la fonction génératrice des moments ou la fonction caractéristique de Y .
Caractérisation d’un vecteur gaussien

Proposition 1.4 Un vecteur aléatoire X à valeurs dans Rn est un vecteur gaussien si et


seulement si toute combinaison linéaire de ses composantes est une v.a.r gaussienne. En
d’autres termes X = t (X1 ; X2 ; :::; Xn ) est un vecteur gaussien ssi 8a 2 Rn ; a 6= 0; t aX est
une v.a.r gaussienne.

Preuve

Corollaire 1.2 Soit X un vecteur gaussien de dimension n.


(i) Tout sous vecteur de X est un vecteur gaussien.
(ii) En particulier toute composante d’un vecteur gaussien est une v.a.r gaussienne.

La réciproque de (ii) est fausse ; c’est à dire si X1 ; X2 ; :::; Xn sont des v.a.r gaussiennes,
alors X = t (X1 ; X2 ; :::; Xn ) n’est pas toujours un vecteur gaussien. Ce résultat est vrai si
les v.a.r X1 ; X2 ; :::; Xn sont indépendantes.

Proposition 1.5 Soient X1 ; X2 ; :::; Xn n v.a.r gaussiennes indépendantes. Alors X =


t
(X1 ; X2 ; :::; Xn ) est un vecteur gaussien de dimension n.

Preuve
Elle peut être faite de deux façons possibles.
1. En appliquant successivement les propositions (1.1) et (1.4) on a le résultat.
2
2. On utilise la fonction caratéristique. Posons E(Xk ) = k et V (Xk ) = k: On a

'X (t1 ; t2 ; :::; tn ) = 'X1 (t1 )'X2 (t2 ):::'Xn (tn )


Yn 2
k 2
= exp itk k tk
k=1
2
!
X
n
1X
n
2 2
= exp i tk k k tk :
k=1
2 k=1

Page 3
ENSPT Processus Stochastiques

En posant = t ( 1 ; 2 ; :::; n ) = E(X); = diag( 21 ; 22 ; :::; 2n ) la matrice diago-


nale des variances covariances de X et t = t (t1 ; :::; tn ); on obtient

1t
'X (t1 ; t2 ; :::; tn ) = exp i ht; i t t
2

qui est la fonction caractéristique de N n ( ; ):

Exemple 1.1 Soit X = t (X1; X2 ) un vecteur aléatoire à valeurs dans R2 : On suppose que
3 2
X suit une loi normale de densité f (x1; x2 ) = k exp( 16 x1 + 14 x1 x2 14 x22 ).
1)Déterminer = E(X) et la matrice des variances covariances de X. En déduire k.
2) Calculer le coe¢ cient de corrélation linéaire des v.a.r X1 et X2 .
3) Déterminer les lois de X1 et X2 :
4) Quelle est la loi de X1 2X2 :

Exemple 1.2 On suppose que U = t (X; Y ) est une v.a normale de dimension 2, de
densité
f (x; y) = k exp 2x2 6y 2 4xy + 8x 4y + 12 :
1) Déterminer la constante k:
2) Calculer E(U ) et U respectivement l’espérance mathématique et la matrice des va-
riances covariances de U:
3) Déterminer les lois marginales et calculer le coé¢ cient de corrélation linéaire des deux
variables.
4) Déterminer la loi de 2X1 + 3X2 :

Remarque 1.2 On dé…nit parfois un vecteur gaussien par la proposition (1.4). Dans ces
conditions si = E(X) et la matrice des variances covariances de X; on distingue deux
cas.
(i) Si est inversible alors X est un vecteur gaussien dont la densité de probabilité est
donnée par (1.1).
(ii) Si n’est pas inversible ( est symétrique et positive), alors X n’admet pas de densité
de probabilité par rapport à la mesure de Lebesgue de Rn : On dit dans ce cas que le vecteur
gaussien X est dégénéré. Les formules donnant la fgm et la fonction caractéristique restent
vraies dans ce cas.

Exemple 1.3 En utilisant la dé…nition donnée par la proposition (1.4), déterminer la


fonction caratéristique d’un vecteur gaussien.

Proposition 1.6 (Théorème central limite) Soit X un vecteur aléatoire à valeurs dans
Rd ; de moyenne et de matrice de variances covariances : Soit X1 ; X2 ; :::; Xn une suite
de vecteurs aléatoires i.i.d de même loi que X: Alors
!
1X
n
p L
Yn = n Xi ! N d (0; ):
n k=1

Page 4
Chapitre 2

Processus stochastiques

Un signal est dé…ni comme la représentation physique d’une information à transmettre


ou bien une entité qui sert à véhiculer l’information.
Un processus stochastique (appelé dans ce cadre signal aléatoire) est un signal dont on
ne peut connaitre les valeurs avant de les avoir observées ; ces valeurs sont donc imprévi-
sibles. Il faut alors proposer des techniques permettant d’évaluer des propriétés statistiques
(par exemple les moyennes) pour avoir une meilleure connaissance quantitative du signal
étudié.
Aucun modèle mathématique ne peut représenter exactement la réalité. De plus tout
signal naturel est plus ou moins imprévisible (par exemple le signal correspondant à
la prononciation d’un mot) car il existe toujours des possiblités de perturbations non
prévisibles de manière déterministe. Ainsi la notion de signal déterministe est insu¢ sante.
En fait tous les systèmes technologiques delivrent des signaux bruités, le bruit étant dé…ni
comme un signal aléatoire ne contenant pas d’information utile.
L’axiome de base de la théorie de l’information est que "seuls les signaux ayant cer-
taines caractéristiques aléatoires peuvent transmettre de l’information."
Le but de ce cours est de donner aux étudiants les outils de base pour étudier les
precessus aléatoires. L’objectif étant de les caractériser et de les appliquer en télécommu-
nications (traitement du signal par exemple).
En télécommmunication un problème que l’on rencontre souvent est celui de retrou-
ver un signal émis qui peut être perturbé par du bruit. Par exemple pour un message
transmis sur une ligne téléphonique (ou autre), du point de vue du recepteur, ce signal
est aléatoire jusqu’à sa reception. En e¤et si ce signal était déjà connu du recepteur, son
contenu informationnel serait nul et il serait inutile de le transmettre. Ainsi on modélise
comme signaux aléatoires les signaux dont le processus de production est compliqué à
décrire, méconnu ou des signaux pour lesquels l’aléa provient de la propre incertitude de
l’observateur. La modélisation probabiliste permet alors une caractérisation intéressante à
l’aide d’outils de traitement qui peuvent permettre d’extraire de l’information des signaux
aléatoires.

2.1 Dé…nition et exemples


Soit ( ; A; P ) un espace probabilisé, T un ensemble représentant généralement le temps
et E une partie de R ou C:

5
ENSPT Processus Stochastiques

2.1.1 Dé…nition et généralités


Dé…nition 2.1 Un processus aléatoire (ou signal aléatoire) est une famille de v.a.r Xt ; t 2
T; dé…nies sur ( ; A; P ) et à valeurs dans E:

Un processus aléatoire est donc une famille X = (Xt )t2T de v.a.r indexées par le temps.
E est l’ensemble des états du processus.
X: T ! E
(!; t) 7 ! X(!; t) = Xt (!):

Lorsque ! est …xé (! = ! 0 ); on obtient une réalisation du processus que l’on appelle
une trajectoire.
Lorsque t est …xé (t = t0 ); le processus X se reduit à une simple v.a.r X(!; t0 ) =
Xt0 dé…nie sur l’espace probabilisé ( ; A; P ):
Si ! et t sont …xés, on obtient un nombre.
– Si T est un ensemble …ni, le processus X est un vecteur aléatoire de dimension n:
– Si T = N; X est une suite de v.a.r.
De façon générale quatre cas sont possibles.
– Si T est dénombrable, X est un processus à temps discret.
– Si T est non dénombrable, X est un processus à temps continu.
– Si E est dénombrable, X est un processus à espace des états discrets (signal numé-
rique).
– Si E est continu, X est un processus à espace des états continus (signal analogique).

2.1.2 Exemples
Processus à temps discrets et à espace des états discrets

Exemple 2.1 Xn = nombre d’appels émis durant la nieme heure de la journée. Ici E =
N et T = f1; 2; :::; 24g

Processus à temps discrets et à espace des états continus

Exemple 2.2 Xn = temps mis par un serveur pour traiter la nieme requête de la journée.
E = [0; +1[ et T = N:

Processus à temps continu et à espace des états discrets

Exemple 2.3 Xt = nombre de bits qui traversent un routeur informatique donné dans
[0; t]; t T0 : E = N et T = [0; T0 ]:

Processus à temps continu et à espace des états continus

Exemple 2.4 Xt = Temps d’attente d’une requête (par exemple par un serveur web)
reçue à l’instant t: Ici E et T sont continus.

2.2 Description d’un processus aléatoire


Les processus aléatoires peuvent être caractérisés par deux types de description : une
description complète qui permet de caractériser complètement le processus, mais qui né-
cessite une connaissance énorme, et une caractérisation partielle, à partir des moments
du processus aléatoire.

Page 6
ENSPT Processus Stochastiques

2.2.1 Description complète


Dé…nition 2.2 On appelle vecteur aléatoire de dimension n associé au processus X =
(Xt )t2T ; la donnée d’un vecteur aléatoire de dimension n (Xt1 ; Xt2 ; :::; Xtn ); t1 ; t2 ; :::; tn 2
T:

Dé…nition 2.3 Etant donné le processus X = (Xt )t2T ; les lois …nies dimensionnelles de
X sont les lois conjointes de tous les vecteurs aléatoires associés à X, (Xt1 ; Xt2 ; :::; Xtn ); pour
tout t1 ; t2 ; :::; tn 2 T et pour tout n 2 N:

L’ensemble des lois …nies dimensionnelles caractérise donc la loi PX du processus X: La


connaissance de PX signi…e donc que l’on connait toutes les v.a.r Xt ; ainsi que toutes les
interactions entre ces variables. La connaissance à avoir est donc gigantesque, et le plus
souvent inaccessible, et l’on devra se contenter d’une description partielle.

2.2.2 Description partielle


Description à un instant
Le processus X = (Xt )t2T est connu à un instant si 8t 2 T on connait la loi de la v.a.r
Xt : On peut alors décrire Xt par les méthodes habituelles d’étude d’une v.a.r. La densité
de probabilité de Xt est alors appelée densité du premier ordre.

Description à deux instants


Le processus X = (Xt )t2T est connu à deux instants si 8t1 ; t2 2 T; on connait la loi
conjointe des v.a.r Xt1 et Xt2 : La densité de probabilité conjointe est appelée densité du
second ordre.
La connaissance à deux instants suppose que l’on connait le lien statistique entre Xt1 et
Xt2 : Ceci peut se faire, par exemple, par le calcul de la covariance ou du coé¢ cient de
corrélation linéaire entre ces deux variables.

2.3 Propriétés statistiques d’un processus


On note fXt (x; t) la densité d’ordre 1 à l’instant t et fXt1 Xt2 (x1 ; x2 ; t1 ; t2 ) la densité
d’ordre 2 aux instants t1 et t2 :

2.3.1 Valeur moyenne, variance


– On appelle moment d’ordre 1 du processus X; la valeur moyenne de Xt à t …xé.
Donc c’est Z +1
mX (t) = E(Xt ) = xfXt (x; t)dx:
1

Le processus est centré si mX (t) = 0 8t 2 T:


– On dé…nit de même les autres moments, à t …xé. Par exemple la variance de Xt
2
Xt = E (Xt E(Xt ))2
Z +1
= (x mX (t))2 fXt (x; t)dx
1
= E Xt2 (E(Xt ))2 :

Page 7
ENSPT Processus Stochastiques

2.3.2 Fonction d’autocorrélation et d’autocovariance


Dé…nition 2.4 La fonction d’autocorrélation de X = (Xt )t2T est la fonction notée RX dé…nie
par : pour tout t1 ; t2 2 T;
RX (t1 ; t2 ) = E (Xt1 Xt2 ) :

Dé…nition 2.5 La fonction d’autocovariance de X = (Xt )t2T est la fonction notée CX dé…nie
par : pour tout t1 ; t2 2 T;

CX (t1 ; t2 ) = E [(Xt1 E(Xt1 ))(Xt2 E(Xt2 ))]


= RX (t1 ; t2 ) mX (t1 )mX (t2 ):

RX et CX mesurent la corrélation linéaire statistique entre les valeurs prises par le


processus aux instants t1 et t2 :
– Une forte corrélation linéaire implique l’existence d’une liaison linéaire entre Xt1 et
Xt2 :
– Une faible corrélation linéaire implique pas de relation linéaire entre les deux va-
riables Xt1 et Xt2 ou alors l’existence d’une liaison non linéaire (sans tendance
linéaire).

2.3.3 Cas des processus aléatoires complexes


Un processus aléatoire complexe Zt est dé…ni par deux signaux aléatoires réels Xt et
Yt :
Zt = Xt + jYt :
– Sa valeur moyenne est :

mZ (t) = E(Zt ) = E(Xt ) + jE(Yt ) = mX (t) + jmY (t):

– Sa variance :
2
Zt = E jZt E(Zt )j2
= E (Xt E(Xt ))2 + E (Yt E(Yt ))2
= 2Xt + 2
Yt :

– Sa fonction d’autocorrélation :

RZ (t1 ; t2 ) = E Zt1 Zt2 = RZ (t2 ; t1 ):

– Sa fonction d’autocovariance :
h i
CZ (t1 ; t2 ) = E (Zt1 E(Zt1 ))(Zt2 E(Zt2 ))
= RZ (t1 ; t2 ) mZ (t1 )mZ (t2 ):

Page 8
ENSPT Processus Stochastiques

2.3.4 Un exemple graphique

2.4 Propriétés d’un processus


2.4.1 Processsus aléatoires stationnaires
Pour un processus aléatoire quelconque, les caractéristiques statistiques (densités de
probabilités d’ordre n, moments, fonctions d’autocorrélation et d’autocovariance) dé-
pendent des instants ti auxquels elles sont calculées.
Certains processus présentent des caractéristiques statistiques invariantes à tout chan-
gement de l’origine des temps. On dit qu’ils sont stationnaires. Il existe deux types de
stationnarité : la stationnarité au sens strict et la stationnarité au sens large.

Dé…nition 2.6 (Processus stationnaire au sens strict) Le processus X = (Xt )t2T est
stationnaire au sens strict (SSS) si : pour tout n 2 N; pour tout t1 ; t2 ; :::; tn 2 T; les
vecteurs aléatoires (Xt1 ; Xt2 ; :::; Xtn ) et (Xt1 + ; Xt2 + ; :::; Xtn + ) ont même loi conjointe.

Dé…nition 2.7 (Processus stationnaire au sens large) Le processus X = (Xt )t2T est sta-
tionnaire au sens large (SSL) (ou stationnaire de deuxième ordre) si :
(i) mX (t) = mX indépendant du temps
(2.1)
(ii) RX (t1 + ; t2 + ) = RX (t1 ; t2 )

La relation (i) de 2.1 exprime le fait que les variables Xt ; t 2 T; du processus ont
même moyenne, donc indépendante du temps. La propriété (ii) quant à elle signi…e que la
fonction d’autocorrélation entre les instants t1 et t2 ne dépend que de la di¤érence entre
les deux instants, ou encore
RX (t + ; t) = RX ( ):

Page 9
ENSPT Processus Stochastiques

Proposition 2.1 Tout processus SSS est également SSL.

Remarque 2.1 La réciproque n’est pas vraie.

Dé…nition 2.8 La quantité RX (0) = E(Xt2 ) est appelée puissance du processus.

Exemple 2.5 Soit le processus Xt = A cos !t + B sin !t où A et B sont des v.a.r non
correlées, centrées et reduite et ! une constante. Montrer que X = (Xt )t2T est SSL.

Dans le cas d’un signal stationnaire, la fonction d’autocorrélation RX ( ) = E(Xt Xt ) mesure


la ressemblance entre les variations statistiques du signal à deux instants séparés par :

Exemple 2.6 Soit (Zt )t2T un procéssus aléatoire complexe.


1) Montrer que RZ (t1 ; t2 ) = RZ (t2 ; t1 ):
2) Montrer que si Zt est SSL RZ ( ) = RZ ( ) :
3) En déduire que si Zt est réel et SSL, on a RZ ( ) = RZ ( ):

2.4.2 Processus à accroissements stationnaires


Dé…nition 2.9 Le processus X = (Xt )t2T est à accroissements stationnaires, si la loi des
accroissements Xt+h Xt est la même que la loi de Xh :

Donc le processus est à accroissements stationnaires ssi pour s < t; la loi de Xt Xs ne


dépend que de la longueur de l’intervalle séparant les deux instants (Xt Xs = Xt s en
loi).

2.4.3 Processus à accroissements indépendants


Dé…nition 2.10 X est à accroissements indépendants si pour tout t1 < t2 < ::: < tn les
v.a.r Xt2 Xt1 ; Xt3 Xt2 ; :::; Xtn Xtn 1 sont indépendantes.

2.5 Propriétés temporelles


Les caractéristiques temporelles sont calculées pour une réalisation du processus. Soit
X = (Xt )t2T un processus aléatoire.

Dé…nition 2.11 On appelle moyenne temporelle de X et on note X la quantité


Z T
1
X = lim Xt dt:
T !+1 2T T

Plus précisement, pour ! 2 ;


Z T
1
X (!) = lim Xt (!)dt:
T !+1 2T T

C’est la valeur moyenne de la réalisation X(!; t) = Xt (!) lorsque t varie.

Dé…nition 2.12 On dé…nit également le moment temporel d’ordre k par


Z T
k 1
X = lim Xtk (!)dt:
T !+1 2T T

Page 10
ENSPT Processus Stochastiques

Dé…nition 2.13 La fonction d’autocorrélation temporelle est dé…nie par


Z T
1
XX ( ) = lim Xt Xt+ dt:
T !+1 2T T

Remarque 2.2 1) Toutes les quantités précédentes ( kX ; k 2 N et XX ) sont des v.a.r


car dépendent d’une réalisation du processus, c’est à dire d’un élément ! de :
2) On a XX (0) = 2X :

2.6 Signal ergodique


Dé…nition 2.14 Un signal est ergodique lorsque ses caractéristiques temporelles (moyennes
et fonction d’autocorrélation) sont constantes. Ceci signi…e que X et XX sont des v.a.r
certaines.

En pratique cette propriété est di¢ cile à véri…er car on a besoin de toutes les réa-
lisations du processus. Notons que les caractéristiques statistiques et temporelles d’un
processus sont impossibles à calculer directement car en pratique on a une seule réalisa-
tion du processus. En général on a besoin d’un modèle probabiliste pour faire un calcul
analytique comme dans les exemples proposés, ou alors ces caractéristiques sont estimées
(par les méthodes statistiques) à partir d’un échantillon de réalisation du processus. Ces
échantillons sont souvent obtenues soit à partir des simulations faites à partir du modèle
probabiliste, soit à partir des données empiriques dont on dispose.
Si un signal est SSL et ergodique, alors ses moyennes statistique et temporelle sont
identiques. Dans ces conditions une seule réalisation du processus su¢ t pour avoir les
moyennes statistiques et temporelles, sans passer par un modèle probabiliste.

Exemple 2.7 Soit = f! 1 ; ! 2 g, A = P( ); P équiprobabilité sur : On dé…nit le


processus
1 si ! = ! 1 ; 8t
X(!; t) = Xt (!) =
-1 si ! = ! 2 ; 8t:
Etudier les propriétés de X.

Exemple 2.8 Soit = f! 1 ; ! 2 g, A = P ( ); P équiprobabilité sur : On dé…nit le


processus
cos(t) si ! = ! 1 ; 8t
X(!; t) = Xt (!) =
sin(t) si ! = ! 2 ; 8t:
Etudier les propriétés de X.

Page 11
Chapitre 3

Processus gaussiens

Les processus gaussiens sont un bon modèle pour les bruits dans les transmetteurs et
recepteurs radio, dans les radars, dans les systèmes de commande etc....

3.1 Généralités
Dé…nition 3.1 Le processus X = (Xt )t2T est gaussien si toutes ses lois …ni dimension-
nelles sont gaussiennes ; c’est à dire 8n 2 N; 8t1 ; t2 ; :::; tn 2 T; (Xt1 ; Xt2 ; :::; Xtn ) est un
vecteur gaussien.

Autrement dit X est un processus gaussien si 8n 2 N; 8t1 ; t2 ; :::; tn 2 T; 8a 2 Rn ; a =


(a1 ; a2 ; :::; an ) 6= 0; a1 Xt1 + a2 Xt2 + ::: + an Xtn est une v.a.r gaussienne.
La loi d’un vecteur gaussien (Xt1 ; Xt2 ; :::; Xtn ) est connue par sa moyenne

(E(Xt1 ); E(Xt2 ); :::; E(Xtn ))

et sa matrice de variances covariances

= cov(Xti ; Xtj )1 i;j n :

Ainsi toute la loi d’un processus gaussien est connue dès qu’on se donne la fonction
moyenne (t) = E(Xt ) et l’opérateur de covariance (s; t) = cov(Xs ; Xt ): La loi …ni di-
mensionnelle de (Xt1 ; Xt2 ; :::; Xtn ) est alors la loi normale de dimension n; N n ( n ; n ) avec

n = ( (t1 ) ; (t2 ); :::; (tn )) et n = ( (ti ; tj ))1 i;j n :

Les fonctions et dé…nissent donc toutes les lois …ni dimensionnelles de X; donc aussi
sa loi.
Des propriétés d’un vecteur gaussien il découle

Remarque 3.1 (i) Toutes les marginales d’un processus gaussien sont bien sûr gaus-
p
siennes, Xt # N (t); (t; t)
(ii) Toute combinaison linéaire de marginales d’un processus gaussien est encore gaus-
sienne.

Proposition 3.1 Un processus gaussien est stationnaire au sens large (SSL) ssi E(Xt ) est
constant et (s; t) = (s t):

12
ENSPT Processus Stochastiques

Dans le cas stationnaire, par le théorème de Bochner, la fonction de covariance (t) s’écrit
Z +1
(t) = eitu d (u)
1

où est une mesure (appelée mesure spectrale du processus) véri…ant (R) < +1: Cette
mesure spectrale possède beaucoup d’informations décrivant le processus. Par exemple on
a (0) = V (Xt ) = (R):

3.2 Exemples de processus gaussiens


3.2.1 Mouvement brownien
Le mouvement brownien est le plus célèbre et le plus important des processus sto-
chastiques et ceci pour plusieurs raisons. Historiquement, la découverte du processus qui
s’est faite durant la période 1900–1930 et à laquelle sont attachés les noms de Bachelier,
Einstein, Wiener et Kolmogorov, fut le premier cas où le calcul des probabilités s’appli-
quait à la description d’un phénomène physique indépendamment de tout jeu de hasard,
à savoir la description du mouvement d’une petite particule dans un liquide ou gaz sou-
mise à des chocs moléculaires dus à l’agitation thermique. Le MB est associé a l’analyse
de mouvements qui evoluent au cours du temps de manière si désordonnée qu’il semble
di¢ cile de prévoir leur évolution, même dans un intervalle de temps très court. Le champ
d’application du mouvement brownien est beaucoup plus vaste que l’étude des particules
microscopiques en suspension et inclut la modélisation du prix des actions boursières, du
bruit thermique dans les circuits électroniques, du comportement limite des problèmes
de …les d’attente et des perturbations aléatoires dans un grand nombre de systèmes phy-
siques, biologiques ou économiques.

Dé…nition 3.2 Soit T = R+ ; le mouvement brownien standard (MBS) est le processus


gaussien (Bt )t 0 dé…ni par E(Bt ) = 0 et (s; t) = min(s; t): On l’appelle aussi processus
de Wiener.

Propriétés immédiates d’un MBS.

Proposition 3.2 (i) B0 = 0:


(ii) (Bt )t 0 est àpaccroissements indépendants.
(iii) Bt # N (0; t):
(iv) Si s t on a Bt Bs = Bt s (égalité en loi).
(v) Bet = p1 B t est encore un MBS.
(vi) Bet = tB 1 est aussi un MBS.
t
et = Bt+t0
(vii) Pour tout t0 ; B Bt0 est encore un mouvement brownien.

Preuve
(i) B0 = 0 car la loi de B0 est N (0; 0) = 0; la loi dégénérée en 0.
(ii) Soiet 0 t1 < t2 < t3 < t4 ; on a

cov(Bt2 Bt1 ; Bt4 Bt3 ) = E ((Bt2 Bt1 )(Bt4 Bt3 ))


= E(Bt2 Bt4 ) E(Bt2 Bt3 ) E(Bt1 Bt4 ) + E(Bt1 Bt3 )
= t2 t2 t1 + t1 = 0:

Page 13
ENSPT Processus Stochastiques

Les v.a.r Bt2 Bt1 et Bt4 Bt3 sont donc non corrélées. Comme elles sont gaussiennes, elles
sont indépendantes. Pour n accroissements, ils seront 2 à 2 indépendants. En considérant le
vecteur formé par les n accroissements, la matrice des variances covariances de ce vecteur
est diagonale. Comme c’est un vecteur gaussien (car toute combinaison linéaire de ses
composantes est une v.a.r gaussienne), ses composantes sont mutuellement indépendantes,
c’est à dire les accroissements
p considérés sont mutuellement indépendants.
(iii) Bt Bs # N (0; t s)
(v) (vi) et (vii) à titre d’exercice.

Remarque 3.2 Les trajectoires d’un mouvement brownien sont continues en tout point
et non dérivables en tout point.

3.2.2 Pont brownien


Dé…nition 3.3 Soit T = [0; 1]; le pont brownien (Bt0 )t2T est le processus gausssien centré
dé…ni par la fonction de covariance (s; t) = min(s; t) st:

On peut dé…nir directement un pont brownien B 0 à partir d’un mouvement brownien


B par Bt0 = Bt tB1 :
Bt0 = Bt tB1 :
Réciproquement, on construit le mouvement brownien B sur T = [0; 1] à partir du
pont brownien B 0 et d’une v.a.r gaussienne centrée reduite X indépendante de B 0 par

Bt = Bt0 + tX:

Exercice. Véri…er par un calcul les deux derniers résultats.

3.3 Bruit blanc


Dé…nition 3.4 Un processus à temps discret ("t )t2T est un bruit blanc si :

(i) E("t ) = 0 8t 2 T
(ii) E("2t ) = 2 8t 2 T
(iii) E("t1 "t2 ) = 0 8t1 ; t2 2 T; t1 6= t2 :

Un bruit blanc est donc par dé…nition un processus stationnaire de second ordre. La
condition (iii) signi…e que l’autocovariance (donc l’autocorrélation) est nulle.

Dé…nition 3.5 Le processus à temps discret ("t )t2T est un bruit blanc indépendant si :

(i) E("t ) = 0 8t 2 T
(ii) E("2t ) = 2 8t 2 T
(iii) "t1 et "t2 sont indépendants 8t1 ; t2 2 T; t1 6= t2 :

Un bruit blanc indépendant est donc un bruit blanc. Mais la réciproque n’est pas vraie.

Dé…nition 3.6 Un bruit blanc gaussien est un bruit blanc ("t )t2T tel que "t # N (0; ) 8t 2
T.

Remarque 3.3 Un bruit blanc est souvent utilisé en statistique et probabilité pour mo-
déliser les erreurs. En traitement du signal, un bruit blanc est un processus stochastique
qui possède la même densité spectrale de puissance à toutes les fréquences.

Page 14
Chapitre 4

Processus de Poisson

On considère dans ce chapitre un évènement d’interêt, par exemple : un appel reçu


par un standard, une arrivée de voiture à un poste de péage, une arrivée de client à un
guichet, un SMS reçu par un serveur etc....

4.1 Dé…nition et généralités


Dé…nition 4.1 (Processus de comptage) Un processus de comptage est un processus N =
(Nt )t 0 qui compte le nombre d’occurences d’un évènement dans l’intervalle de temps
[0; t]: Un processus de comptage véri…e donc les propriétés suivantes :

(i) N0 = 0
(ii) Nt est à valeurs dans N:
(iii) s < t =) Ns Nt :
(iv) Pour s < t; Nt Ns est égal au nombre d’occurrences de l’évènement dans
l’intervalle ]s; t]:

Les processus de comptage les plus utilisés en pratique sont les processus de Poisson.

Dé…nition 4.2 (Processus de Poisson) Un processus de Poisson d’intensité ( 2 R+ ) est


un processus de comptage N = (Nt )t 0 tel que :

(i) N0 = 0
(ii) s < t =) Nt Ns # P( (t s)):
(iii) N est à accroissements indépendants, c’est à dire si 0 < t1 < t2 < t3 < ::: < tn
les v.a.r Nt1 ; Nt2 Nt1 ; Nt3 Nt2 ; :::; Ntn Ntn 1 sont indépendantes.

Un processus de Poisson d’intensité compte donc le nombre d’occurences de l’évène-


ment d’interêt dans l’intervalle [0; t]: La loi de Poisson de paramètre ; P( ); correspond
donc au nombre d’occurences de l’évènement pendant une unité de temps. Ainsi est le
nombre moyen d’occurences de l’évènement pendant une unité de temps.
La propriété (ii) signi…e que le nombre d’occurences de l’évènement ne dépend que
de la longueur de l’intervalle. Il s’ensuit qu’un processsus de Poisson est un processus à
accroissement stationnaires.
Nous allons maintenant montrer quelques propriétés importantes de la loi de Poisson.

15
ENSPT Processus Stochastiques

Théorème 4.1 Soit A un évènement partitionné en m évènements mutuellement exclu-


sifs Ai ; i = 1; 2; :::; m: On repète plusieurs fois l’expérience aléatoire et on note X le nombre
d’occurences de A et Xi le nombre d’occurences de Ai : On suppose que P (Ai =A) = pi : Si
X # P( ); alors :

(i) Xi # P( pi ) pour tout i = 1; 2; :::; m.


(ii) Les v.a.r X1 ; X2 ; :::; Xm sont indépendantes.

Exemple 4.1 Les appels reçus par un standard téléphonique entre 08h et 18h proviennent
de quatre opérateurs M1 ; M2 ; M3 et M4 :30% des appels proviennent de M1 , 35% de M2 ; 23%
de M3 et le reste de M4 : Soit X le nombre d’appels reçus par heure par ce standard ; on
suppose que X # P(50). Au cours d’une heure, on note Xi le nombre d’appels reçus par
le standard provenant de l’opérateur Mi :
1)Déterminer les lois de probabilité de v.a.r X1 ; X2 ; X3 et X4 :
2)Montrer que X1 ; X2 ; X3 et X4 sont des v.a.r indépendantes.

4.2 Lois des inter-arrivées dans un processus de Pois-


son
Proposition 4.1 Soit N = (Nt )t 0 un processus de Poisson d’intensité :
(i) Le temps T1 separant deux occurences successives de N (resp. le temps d’attente pour la
première occurence de l’évènement) est une v.a.r qui suit la loi exponentielle de paramètre
; E( ):
(ii) Le temps T séparant une occurrence de la nieme occurence suivante (resp. le temps
d’attente pour la nieme occurence de l’évènement) est une loi Gamma, G(n; ):

Notons que :
1. La fonction de répartition de E( ) est dé…ne par

0 si x 0
F (x) = x
1 e si x > 0:
On a alors
t
P (T1 > t) = 1 P (T1 t) = e = P (Nt = 0)
probabilité qu’il n’y ait aucune occurence de l’évènement dans l’intervalle [0; t]: On
a également
1 1
E(T1 ) = et V (T1 ) = 2 :

2. Notons Ti le temps qui sépare la (i 1)ieme occurence de la ieme occurence, T1 ; T2 ; :::; Tn sont
i.i.d de loi E( ): De plus T = T1 + T2 ; :::; Tn : Donc
n n
E(T ) = et V (T ) = 2:

Propriétés de la loi E( )

Proposition 4.2 (Voir cours Rappels de probabilité page 29) Si X # E( ) alors, pour
tout t > 0; h > 0
P (X > t + h = X > t) = P (X > h)

Page 16
ENSPT Processus Stochastiques

Proposition 4.3 Si S # E( ); T # E( ); S et T indépendantes, alors

(i) min(S; T ) # E( + ):
(ii) P (S < T ) = + et P (T < S) = +
:

Proposition 4.4 Si T1 ; T2 ; :::; Tn sont n v.a.r indépendantes de loi E( i ) i = 1; 2; :::; n respectivement,


alors
(i) min(T1 ; T2 ; :::; Tn ) # E( 1 + 2 + ::: + n ):
(ii) P (Ti = min(T1 ; T2 ; :::; Tn )) = 1 + 2 +:::+
i
n
:

Exemple 4.2 Le nombre de personnes qui se connectent par minute sur un site web suit
une loi de Poisson de paramètre = 2: Vous observez le site à partir de 6h.
1) Calculer la probabilité qu’il n’y ait pas de visite sur le site entre 6h et 6h04.
2) Quelle est la probabilité que la 1ère connexion sur le site soit supérieur à 3 mns ?
3) Quel est le temps moyen d’attente pour la 1ère connexion ?
4) Quel est le temps moyen d’attente pour la 10ème connexion ?

Exemple 4.3 Les clients arrivent par heure dans un magazin selon une loi de Poisson
de paramètre = 20: Quel est le temps moyen d’attente pour l’arrivée du 12ème client ?

Exemple 4.4 Deux sites web A et B reçoivent dans la journée, en moyenne respective-
ment 10 et 6 visites par heure.
1) Quelle est la probabilité qu’entre 10 h et 11 h, la première connexion ait lieu sur le site
(i ) A ? (ii) B ?
2) Quelle est la probabilité que le site A reçoive 3 connexions avant la première connexion
sur le site B ?
3) Quelle est la probabilité que le site A reçoive 3 connexions avant la troisième connexion
sur le site B ?

4.3 Processus de Poisson non homogène


Pour un processus de Poisson homogène, l’intensité ne varie pas en fonction du
temps, il est constant. Lorsque varie en fonction du temps, l’intensité devient (t) et on
obtient dans ce cas un processus de Poisson non homogène.
Le nomnbre moyen d’occurences de l’évènement d’intérêt dans l’intervalle [0; t] est
alors Z t
m(t) = (u)du:
0

La v.a.r Nt nombre d’occurences de l’évènement sur [0; t] est alors une loi de Poisson
P(m(t)): Donc
e m(t) (m(t))n
P (Nt = n) = :
n!
Dé…nition 4.3 N = (Nt )t 0 est un processus de Poisson non homogène si

(i) N0 = 0:
(ii) Nt est à accroissements indépendants.
Rt
(iii) t > s =) Nt Ns # P s (u)du :

Dans ces conditions, les interarrivées ne sont plus des v.a.r indépendantes.

Page 17
ENSPT Processus Stochastiques

Exemple 4.5 Des clients arrivent dans un magazin selon un processus de Poisson non
homogène d’intensité linéairement croissante de 6 par heure à 13 h, à 9 par heure à 14
h. Calculer la probabilité qu’il y ait exactement 8 clients dans le magazin entre 13 h et 14
h.

Exemple 4.6 Des clients arrivent dans un magazin selon un processus de Poisson non
homogène d’intensité linéairement décroissante de 8 par heure à 12 h, à 4 par heure à 14
h. Calculer la probabilité qu’il y ait exactement 3 clients dans le magazin entre 12 h et 14
h.

4.4 Processus de Poisson composé


Soit N = (Nt )t 0 un processus de Poisson homogène. Associons à chaque occurence
i de l’évènement, une v.a.r Yi telle que les Yi sont i.i.d et indépendants de Nt :
Lorsque les Yi sont à valeurs entières, on dé…nit le processus de comptage (SNt )t 0 par

SNt = Y1 + Y2 + ::: + YNt

(avec SN0 = 0): On obtient un nouveau processus appelé processus de Poisson composé.
Illustrons cela par quelques exemples.

Exemple 4.7 Soit Nt le nombre d’arrivées de voitures en un point A pendant l’intervalle


de temps [0; t]: On suppose que (Nt )t 0 est un processus de Poisson homogène. Pour chaque
voiture i arrivée en A, on note Yi la v.a.r égale au nombre de personnes dans cette voiture.
On dé…nit
SNt = Y1 + Y2 + ::: + YNt
le nombre total de personnes qui arrivent au point A dans l’intervalle de temps [0; t].
(SNt )t 0 est un processus de Poisson composé.

Exemple 4.8 Soit (Nt )t 0 un processus de Poisson homogène où Nt est le nombre de


SMS reçus par un serveur dans l’intervalle [0; t]: On note Yi le volume du message i.
Alors
SNt = Y1 + Y2 + ::: + YNt
est le volume total des messages reçus par le serveur pendant [0; t]: (SNt )t 0 est un pro-
cessus de Poisson composé.

Exemple 4.9 Soit une agence de banque qui ferme le vendredi à 18 h (assimilé à t =
0) pour ouvrir le lundi à 08 h (assimilé à t = T ). Considerons un guichet automatique
de banque (GAB) installé dans cette agence et qui est provisionné le vendredi à la fer-
meture, aucun autre ravitaillement ne sera fait avant lundi matin à 08 h. On dé…nit le
processus de Poisson homogène (Nt )t2[0;T ] où Nt est le nombre de clients qui se présentent
devant le GAB dans l’intervalle [0; t]: On note Yi le montant du retrait é¤ectué par le
iieme client.
SNt = Y1 + Y2 + ::: + YNt
est le montant total des retraits é¤ectués dans l’intervalle [0; t]: (SNt )t2[0;T ] est un processus
de Poisson composé.

L’objectif ici est de déterminer la loi de SNt : Le problème posé sort du cadre de ce
cours ; on peut cependant déterminer les premiers moments de SNt : Nous utilisons le
résultat suivant :

Page 18
ENSPT Processus Stochastiques

Théorème 4.2 Soient N une v.a.r à valeurs entières et X1 ; X2 ; :::; XN des v.a.r i.i.d,
indépendantes de N: On pose

SN = X1 + X2 + ::: + XN :

Alors
E(SN ) = E(N )E(X1 )
et
V (SN ) = E(N )V (X1 ) + V (N )(E(X1 ))2

En appliquant le théorème précédent on a donc :

E(SNt ) = E(Nt )E(Y1 ) = tE(Y1 )

et

V (SNt ) = E(Nt )V (Y1 ) + V (Nt )(E(Y1 ))2


= t V (Y1 ) + (E(Y1 ))2
= tE(Y12 ):

Page 19

Vous aimerez peut-être aussi