Processus-Sto Unique
Processus-Sto Unique
Master 1
Ecole Nationale Supérieure des Postes, des
Télécommunications et des TIC
Siméon FOTSO
Département de Mathématiques
Ecole Normale Supérieure
Université de Yaoundé 1
e-mail : simeonfotso@[Link]
1 Vecteurs gaussiens 2
1.1 Dé…nition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Propriétés des vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . 2
2 Processus stochastiques 5
2.1 Dé…nition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Dé…nition et généralités . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Description d’un processus aléatoire . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 Description complète . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2 Description partielle . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Propriétés statistiques d’un processus . . . . . . . . . . . . . . . . . . . . . 7
2.3.1 Valeur moyenne, variance . . . . . . . . . . . . . . . . . . . . . . . 7
2.3.2 Fonction d’autocorrélation et d’autocovariance . . . . . . . . . . . . 8
2.3.3 Cas des processus aléatoires complexes . . . . . . . . . . . . . . . . 8
2.3.4 Un exemple graphique . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Propriétés d’un processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.1 Processsus aléatoires stationnaires . . . . . . . . . . . . . . . . . . . 9
2.4.2 Processus à accroissements stationnaires . . . . . . . . . . . . . . . 10
2.4.3 Processus à accroissements indépendants . . . . . . . . . . . . . . . 10
2.5 Propriétés temporelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.6 Signal ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Processus gaussiens 12
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Exemples de processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.1 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.2 Pont brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4 Processus de Poisson 15
4.1 Dé…nition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2 Lois des inter-arrivées dans un processus de Poisson . . . . . . . . . . . . . 16
4.3 Processus de Poisson non homogène . . . . . . . . . . . . . . . . . . . . . . 17
4.4 Processus de Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . 18
1
Chapitre 1
Vecteurs gaussiens
Dé…nition 1.1 Un vecteur aléatoire X = t (X1 ; X2 ; :::; Xn ) suit une loi normale de di-
mension n de paramètres et ; N n ( ; ); si sa densité de probabilité est donnée par :
p
j 1j 1t
f (x1 ; x2 ; :::; xn ) = n exp (x ) 1 (x ) (1.1)
(2 ) 2 2
On note alors X # N n ( ; ).
2
ENSPT Processus Stochastiques
Preuves
Nous allons utiliser le corollaire 1.2 ci-dessous qui dit que si X est un vecteur gaussien,
alors ses composantes sont des v.a.r gaussiennes.
Posons 2k = V (Xk ). En utilisant l’expression (1.1) la densité conjointe f de X s’écrit :
" # " #
1X Y
n 2 n 2
1 xk k 1 1 xk k
f (x1 ; :::; xn ) = n exp = p
exp
(2 ) 2 1 ::: n 2 k=1 k
k=1 k 2 2 k
X1
Corollaire 1.1 Si est un vecteur gaussien de dimension 2 tel que cov(X1 ; X2 ) =
X2
0; alors X1 et X2 sont indépendantes.
Preuve
On détermine la fonction génératrice des moments ou la fonction caractéristique de Y .
Caractérisation d’un vecteur gaussien
Preuve
La réciproque de (ii) est fausse ; c’est à dire si X1 ; X2 ; :::; Xn sont des v.a.r gaussiennes,
alors X = t (X1 ; X2 ; :::; Xn ) n’est pas toujours un vecteur gaussien. Ce résultat est vrai si
les v.a.r X1 ; X2 ; :::; Xn sont indépendantes.
Preuve
Elle peut être faite de deux façons possibles.
1. En appliquant successivement les propositions (1.1) et (1.4) on a le résultat.
2
2. On utilise la fonction caratéristique. Posons E(Xk ) = k et V (Xk ) = k: On a
Page 3
ENSPT Processus Stochastiques
1t
'X (t1 ; t2 ; :::; tn ) = exp i ht; i t t
2
Exemple 1.1 Soit X = t (X1; X2 ) un vecteur aléatoire à valeurs dans R2 : On suppose que
3 2
X suit une loi normale de densité f (x1; x2 ) = k exp( 16 x1 + 14 x1 x2 14 x22 ).
1)Déterminer = E(X) et la matrice des variances covariances de X. En déduire k.
2) Calculer le coe¢ cient de corrélation linéaire des v.a.r X1 et X2 .
3) Déterminer les lois de X1 et X2 :
4) Quelle est la loi de X1 2X2 :
Exemple 1.2 On suppose que U = t (X; Y ) est une v.a normale de dimension 2, de
densité
f (x; y) = k exp 2x2 6y 2 4xy + 8x 4y + 12 :
1) Déterminer la constante k:
2) Calculer E(U ) et U respectivement l’espérance mathématique et la matrice des va-
riances covariances de U:
3) Déterminer les lois marginales et calculer le coé¢ cient de corrélation linéaire des deux
variables.
4) Déterminer la loi de 2X1 + 3X2 :
Remarque 1.2 On dé…nit parfois un vecteur gaussien par la proposition (1.4). Dans ces
conditions si = E(X) et la matrice des variances covariances de X; on distingue deux
cas.
(i) Si est inversible alors X est un vecteur gaussien dont la densité de probabilité est
donnée par (1.1).
(ii) Si n’est pas inversible ( est symétrique et positive), alors X n’admet pas de densité
de probabilité par rapport à la mesure de Lebesgue de Rn : On dit dans ce cas que le vecteur
gaussien X est dégénéré. Les formules donnant la fgm et la fonction caractéristique restent
vraies dans ce cas.
Proposition 1.6 (Théorème central limite) Soit X un vecteur aléatoire à valeurs dans
Rd ; de moyenne et de matrice de variances covariances : Soit X1 ; X2 ; :::; Xn une suite
de vecteurs aléatoires i.i.d de même loi que X: Alors
!
1X
n
p L
Yn = n Xi ! N d (0; ):
n k=1
Page 4
Chapitre 2
Processus stochastiques
5
ENSPT Processus Stochastiques
Un processus aléatoire est donc une famille X = (Xt )t2T de v.a.r indexées par le temps.
E est l’ensemble des états du processus.
X: T ! E
(!; t) 7 ! X(!; t) = Xt (!):
Lorsque ! est …xé (! = ! 0 ); on obtient une réalisation du processus que l’on appelle
une trajectoire.
Lorsque t est …xé (t = t0 ); le processus X se reduit à une simple v.a.r X(!; t0 ) =
Xt0 dé…nie sur l’espace probabilisé ( ; A; P ):
Si ! et t sont …xés, on obtient un nombre.
– Si T est un ensemble …ni, le processus X est un vecteur aléatoire de dimension n:
– Si T = N; X est une suite de v.a.r.
De façon générale quatre cas sont possibles.
– Si T est dénombrable, X est un processus à temps discret.
– Si T est non dénombrable, X est un processus à temps continu.
– Si E est dénombrable, X est un processus à espace des états discrets (signal numé-
rique).
– Si E est continu, X est un processus à espace des états continus (signal analogique).
2.1.2 Exemples
Processus à temps discrets et à espace des états discrets
Exemple 2.1 Xn = nombre d’appels émis durant la nieme heure de la journée. Ici E =
N et T = f1; 2; :::; 24g
Exemple 2.2 Xn = temps mis par un serveur pour traiter la nieme requête de la journée.
E = [0; +1[ et T = N:
Exemple 2.3 Xt = nombre de bits qui traversent un routeur informatique donné dans
[0; t]; t T0 : E = N et T = [0; T0 ]:
Exemple 2.4 Xt = Temps d’attente d’une requête (par exemple par un serveur web)
reçue à l’instant t: Ici E et T sont continus.
Page 6
ENSPT Processus Stochastiques
Dé…nition 2.3 Etant donné le processus X = (Xt )t2T ; les lois …nies dimensionnelles de
X sont les lois conjointes de tous les vecteurs aléatoires associés à X, (Xt1 ; Xt2 ; :::; Xtn ); pour
tout t1 ; t2 ; :::; tn 2 T et pour tout n 2 N:
Page 7
ENSPT Processus Stochastiques
Dé…nition 2.5 La fonction d’autocovariance de X = (Xt )t2T est la fonction notée CX dé…nie
par : pour tout t1 ; t2 2 T;
– Sa variance :
2
Zt = E jZt E(Zt )j2
= E (Xt E(Xt ))2 + E (Yt E(Yt ))2
= 2Xt + 2
Yt :
– Sa fonction d’autocorrélation :
– Sa fonction d’autocovariance :
h i
CZ (t1 ; t2 ) = E (Zt1 E(Zt1 ))(Zt2 E(Zt2 ))
= RZ (t1 ; t2 ) mZ (t1 )mZ (t2 ):
Page 8
ENSPT Processus Stochastiques
Dé…nition 2.6 (Processus stationnaire au sens strict) Le processus X = (Xt )t2T est
stationnaire au sens strict (SSS) si : pour tout n 2 N; pour tout t1 ; t2 ; :::; tn 2 T; les
vecteurs aléatoires (Xt1 ; Xt2 ; :::; Xtn ) et (Xt1 + ; Xt2 + ; :::; Xtn + ) ont même loi conjointe.
Dé…nition 2.7 (Processus stationnaire au sens large) Le processus X = (Xt )t2T est sta-
tionnaire au sens large (SSL) (ou stationnaire de deuxième ordre) si :
(i) mX (t) = mX indépendant du temps
(2.1)
(ii) RX (t1 + ; t2 + ) = RX (t1 ; t2 )
La relation (i) de 2.1 exprime le fait que les variables Xt ; t 2 T; du processus ont
même moyenne, donc indépendante du temps. La propriété (ii) quant à elle signi…e que la
fonction d’autocorrélation entre les instants t1 et t2 ne dépend que de la di¤érence entre
les deux instants, ou encore
RX (t + ; t) = RX ( ):
Page 9
ENSPT Processus Stochastiques
Exemple 2.5 Soit le processus Xt = A cos !t + B sin !t où A et B sont des v.a.r non
correlées, centrées et reduite et ! une constante. Montrer que X = (Xt )t2T est SSL.
Page 10
ENSPT Processus Stochastiques
En pratique cette propriété est di¢ cile à véri…er car on a besoin de toutes les réa-
lisations du processus. Notons que les caractéristiques statistiques et temporelles d’un
processus sont impossibles à calculer directement car en pratique on a une seule réalisa-
tion du processus. En général on a besoin d’un modèle probabiliste pour faire un calcul
analytique comme dans les exemples proposés, ou alors ces caractéristiques sont estimées
(par les méthodes statistiques) à partir d’un échantillon de réalisation du processus. Ces
échantillons sont souvent obtenues soit à partir des simulations faites à partir du modèle
probabiliste, soit à partir des données empiriques dont on dispose.
Si un signal est SSL et ergodique, alors ses moyennes statistique et temporelle sont
identiques. Dans ces conditions une seule réalisation du processus su¢ t pour avoir les
moyennes statistiques et temporelles, sans passer par un modèle probabiliste.
Page 11
Chapitre 3
Processus gaussiens
Les processus gaussiens sont un bon modèle pour les bruits dans les transmetteurs et
recepteurs radio, dans les radars, dans les systèmes de commande etc....
3.1 Généralités
Dé…nition 3.1 Le processus X = (Xt )t2T est gaussien si toutes ses lois …ni dimension-
nelles sont gaussiennes ; c’est à dire 8n 2 N; 8t1 ; t2 ; :::; tn 2 T; (Xt1 ; Xt2 ; :::; Xtn ) est un
vecteur gaussien.
Ainsi toute la loi d’un processus gaussien est connue dès qu’on se donne la fonction
moyenne (t) = E(Xt ) et l’opérateur de covariance (s; t) = cov(Xs ; Xt ): La loi …ni di-
mensionnelle de (Xt1 ; Xt2 ; :::; Xtn ) est alors la loi normale de dimension n; N n ( n ; n ) avec
Les fonctions et dé…nissent donc toutes les lois …ni dimensionnelles de X; donc aussi
sa loi.
Des propriétés d’un vecteur gaussien il découle
Remarque 3.1 (i) Toutes les marginales d’un processus gaussien sont bien sûr gaus-
p
siennes, Xt # N (t); (t; t)
(ii) Toute combinaison linéaire de marginales d’un processus gaussien est encore gaus-
sienne.
Proposition 3.1 Un processus gaussien est stationnaire au sens large (SSL) ssi E(Xt ) est
constant et (s; t) = (s t):
12
ENSPT Processus Stochastiques
Dans le cas stationnaire, par le théorème de Bochner, la fonction de covariance (t) s’écrit
Z +1
(t) = eitu d (u)
1
où est une mesure (appelée mesure spectrale du processus) véri…ant (R) < +1: Cette
mesure spectrale possède beaucoup d’informations décrivant le processus. Par exemple on
a (0) = V (Xt ) = (R):
Preuve
(i) B0 = 0 car la loi de B0 est N (0; 0) = 0; la loi dégénérée en 0.
(ii) Soiet 0 t1 < t2 < t3 < t4 ; on a
Page 13
ENSPT Processus Stochastiques
Les v.a.r Bt2 Bt1 et Bt4 Bt3 sont donc non corrélées. Comme elles sont gaussiennes, elles
sont indépendantes. Pour n accroissements, ils seront 2 à 2 indépendants. En considérant le
vecteur formé par les n accroissements, la matrice des variances covariances de ce vecteur
est diagonale. Comme c’est un vecteur gaussien (car toute combinaison linéaire de ses
composantes est une v.a.r gaussienne), ses composantes sont mutuellement indépendantes,
c’est à dire les accroissements
p considérés sont mutuellement indépendants.
(iii) Bt Bs # N (0; t s)
(v) (vi) et (vii) à titre d’exercice.
Remarque 3.2 Les trajectoires d’un mouvement brownien sont continues en tout point
et non dérivables en tout point.
Bt = Bt0 + tX:
(i) E("t ) = 0 8t 2 T
(ii) E("2t ) = 2 8t 2 T
(iii) E("t1 "t2 ) = 0 8t1 ; t2 2 T; t1 6= t2 :
Un bruit blanc est donc par dé…nition un processus stationnaire de second ordre. La
condition (iii) signi…e que l’autocovariance (donc l’autocorrélation) est nulle.
Dé…nition 3.5 Le processus à temps discret ("t )t2T est un bruit blanc indépendant si :
(i) E("t ) = 0 8t 2 T
(ii) E("2t ) = 2 8t 2 T
(iii) "t1 et "t2 sont indépendants 8t1 ; t2 2 T; t1 6= t2 :
Un bruit blanc indépendant est donc un bruit blanc. Mais la réciproque n’est pas vraie.
Dé…nition 3.6 Un bruit blanc gaussien est un bruit blanc ("t )t2T tel que "t # N (0; ) 8t 2
T.
Remarque 3.3 Un bruit blanc est souvent utilisé en statistique et probabilité pour mo-
déliser les erreurs. En traitement du signal, un bruit blanc est un processus stochastique
qui possède la même densité spectrale de puissance à toutes les fréquences.
Page 14
Chapitre 4
Processus de Poisson
(i) N0 = 0
(ii) Nt est à valeurs dans N:
(iii) s < t =) Ns Nt :
(iv) Pour s < t; Nt Ns est égal au nombre d’occurrences de l’évènement dans
l’intervalle ]s; t]:
Les processus de comptage les plus utilisés en pratique sont les processus de Poisson.
(i) N0 = 0
(ii) s < t =) Nt Ns # P( (t s)):
(iii) N est à accroissements indépendants, c’est à dire si 0 < t1 < t2 < t3 < ::: < tn
les v.a.r Nt1 ; Nt2 Nt1 ; Nt3 Nt2 ; :::; Ntn Ntn 1 sont indépendantes.
15
ENSPT Processus Stochastiques
Exemple 4.1 Les appels reçus par un standard téléphonique entre 08h et 18h proviennent
de quatre opérateurs M1 ; M2 ; M3 et M4 :30% des appels proviennent de M1 , 35% de M2 ; 23%
de M3 et le reste de M4 : Soit X le nombre d’appels reçus par heure par ce standard ; on
suppose que X # P(50). Au cours d’une heure, on note Xi le nombre d’appels reçus par
le standard provenant de l’opérateur Mi :
1)Déterminer les lois de probabilité de v.a.r X1 ; X2 ; X3 et X4 :
2)Montrer que X1 ; X2 ; X3 et X4 sont des v.a.r indépendantes.
Notons que :
1. La fonction de répartition de E( ) est dé…ne par
0 si x 0
F (x) = x
1 e si x > 0:
On a alors
t
P (T1 > t) = 1 P (T1 t) = e = P (Nt = 0)
probabilité qu’il n’y ait aucune occurence de l’évènement dans l’intervalle [0; t]: On
a également
1 1
E(T1 ) = et V (T1 ) = 2 :
2. Notons Ti le temps qui sépare la (i 1)ieme occurence de la ieme occurence, T1 ; T2 ; :::; Tn sont
i.i.d de loi E( ): De plus T = T1 + T2 ; :::; Tn : Donc
n n
E(T ) = et V (T ) = 2:
Propriétés de la loi E( )
Proposition 4.2 (Voir cours Rappels de probabilité page 29) Si X # E( ) alors, pour
tout t > 0; h > 0
P (X > t + h = X > t) = P (X > h)
Page 16
ENSPT Processus Stochastiques
(i) min(S; T ) # E( + ):
(ii) P (S < T ) = + et P (T < S) = +
:
Exemple 4.2 Le nombre de personnes qui se connectent par minute sur un site web suit
une loi de Poisson de paramètre = 2: Vous observez le site à partir de 6h.
1) Calculer la probabilité qu’il n’y ait pas de visite sur le site entre 6h et 6h04.
2) Quelle est la probabilité que la 1ère connexion sur le site soit supérieur à 3 mns ?
3) Quel est le temps moyen d’attente pour la 1ère connexion ?
4) Quel est le temps moyen d’attente pour la 10ème connexion ?
Exemple 4.3 Les clients arrivent par heure dans un magazin selon une loi de Poisson
de paramètre = 20: Quel est le temps moyen d’attente pour l’arrivée du 12ème client ?
Exemple 4.4 Deux sites web A et B reçoivent dans la journée, en moyenne respective-
ment 10 et 6 visites par heure.
1) Quelle est la probabilité qu’entre 10 h et 11 h, la première connexion ait lieu sur le site
(i ) A ? (ii) B ?
2) Quelle est la probabilité que le site A reçoive 3 connexions avant la première connexion
sur le site B ?
3) Quelle est la probabilité que le site A reçoive 3 connexions avant la troisième connexion
sur le site B ?
La v.a.r Nt nombre d’occurences de l’évènement sur [0; t] est alors une loi de Poisson
P(m(t)): Donc
e m(t) (m(t))n
P (Nt = n) = :
n!
Dé…nition 4.3 N = (Nt )t 0 est un processus de Poisson non homogène si
(i) N0 = 0:
(ii) Nt est à accroissements indépendants.
Rt
(iii) t > s =) Nt Ns # P s (u)du :
Dans ces conditions, les interarrivées ne sont plus des v.a.r indépendantes.
Page 17
ENSPT Processus Stochastiques
Exemple 4.5 Des clients arrivent dans un magazin selon un processus de Poisson non
homogène d’intensité linéairement croissante de 6 par heure à 13 h, à 9 par heure à 14
h. Calculer la probabilité qu’il y ait exactement 8 clients dans le magazin entre 13 h et 14
h.
Exemple 4.6 Des clients arrivent dans un magazin selon un processus de Poisson non
homogène d’intensité linéairement décroissante de 8 par heure à 12 h, à 4 par heure à 14
h. Calculer la probabilité qu’il y ait exactement 3 clients dans le magazin entre 12 h et 14
h.
(avec SN0 = 0): On obtient un nouveau processus appelé processus de Poisson composé.
Illustrons cela par quelques exemples.
Exemple 4.9 Soit une agence de banque qui ferme le vendredi à 18 h (assimilé à t =
0) pour ouvrir le lundi à 08 h (assimilé à t = T ). Considerons un guichet automatique
de banque (GAB) installé dans cette agence et qui est provisionné le vendredi à la fer-
meture, aucun autre ravitaillement ne sera fait avant lundi matin à 08 h. On dé…nit le
processus de Poisson homogène (Nt )t2[0;T ] où Nt est le nombre de clients qui se présentent
devant le GAB dans l’intervalle [0; t]: On note Yi le montant du retrait é¤ectué par le
iieme client.
SNt = Y1 + Y2 + ::: + YNt
est le montant total des retraits é¤ectués dans l’intervalle [0; t]: (SNt )t2[0;T ] est un processus
de Poisson composé.
L’objectif ici est de déterminer la loi de SNt : Le problème posé sort du cadre de ce
cours ; on peut cependant déterminer les premiers moments de SNt : Nous utilisons le
résultat suivant :
Page 18
ENSPT Processus Stochastiques
Théorème 4.2 Soient N une v.a.r à valeurs entières et X1 ; X2 ; :::; XN des v.a.r i.i.d,
indépendantes de N: On pose
SN = X1 + X2 + ::: + XN :
Alors
E(SN ) = E(N )E(X1 )
et
V (SN ) = E(N )V (X1 ) + V (N )(E(X1 ))2
et
Page 19