Introduction aux Processus Stochastiques
Introduction aux Processus Stochastiques
Probabilits
Jean-Yves DAUXOIS
CTU
Universit de Franche-Comt
Anne scolaire 2008-2009
Ce polycopi est encore rcent. Veuillez mexcuser pour toutes les coquilles quil doit
contenir. Merci davance ceux qui voudront bien me les signaler.
7
8
14
17
18
23
26
27
28
32
34
37
39
40
41
48
50
51
54
56
66
67
70
81
83
84
85
Chapitre 6. Martingales
1. Martingales
2. Martingales bornes dans L1
3. Ingalit de Doob et consquences
4. Martingales bornes dans Lp , pour p > 1
97
98
111
115
117
CHAPITRE 1
Exercice 1.1. Considrons n variables alatoires X1 , . . . , Xn indpendantes et de loi respectivement N (m1 , 12 ), . . . , N (mn , n2 ).
Pour i = 1, . . . , n, la variable alatoire Xi est donc de densit
(
)
1
1 x mi 2
fXi (x) =
exp
,
2
i
2i
par rapport la mesure de Lebesgue sur R.
1) Montrer que lon peut crire la densit du vecteur de Rn
X1
X = ...
Xn
de la forme :
1
1
1
0 1
exp (x m) X (x m) ,
fX (x1 , . . . , xn ) = n p
2
2
det(X )
o u0 est la transpose du vecteur u et o m et X sont respectivement le
vecteur des esprances et la matrice de covariance du vecteur alatoire X.
2) On rappelle que la fonction caractristique (f.c.) dune v.a.r. Xj de
loi N (mj , j2 ) est :
1 2 2
ij Xj
) = exp ij mj j j ,
Xj (j ) = E(e
2
pour tout j de R. En dduire que celle du vecteur X = (X1 , . . . , Xn ) est :
1 0
i0 X
0
X () = E(e
) = exp i m X ,
2
pour tout vecteur de Rn .
3) En utilisant les f.c., montrer que toute combinaison linaire des composantes de X est de loi normale sur R dont on dterminera lesprance et
la variance.
Solution de lexercice.
1) En raison de lindpendance des variables alatoires Xi , la densit conjointe du vecteur
X1 , . . . , Xn est :
(
)
n
1
1
1 X xi mi 2
fX1 ,...,Xn (x1 , . . . , xn ) = n Qn
exp
.
2
i
2
i=1 i
i=1
c
2009
Jean-Yves Dauxois,
Fvrier
1. Variables gaussiennes
Notons que la matrice X est diagonale en raison de lindpendance des v.a.r. (Xi )i=1,...,n .
Comme toutes les variances i sont strictement positives, on obtient aisment la matrice inverse
1/12
0
..
1
.
.
X =
2
0
1/n
On peut alors rcrire la densit conjointe du vecteur X = (X1 , . . . , Xn ) sous la forme
1
1
1
fX (x1 , . . . , xn ) = n p
exp (x m)0 1
(x
m)
,
X
2
2
det(X )
puisque
(x m)0 1
X (x m)
1/12
= (x1 m1 , . . . , xn mn )
0
=
n
X
(xi mi )2
i=1
i2
x1 m1
..
..
.
.
xn mn
1/n2
0
n
Y
Xj (j ),
j=1
do on tire :
X1 ,...,
n
n
X
X
1
2j j2
j mj
Xn () = exp i
2
j=1
j=1
1 0
0
= exp i m X .
2
10
Dfinition 1.1. Un vecteur alatoire X = (X1 , . . . , Xn ) de Rn est dit vecteur gaussien si,
pour tout = (1 , . . . , n ) de Rn , la v.a.r.
0 X =
n
X
i Xi
i=1
est une v.a.r. de loi normale. Autrement dit, si toute combinaison linaire des composantes
de (X1 , . . . , Xn ) est de loi normale.
Si son vecteur des esprances est m et sa matrice de covariance est X , on note X
Nn (m, X ).
Remarquons que lon peut en particulier en dduire que toutes les composantes du vecteur
X sont des v.a.r. de loi normale (Exercice trivial !). En revanche, la rciproque est fausse. Un
vecteur dont toutes les composantes sont de loi normale, nest pas ncessairement un vecteur
gaussien. On en verra un contre-exemple sous forme dexercice la fin de cette section.
La dfinition prcdente implique galement que tout sous vecteur dun vecteur gaussien
est encore un vecteur gaussien.
Proposition 1.2. Si X est un vecteur gaussien de vecteur des esprances m = (m1 , . . . , mn )
et de matrice de covariance X , alors, pour tout dans Rn , la v.a.r. 0 X = h, Xi est de loi
N (0 m, 0 X ).
E(0 X) = 0 EX = 0 m
0 X = 0 X .
c
Jean-Yves Dauxois,
Fvrier
2009
1. Variables gaussiennes
11
(x
m)
(x
m)
.
fX (x1 , . . . , xn ) =
X
2
(2)n/2 det(X )
Un vecteur gaussien de matrice de covariance X telle que det(X ) = 0 (i.e. X non
inversible) est dit dgnr et nadmet pas de densit par rapport la mesure de Lebesgue
dans Rn .
c
Jean-Yves Dauxois,
Fvrier
2009
12
Proposition 1.5. La transforme dun vecteur gaussien de Rn par une application linaire
de Rn vers Rp est encore un vecteur gaussien.
Exercice 1.5. Dmontrer cette proposition (Ind. Un seul sens ncessite une preuve. Pour ce faire on pourra utiliser les f.c. et la caractrisation
quelles procurent pour lindpendance entre v.a.r.).
1
0
..
X =
.
.
2
0
n
c
Jean-Yves Dauxois,
Fvrier
2009
1. Variables gaussiennes
13
Comme X est un vecteur gaussien de loi Nn (m, X ), chacune de ses composantes Xj , pour
j = 1, . . . , n, est de loi normale N (mj , j2 ) et de fonction caractristique :
1 2 2
Xj (j ) = exp ij mj j j ,
2
pour tout j dans R.
Par ailleurs, la fonction caractristique du vecteur X est, pour tout dans Rn :
1 0
0
X () = exp i m X
2
n
n
X
X
1
2 2
= exp i
j j
j mj
2
j=1
j=1
n
X
1
ij mj 2j j2
= exp
2
j=1
n
Y
j=1
1
exp ij mj 2j j2
2
=
n
Y
Xj (j ).
j=1
Preuve. Immdiate.
Nous attirons lattention du lecteur sur le fait que deux variables alatoires relles gaussiennes et non corrles ne sont pas ncessairement indpendantes. Pour sassurer quelles le
soient il faut pour cela quelles constituent un couple gaussien.
Lexercice suivant tablit un contre-exemple.
Exercice 1.6. Considrons une v.a.r. X de loi N (0, 1) et une v.a.r.
discrte de loi dfinie par :
1
1
et p( = 1) =
p( = 1) =
2
2
et telle que les v.a.r. et X soient indpendantes. On pose Y = X.
1) Calculer la loi de Y .
2) Montrer que X et Y ne sont pas corrles (i.e. sont de covariance
nulle).
3) Montrer quelles ne sont cependant pas indpendantes. (Ind. on
pourra raisonner par labsurde et considrer la v.a. X + Y )
c
Jean-Yves Dauxois,
Fvrier
2009
14
P (X y)
P ({X y} { = 1}) + P ({X y} { = 1})
P ({X y} { = 1}) + P ({X y} { = 1})
P (X y)P ( = 1) + P (X y)P ( = 1)
1
1
=
P (X y) + P (X y) = FX (y).
2
2
Ainsi la v.a.r. Y est de loi N (0, 1).
2) Puisque X et Y sont centres et que et X sont indpendantes, on a :
FY (y) =
=
=
=
15
c
Jean-Yves Dauxois,
Fvrier
2009
CHAPITRE 2
17
18
19
On peut galement distinguer deux types despace dtats, selon quil est discret ou continu
comme respectivement dans les types 1 et 3 et les types 2 et 4. Notons que nous navons
considr que des espaces dtats unidimensionnels et que bien sr, sans difficult majeure,
on pourra galement considrer des espaces dtats mutlidimensionnels, par exemple E Rk .
Il en est ainsi par exemple si on considre le dplacement au cours du temps dune particule
dans un liquide, repre par ses coordonnes dans lespace.
1.2. Dfinition-Mesurabilit. A la suite des exemples prcdents, on souhaite dfinir
une manire de reprsenter lvolution dun systme au cours du temps.
Une reprsentation dterministe consiste spcifier un espace T , dit espace des temps, un
espace E, dit espace des tats et une fonction
x:T E
t 7 xt
Ainsi on pourra reprsenter lvolutions de systmes dterministes par des quations par
exemple du type : xt = t2 ou xt = A cos t, etc...
Mais, comme nous lavons vu dans les exemples de la section prcdente, il est parfois
utile ou ncessaire de faire intervenir lalatoire. Pour cela on se donne un espace probabilis
(, A, P ) et une famille (Xt )tT de v.a. de (, A, P ) vers (E, E), i.e. pour tout t T la
fonction Xt de (, A) vers (E, E) est mesurable, i.e.
B E : Xt1 (B) = {Xt B} = { : Xt () B} A.
En rsum, on a donc :
t T, B E, Xt1 (B) A.
Remarquons que lon peut aussi considrer un processus comme une fonction de T
vers E,
T E
(t, ) 7 X(t, )
et galement comme une fonction de vers lensemble des fonctions de T vers E, ensemble
not E T ,
X : ET
7 (t 7 Xt ())
Dans la dernire formulation, pour une ralisation du hasard on alors une fonction de E T .
Chaque fonction obtenue pour un particulier est alors appele trajectoire.
Revenons sur la notion de mesurabilit. Celle-ci, dj introduite plus haut, est quivalente
aux suivantes.
n N, (t1 , . . . , tn ) T n , (B1 , , Bn ) E n , on a :
{(Xt1 , . . . , Xtn ) B1 Bn } A
n N, (t1 , . . . , tn ) T n , B E n tribu produit sur E n
{(Xt1 , . . . , Xtn ) B} A
On a vu que lon pouvait voir le processus X comme fonction de vers E T . Si lon muni
ce dernier espace dune tribu, que lon notera E T , on pourra alors galement voir le processus
X comme une fonction mesurable de (, A) vers (E T , E T ). Cette notion de mesurabilit sera
alors quivalente celle introduite prcedemment.
c
Jean-Yves Dauxois,
Fvrier
2009
20
Dfinition
2.1. Soit (Ei , Ei )iI Q
une famille despace mesurables. On note iI Ei la tribu
Q
sur iI Ei engendre par les pavs iI Bi , o les Bi sont lments de Ei et sont tous gaux
Ei , sauf un nombre fini. Si T est un ensemble et (E, E) un espace mesurable, on notera E T
la tribu engendre par les pavs sur E T .
Les notions quivalentes de la mesurabilit dun processus stochastique, introduites prcdemment, sont alors encore quivalentes
Le processus X est mesurable de (, A) vers (E, E)T .
Pour tout pav
tT
X 1 (
Bt de E T on a :
Bt ) = { : Xt () Bt , pour tout t} A
tT
1.3. Loi dun processus, Processus canoniques. La notion de loi dun processus est
calque sur celle de loi dune variable alatoire.
Dfinition 2.2. On appelle loi du processus (, A, P, (Xt )tT ) la loi image PX de P
par X.
La loi dun processus est donc une probabilit sur lensemble des fonctions de T vers E.
Thorme 2.3. La loi dun processus (, A, P, (Xt )tT ) est caractrise par les valeurs de
P ({(Xt1 , . . . , Xtn ) B1 Bn })
pour tout n dans N, tout (t1 , . . . , tn ) dans T n et tout B1 Bn dans E n . On dit encore
que la loi PX du processus X est caractrise par lensemble des lois marges de dimension
finie, i.e. par lensemble des lois P(X1 ,...,Xn ) de tout sous vecteur de dimension finie.
Preuve. Il suffit de remarquer que lensemble des pavs mesurables est stable par interT
section finie. Le thorme de Carathodory
Q nous dit alors quuneQprobabilit sur (E, E) est
caractrise par ses valeurs sur les pavs tT Bt , i.e. par les PX ( tT Bt ). La dfinition dun
pav implique alors clairement que la donne de ces probabilits est quivalente la donne
du systme de probabilit du thorme.2
Dfinition 2.4. Soient X et Y deux processus ayant mme ensemble des temps T et
mme espace dtats (E, E). On dit que les processus X et Y sont quivalents sils ont mme
loi, i.e. si
n N, (t1 , . . . , tn ) T n , (B1 , . . . , Bn ) E n , on a :
P ({(Xt1 , . . . , Xtn ) B1 Bn }) = P ({(Yt1 , . . . , Ytn ) B1 Bn })
Parmi tous les processus quivalents, i.e. ayant tous la mme loi, on peut en distinguer un
de manire unique. Il sera alors souvent pris comme reprsentant de sa classe dquivalence.
Soit donc (, A, P, (Xt )tT ) un processus dfini sur (, A) et valeurs dans (E, E)T . Sa
loi est PX , image de P par la fonction mesurable X. Dfinissons lensemble (t )tT des
applications coordonnes dindice t, i.e. pour t0 T :
t0 : E T
(xt )tT
E
7
xt0
On peut, la suite de ce que lon a fait prcdemment, montrer que la tribu E T est la
plus petite tribu rendant mesurable les applications coordonnes de E T vers E, i.e. E T =
(t1
(B) : t0 T, B E) = (t : t T ), o si V est une famille densembles (resp.
0
c
Jean-Yves Dauxois,
Fvrier
2009
21
famille de fonctions), la tribu (V) est la tribu engendre par (resp. rendant mesurable tous
les lments de) V. Ainsi, sur (E T , E T , PX ) on peut dfinir une famille (t )tT de v.a. de
(E T , E T , PX ) vers (E, E). Au sens de la premire dfinition (vue en dbut de cette section), il
sagit donc dun processus. Remarquons que ce processus est quivalent au processus (Xt )tT .
En effet, pour tout n dans N, tout (t1 , . . . , tn ) T n et tout (B1 , . . . , Bn ) E n , on a :
PX ({(t1 , . . . , tn ) B1 Bn })
= P (X 1 {(t1 , . . . , tn ) B1 Bn })
= P ({ : (Xt1 (), . . . , Xtn ()) B1 Bn })
= P ({(Xt1 , . . . , Xtn ) B1 Bn })
On a donc pratiquement tabli la proposition suivante, le reste tant ais.
Proposition 2.5. Lensemble des processus, ayant mme espace des temps et dtats, qui
sont quivalents entre eux forment une classe dquivalence.
Parmi les lments de cette classe dquivalence, il en existe un unique dfini sur (E, E)T
par les applications coordonnes. Ce processus est appel processus canonique.
On remarque que travailler sur les processus canoniques revient travailler au niveau des
lois des processus, i.e. au niveau des classes dquivalences. On appelle version du processus
un lment quelconque de cette classe et on utilise le plus souvent la version canonique.
1.4. Processus canoniques ayant des rpartitions finies donnes. Thorme de
Kolmogorov. On vient de voir dans la section prcdente quun processus stochastique est
entirement dtermin par ses marges de dimension finie. On peut se poser la question dans
lautre sens. Ayant un systme de loi de dimension finie, existe-t-il un processus (Xt )tT
ayant pour marges de dimension finie, ces lois ? De manire plus mathmatique, on posera la
question sous la forme suivante. Notons pour cela lensemble des parties finies de T , i.e.
S si n N et (t1 , . . . , tn ) T n tel que S = {t1 , . . . , tn }.
Supposons que lon ait un systme (s )s de lois de dimension finie. Existe-t-il une probabilit
P sur (E T , E T ), et si oui est-elle unique, telle que P ait pour systme de marges de dimension
finie la famille (s )s ?
On remarque assez vite quune question de cohrence apparat. Notons en effet S la
0
projection de E T sur E S et SS 0 , pour S 0 S, la projection de E S sur E S . On cherche donc
une probabilit P telle que la probabilit S P , image de P par S , soit gale S et ce
pour tout S dans . Or, clairement, pour S 0 S, on doit avoir SS 0 S P la fois gal
S 0 P = S 0 et gal SS 0 S . Il faut donc ncessairement que le systme de marges que
lon se donne (S )S soit cohrent, i.e. :
(S 0 , S) 2 , S 0 S : SS 0 S = S 0 .
Lintrt du thorme suivant du Kolmogorov est de montrer que cette condition, dont on
vient de souligner la ncessit, est aussi suffisante. Mais donnons en premier lieu la dfinition
dun espace polonais.
Dfinition 2.6. Un espace E est dit polonais, sil est mtrique, sparable (i.e. il existe
une base dnombrable douverts) et complet (toute suite de Cauchy est convergente).
Thorme 2.7. (Kolmogorov) Soit E un espace dtats polonais muni de sa tribu borlienne (i.e. tribu engendre par les ouverts pour la topologie) et T un espace des temps. Soit
(S )S un systme de lois de dimension finie (S loi sur E S pour S partie finie de T ). Si ce
c
Jean-Yves Dauxois,
Fvrier
2009
22
systme de lois est cohrent alors il existe une unique probabilit P sur (E, E)T telle que ses
marges de dimension finie concident avec le systme de lois (S )S .
Remarque : On peut vrifier que les espaces mesurables suivants sont polonais :
(R, BR );
(Rd , BRd );
E est dnombrable muni de la tribu de toutes ses parties.
1.5. Modification dun processus et processus indistinguables.
Dfinition 2.8. Soit X = (, A, P, (Xt )tT ) et X 0 = (, A, P, (Xt0 )tT ) dfinis sur le
mme espace probabilis (, A, P ), ayant mme espace des temps T et mme espace dtats E.
On dit que le processus X est une modification du processus X 0 si pour tout t dans T ,
les v.a. Xt et Xt0 sont presque srement gales.
Ils sont dits indistinguables si lon a P -presque-srement :
Xt = Xt0 , t T.
Il est clair que deux processus modifications lun de lautre sont quivalents. Remarquons galement que deux processus indistinguables sont modification lun de lautre mais,
en revanche, la rciproque est fausse ds que lespace des temps nest pas dnombrable.
Lindistinguabilit signifie quen dehors dun ensemble ngligeable sur , toutes les trajectoires des deux processus concident ce que nexigeait pas la notion de modification.
Exemples de processus qui sont modifications lun de lautre et qui ne sont pas indistinguables
Soient (Xt )t[0,1] et (Xt0 )t[0,1] deux processus dfinis sur le mme espace probabilis
([0, 1], B[0,1] , [0,1] ), o [0,1] est la mesure de Lebesgue sur [0, 1], et dfinis par :
Xt () = 1l]t,1] ()
Xt0 () = 1l[t,1] ()
On a pour tout t dans [0, 1] :
[0,1] (Xt = Xt0 ) = [0,1] ({ : Xt () = Xt0 ()}) = [0,1] ([0, 1] \ {t}) = 1
Les processus (Xt )t[0,1] et (Xt0 )t[0,1] sont donc modifications lun de lautre mais ne
sont pas indistinguables puisque les trajectoires, pour quelconque dans sont :
t 7 Xt () = 1l[0,[ (t)
t 7 Xt0 () = 1l[0,] (t)
et sont donc toujours diffrentes.
Soit (Xt )t[0,1] un processus dterministe, tel que :
Xt () = 1, et t [0, 1].
Soit maintenant U une v.a. de loi uniforme sur [0, 1] et (Yt )t[0,1] le processus dfini,
pour tout dans par :
0 pour t = U ()
Yt () =
1 ailleurs.
On a alors clairement, pour tout t dans [0, 1] :
P ({Xt = Yt }) = 1 P ({U = t}) = 1.
c
Jean-Yves Dauxois,
Fvrier
2009
23
Mais en revanche :
P ({t : Xt = Yt }) = 0.
Remarque : On verra ultrieurement quen revanche si deux processus sont modifications
lun de lautre et sils sont tous les deux trajectoires p.s. continues alors, ncessairement, ils
sont galement indistinguables.
2. Exemples classiques et fondamentaux de processus stochastiques
2.1. Suite de v.a. indpendantes. Supposons que les v.a. (Xn )nN soient toutes
indpendantes, valeurs dans R mais non ncessairement identiquement distribues, de f.d.r.
(Fn )nN . Les lois marginales du processus sont bien sr caractrises par les f.d.r. des vecteurs
extraits. Or la f.d.r. multidimensionnelle dun vecteur extrait Xn1 , . . . , Xnk , o {n1 , . . . , nk }
est une partie quelconque de N, est :
F (xn1 , . . . , xnk ) = Fn1 (xn1 ) Fnk (xnk ).
On vrifie trs facilement que ce systme est cohrent et donc daprs le thorme de Kolmogorov, il existe un processus sur (R, BR )N ayant les marges qui concident avec ce systme
de lois de dimension finie.
2.2. Processus stationnaires. Il a t vu en cours de Sries Temporelles quun processus
avec pour espace des temps T et espace dtats E est dit stationnaire (au sens fort), si
pour tout n dans N et tout (t1 , . . . , tn ) T n , on a identit des lois des marges de dimension
finie prises aux instants (t1 , . . . , tn ) et (t1 + h, . . . , tn + h), pour h > 0, i.e.
(B1 , B2 , . . . , Bn ) E n , on a :
P ({(Xt1 , Xt2 , . . . , Xtn ) B1 Bn }) =
P ({(Xt1 +h , Xt2 +h , . . . , Xtn +h ) B1 Bn })
On dit quil y a invariance des lois des marges de dimension finie par translation temporelle.
Si le processus est du second ordre (i.e. Xt L2 (, A, P ), pour tout t), on dit quil est
stationnaire au sens faible si sa moyenne est constante et la covariance entre Xt et Xt+h ,
pour t et t + h dans T , ne dpend que de h.
2.3. Processus gaussiens.
Dfinition 2.9. Un processus despace des temps T et despace dtats R est dit processus
gaussien rel si toutes ses marges de dimension finie sont des vecteurs gaussiens
On sait quun vecteur gaussien est entirement spcifi par la donne de son esprance et
sa matrice de covariance. On va donc pouvoir entirement spcifier un processus gaussien en
donnant sa fonction moyenne et sa fonction covariance.
En remarquant que tout vecteur extrait dun vecteur gaussien est encore un vecteur
gaussien, la cohrence dun tel systme de loi est vrifie et on a donc la proposition suivante.
Thorme 2.10. Soit m une fonction de T vers R et une fonction symtrique de T 2
vers R tel que pour toute partie finie {t1 , . . . , tn } de T , la matrice ((ti , tj )1i,jn ) soit dfinie
positive (on dit que la fonction est de type positif ).
Il existe alors un unique processus gaussien, une quivalence prs, dont les marges finies,
pour n N et (t1 , . . . , tn ) T n , sont un vecteur gaussien desprance (m(t1 ), . . . , m(tn ))T et
de matrice de covariance ((ti , tj )1i,jn ). Les fonctions m et caractrisent entirement la
loi du processus gaussien.
c
Jean-Yves Dauxois,
Fvrier
2009
24
Dfinition 2.11. Soit T un espace des temps inclus dans R, E un espace polonais et X
un processus de (, A, P ) vers (E, E)T .
On dit que le processus X est accroissements indpendants (on crit souvent PAI)
si pour tout t1 < t2 < < tn de T , les v.a.
Xt2 Xt1 , Xt3 Xt2 , . . . , Xtn Xtn1
sont mutuellement indpendants. Si lespace des temps admet un plus petit indice t0 , on
suppose que la famille prcdente enrichie de la v.a. Xt0 est encore une famille de v.a. indpendantes.
Le processus est dit accroissements stationnaires si la loi de Xt+h Xt dpend
uniquement de h et non de t. Un processus accroissements indpendants et stationnaires est
not PAIS.
Si lespace des temps est N (ou ventuellement Z) on parle plutt de marche alatoire,
appellation plus claire en considrant les v.a. (Zn ) dfinies, pour n > 0 par :
Z0 = X0 , Z1 = X1 X0 , Z2 = X2 X1 , . . . , Zn = Xn Xn1 ,
On a en effet
Xn = Z0 + Z1 + . . . + Zn
Le pas effectu au temps n par le processus, i.e. Zn = Xn Xn1 , est bien indpendants du
pass.
Exemple : La marche alatoire simple.
Soit X un processus stochastique espace des temps N, espace dtats Z et dfini de la
manire suivante : X0 = 0 et Zn = Xn Xn1 est de loi p1 + (1 p)1 et la famille des v.a.
(Zn )nN est une famille indpendante.3
Nous tudierons plus tard le mouvement brownien et le processus de Poisson qui sont des
PAIS.
2.5. Martingales. Soit X un processus dfini sur (, A, P ) et valeurs sur (R, BR )T , o
T est soit R+ , soit N pour simplifier les notations. Dfinissons pour tout t dans T la tribu
engendre par les Xs pour s t,
Ft = (Xs ; s t et s T ),
dite histoire du processus au temps t. Il est vident que lon a Ft Ft0 , pour tout t t0 . La
famille de tribu (Ft ) est dite filtration naturelle associe au processus X.
Dfinition 2.12. On dit quun processus (Xt )tT valeurs dans (R, BR ) est une martingale par rapport sa filtration naturelle si lon a :
E|Xt | < +, t T
E(Xt / Fs ) = Xs , pour tout s t et (s, t) T 2
Le signe E(Xt / Fs ) signifie lesprance conditionnelle de Xt relativement la tribu Fs .
Cette notion desprance conditionnelle sera dfinie prcisment dans un chapitre ultrieur.
On peut utiliser les martingales pour modliser des jeux quitables. En effet, si Xt Xs
est le gain du joueur entre les instants s et t, on a dans un jeu quilibr : E(Xt Xs / Fs ) = 0.
c
Jean-Yves Dauxois,
Fvrier
2009
25
Remarquons enfin, que la marche alatoire simple que nous avons considr prcdemment
est une martingale temps discret si elle est symtrique, i.e. si p = 1/2, puisque :
E|Xn |
n
X
E|Zi | < +
i=1
et
Nous reviendrons sur les martingales temps discret, qui sont au programme de cette unit,
dans un prochain chapitre.
2.6. Processus de Markov. Nous reprennons les mmes notations qu la sous section
prcdente.
Dfinition 2.13. Un processus (, A, P, (Xt )tT ) valeurs dans un espace (E, E) est dit
processus de Markov si pour tout s t, (s, t) T 2 et tout A E, on a :
P (Xt A / Fs ) = P (Xt A / Xs ).
On dit que le futur du processus ne dpend du pass qu travers le prsent.
Ce processus est dit homogne si la loi de Xt sachant Xs ne dpend que de t s pour s < t.
Terminologie : Si lespace des temps est discret, on parle de chaine de Markov, sil est
continu on parle de processus de Markov ( temps continu). Les chanes de markov sont au
programme de cette unit et seront tudies dans un chapitre ultrieur.
2.7. Processus de renouvellement. Processus de Poisson.
Dfinition 2.14. Soient (Tn )nN une suite de v.a. sur (, A, P ), positives, indpendantes et identiquement distribues de f.d.r. F . Le processus (, A, P, (St )nN ) valeurs dans
(R+ , BR+ ) dfini par
Sn = T1 + . . . + Tn
est dit processus de renouvellement.
On remarque quun processus de renouvellement est un PAIS. Ces processus sont par
exemple utiliss en fiabilit. Supposons que lon dispose de matriels identiques (i.e. dont
la loi dattente de la panne est identique) et au comportement indpendant. Plaons une
premire unit en marche linstant t = 0. Ds que celle-ci tombe en panne, on la remplace
instantanment par une seconde et ainsi de suite. Le temps o aura lieu le ni`eme renouvellement
est donc Sn = T1 +. . .+Tn , o (Ti )i=1,...,n sont les temps dattente de la panne pour les diffrents
matriels.
A ce processus de renouvellement on peut associer un processus de comptage du nombre
de renouvellement.
Dfinition 2.15. Soit (Sn )nN un processus de renouvellement dfini par une suite de v.a.
i.i.d. (Tn )nN de f.d.r. F sur (, A, P ) et valeurs dans (R+ , BR+ )
On appelle processus de comptage des renouvellements le processus (Nt )tR+ dfini
sur (, A, P ) et valeurs dans N par :
Nt =
+
X
1l]0,t] (Sn )
n=1
= n si Sn t < Sn+1
= nombre de renouvellement survenus jusquau temps (inclus) t.
c
Jean-Yves Dauxois,
Fvrier
2009
26
c
Jean-Yves Dauxois,
Fvrier
2009
CHAPITRE 3
Processus de Poisson
27
28
On sintresse ici modliser un phnomne dont les instants doccurrence forment une
suite croissante de variables positives notes (Tn )n0 . Il en est ainsi par exemple pour modliser
les instants dappels reus par un standard tlphonique, les instants darrive des patients
aux urgences, de voitures un feu rouge, de clients une caisse de supermarch, des pannes
sur un systme rparable.
Mathmatiquement il sagit donc dune suite croissante de v.a. (Tn )n0 :
0 = T0 T1 T2 Tn
On parle de processus ponctuels. Bien sr, en posant
X1 = T1 , X2 = T2 T1 , . . . , Xn = Tn Tn1 ,
il est quivalent de dfinir les instants (Tn )n0 ou la suite (Xn )n1 de v.a.r. positives, puisque
lon a :
Tn = X1 + X2 + . . . + Xn .
Les v.a. (Xn )n1 sont souvent appeles temps inter-arrives.
Notons N le processus dfini sur R+ et valeurs dans N par
Nt =
+
X
1lTn t
n=1
appel processus de comptage associ au processus ponctuel (Tn )n0 . Il est nouveau clair
que connatre la loi de (Tn )n0 est quivalent connatre celle du processus N = (Nt )t0 . On
a en effet, pour tout n dans N et tout (t1 , . . . , tn ) R+ R+ ,
P (T1 t1 , T2 t2 , . . . , Tn tn ) = P (Nt1 1, Nt2 2, , Ntn n).
En posant lhypothse que les v.a. (Xn )n1 sont i.i.d. de mme f.d.r. F , on a vu au
chapitre 2 que le processus (Tn )n0 est alors un processus de renouvellement et N = (Nt )t0
le processus de comptage des renouvellements. Nous allons tudier dans ce chapitre un cas
particulier que constitue les processus de Poisson.
1. Dfinition et proprits lmentaires
Il y a de trs nombreuses manires de dfinir un processus de Poisson homogne sur R+ .
Rappelons celle donne au chapitre 2 et qui le prsente comme un processus de renouvellement
particulier.
Dfinition 3.1. Un processus ponctuel (Tn )n0 est dit processus de Poisson homogne sur
R+ dintensit si les temps dinter-arrives (Xn )n1 sont i.i.d. (donc sil est un processus
de renouvellement) de loi exponentielle1 E(). On dit de manire quivalente que N = (Nt )t0
est un processus de Poisson.
Remarquons que lon a p.s. :
0 < T1 < T2 < < Tn < ,
puisque les v.a. (Xn )n1 , de lois exponentielles, sont p.s. strictement positives. De plus le
processus N = (Nt )t0 est trajectoires croissantes, continues droite, valeurs entires et
ayant des sauts de taille 1.
Il y a un lien trs troit entre le processus de Poisson et la loi de Poisson comme le montre
la proposition suivante.
1Rappelons quune variable alatoire relle est dite de loi exponentielle de paramtre si elle est de loi
absolument continue par rapport la mesure de Lebesgue sur R et de densit f (x) = exp (x)1lR+ (x).
c
Jean-Yves Dauxois,
Fvrier
2009
29
Proposition 3.2. Soit N = (Nt )t0 un processus de Poisson dintensit . Pour tout
t > 0, la v.a.r. Nt est de loi de Poisson de paramtre t, i.e.
P (Nt = n) =
(t)n t
e .
n!
(t)n t
e .
n!
Preuve/solution de lexercice.
1) Pour n = 0, il ny a presque rien montrer puisque
P (Nt = 0) = P (T1 > t) = P (X1 > t) = 1 P (X1 t) = 1 (1 et ) = et .
2) La transforme de Laplace dune loi (, ) est, pour s < :
Z
1 x
x
e
dx
L(,) (s) =
esx
()
R+
Z +
=
x1 e(s)x dx
() 0
Z +
u1 u
1
=
e du =
.
() 0
( s)
(1 s )
Do comme X1 , . . . , Xn sont i.i.d. de loi E() = (1, ), on a :
LPni=1 Xi (s) = E(es
Pn
i=1
Xi
)=
n
Y
E(esXi )
i=1
n
Y
i=1
1
1
=
= L(n,) (s),
(1 s )
(1 s )n
f (x) =
1 x
x
e
1lR+ (x).
()
c
Jean-Yves Dauxois,
Fvrier
2009
30
Z
=
(n)
=
=
dy du
tu
n n1 u (tu)
u
e
e
du
0 (n)
Z
n t t n1
n t un t
u
du =
e
e [ ]0
(n)
(n)
n
0
Z
=
(t)n t
n tn et
=
e ,
(n 1)!n
n!
2
X Z
n
Z
=
n!
B
B
n
Y
n
Y
i=1
i=1
Proposition 3.4. Soit (Tn )n0 un processus de Poisson homogne sur R+ , de processus
de comptage associ (Nt )t0 . On a alors:
i) Pour tout n 1, la loi du vecteur (T1 , . . . , Tn ) a pour densit
n etn 1lt1 <t2 <<tn
par rapport la mesure de Lebesgue sur Rn .
c
Jean-Yves Dauxois,
Fvrier
2009
31
Nt =n
f(T
(t1 , . . . , tn ) =
1 ,...,Tn )
n!
1lt <t <<tn t dt1 dtn
tn 1 2
et conclure.
Preuve/solution de lexercice.
1) Cest une application aise du thorme de changement de variables multidimensionnel.
En effet, on a :
T1 = X1
T2 = X1 + X2
..
T = X + + X .
n
32
P ((T1 , . . . , Tn ) B | Nt = n) =
ce qui prouve bien que la densit de (T1 , . . . , Tn ) sachant {Nt = n} est de densit
n!
1lt <t <<tn t
tn 1 2
qui correspond la densit des n statistiques dordre dans un chantillon de lois uniformes sur
[0, t].
2
2. Caractrisation dun processus de Poisson
Nous allons voir sous forme de thorme deux sries de conditions ncessaires et suffisantes
pour avoir un processus de Poisson. Chacune delle aurait pu tre utilise comme dfinition
dun processus de Poisson.
Thorme 3.5. Soit N = (Nt )t0 le processus de comptage dun processus ponctuel sur
Cest un processus de Poisson dintensit si, et seulement si,
i) N0 = 0 ;
ii) le processus N est accroissements indpendants ;
iii) pour tout 0 s < t, la v.a.r. Nt Ns est de loi de Poisson de paramtre (t s).
R+ .
k
X
i=1
1l{U(i) t1 } = k1 ,
k
X
1l{t1 <U(i) t2 } = k2 , . . . ,
i=1
k
X
1l{tn1 <U(i) tn } = kn )
i=1
e
.
k1 !
k2 !
kn !
c
Jean-Yves Dauxois,
Fvrier
2009
33
3) Conclure.
Preuve/solution de lexercice.
1) On a :
P (Nt1 = k1 , Nt2 Nt1 = k2 , . . . , Ntn Ntn1 = kn )
= P (Nt1 = k1 , Nt2 Nt1 = k2 , . . . , Ntn Ntn1 = kn |Ntn = k)P (Ntn = k)
= P(
= P(
k
X
i=1
k
X
1l{Ti t1 } = k1 ,
k
X
1l{t1 <Ti t2 } = k2 , . . . ,
i=1
k
X
1l{U(i) t1 } = k1 ,
i=1
k
X
i=1
1l{t1 <U(i) t2 } = k2 , . . . ,
i=1
k
X
i=1
i=1
i=1
i=1
t1
tn
k1
i=1
t2 t1
tn
k2
tn tn1
tn
kn
(tn )k tn
e
k!
k!
k1 !k2 ! kn !
e
.
k1 !
k2 !
kn !
3) On constate alors aisment que les v.a. Nt1 , Nt2 Nt1 , . . . , Ntn Ntn1 sont indpendantes et de loi de Poisson de paramtre respectivement t1 , (t2 t1 ), . . . , (tn tn1 ).
Pour la condition suffisante, il ny a rien faire ! La condition ncessaire a entirement
spcifi la loi du processus N (i.e. pour tout n dans N, tout (t1 , . . . , tn ) on peut donner la loi
du vecteur (Nt1 , Nt2 , . . . , Ntn )) et on a vu quil tait quivalent de se donner la loi du processus
(Tn )n1 que celle du processus (Nt )t>0 .
2
c
Jean-Yves Dauxois,
Fvrier
2009
34
Thorme 3.7. Soit N le processus de comptage dun processus ponctuel sur R+ . Cest
un processus de Poisson dintensit si, et seulement si, le processus N est un processus
stationnaire dvnements rares accroissements indpendants.
Cette proprit dvnements rares du processus de Poisson donne une autre interprtation
du taux ou intensit associe un processus de Poisson.
Preuve. Nous ne prouvons ici que la condition ncessaire, mme si la condition suffisante
nest pas dune grande difficult.
Daprs la proposition prcdente, on sait que N est un processus accroissements indpendants et que pour tout t > 0 et tout t > 0 la v.a. Nt+t Nt est de loi de Poisson
P(t). Do :
P (Nt+t Nt = 1) = tet = t(1 t + o(t)) = t + o(t).
De mme, on a :
P (Nt+t Nt > 1) = 1 et (t)et
= 1 (1 t + o(t)) (t + o(t)) = o(t).
ce qui prouve la condition ncessaire.
c
Jean-Yves Dauxois,
Fvrier
2009
3. Rsultats asymptotiques
35
| ) 2 2 .
2
k
k
2) Utiliser alors le thorme de Borel-Cantelli pour en dduire que lon
a p.s. :
Nk2
= .
lim
k+ k 2
3) En notant K la fonction dfinie par :
K(t) = [ t],
> 0 : P (|
Preuve/solution de lexercice.
1) Daprs lingalit de Tchebychev, on a pour tout k N :
> 0 : P (|Nk2 ENk2 | )
V ar(Nk2 )
.
2
Or, on sait que, toujours pour tout k dans N, la v.a. Nk2 est de loi de Poisson P(k 2 ). Ainsi,
il vient :
> 0 : P (|Nk2 k 2 | k 2 )
> 0 : P (|
k 2
= 2 2
2 k 4
k
Nk2
| ) 2 2 .
2
k
k
2) Du 1) on tire :
+
X
k=0
Ainsi, en notant An =
P (|
+
+
X
Nk2
X 1
=
< +.
k2
2 k 2
2
k2
k=0
N
{| nn22
k=0
c
Jean-Yves Dauxois,
Fvrier
2009
36
On a donc :
p.s. limAcn p.s. : n kn Ack
n
K(t) = [ t],
o [] est la partie entire. Par croissance du processus de comptage on a, puisque K 2 (t)
t < (K(t) + 1)2 :
NK 2 (t) Nt N(K(t)+1)2
Do :
N(K(t)+1)2
NK 2 (t)
Nt
2
(K(t) + 1)
t
K 2 (t)
K 2 (t) NK 2 (t)
Nt
(K(t) + 1)2 N(K(t)+1)2
4) Comme on a:
K 2 (t)
1, lorsque t +
(K(t) + 1)2
et
Nk2
= ,
k+ k 2
lingalit obtenue en 3) nous assure que :
p.s. : lim
Nt
= .
t
5) La transforme dune loi de Poisson de paramtre est :
p.s. lim
t+
N
E eu t( t ) = eu t E e t t = exp{u t + t(e t 1)}.
Or, le dveloppement limit de lexponentielle nous donne :
eu/
u
u2
1
1= +
+ o( ).
2t
t
t
Do :
7) en faisant tendre t +, on obtient :
2
Nt
u2
u
u t( t )
E e
= exp
+ o(1) e 2 .
t+
2
On reconnat la limite la transforme de Laplace dune loi N (0, ), ce qui achve la
dmonstration du thorme.
2
c
Jean-Yves Dauxois,
Fvrier
2009
4. Bibliographie
37
4. Bibliographie
Pierre Brmaud. Introduction aux Probabilits : modlisation des phnomnes alatoires. Springer 1997.
Christiane Cocozza-Thivent. Processus stochastiques et fiabilit des systmes. Springer
1997.
Paul S. toulouse. Thmes de Probabilits et Statistique. Dunod 1999.
c
Jean-Yves Dauxois,
Fvrier
2009
CHAPITRE 4
Chanes de Markov
39
40
Dans le Chapitre 2, nous avons donn la dfinition gnrale dun processus de Markov.
Nous allons ici nous intresser de prs au cas o lespace des tats et le temps sont discrets.
On parle alors de chanes de Markov espace des tats discret.
La dfinition vue au Chapitre 2 peut tre alors rcrite de la manire suivante.
Dfinition 4.1. Soit (, A, P ) un espace probabilis. Soit (Xn )nN une famille de v.a.
de (, A, P ) et valeurs dans (E, E) o E est un espace dnombrable et E = P(E).
On dit que (Xn )nN est une chane de Markov valeurs dans lespace dtat E si, pour
tout n 1 et toute suite (i0 , i1 , . . . , in1 , i, j) dlments de E telle que P (Xn = i, Xn1 =
in1 , . . . , X1 = i1 , X0 = i0 ) soit strictement positive, on ait :
P (Xn+1 = j|Xn = i, Xn1 = in1 , . . . , X1 = i1 , X0 = i0 ) = P (Xn+1 = j|Xn = i).
On dit que le futur du processus ne dpend du pass qu travers le prsent.
Lespace E sera souvent Z ou N ou une partie de ceux-ci. Mais, afin de garder le maximum
de gnralit, nous ne spcifierons pas, sauf ncessaire, lespace E. Notons
pn,n+1
= P (Xn+1 = j|Xn = i).
i,j
la probabilit de passage de ltat i ltat j entre les instants n et n + 1 et P n,n+1 =
(pn,n+1
)(i,j)E 2 la matrice finie ou dnombrable (suivant que E est fini ou dnombrable) de
i,j
toutes les probabilits de transition en une tape linstant n. Cette matrice P n,n+1 est
appele matrice de transition en une tape linstant n.
Une telle notation permet de prendre en compte les situations o les probabilits de passage dun tat i quelconque un tat j quelconque dpendent des instants (n et n + 1) o
on les considre. Mme si de telles situations peuvent se rencontrer dans la pratique, nous
nous concentrerons davantage dans la suite sur celles o ces probabilits ne dpendent pas de
linstant n. On parle alors de chane de Markov homogne.
Dfinition 4.2. Une chane de Markov est dite homogne si sa matrice de transition
P n,n+1 (en une tape linstant n) ne dpend pas de n, i.e. si, pour tout n 0 et tout (i, j)
dans E 2 , on a :
pn,n+1
= P (Xn+1 = j|Xn = i) = pij .
i,j
La matrice des probabilits de transition en une tape est alors note P = (pi,j )(i,j)E 2 et est
simplement appele matrice de passage ou de transition de la chane.
Proposition 4.3. Toute matrice de transition P = (pi,j )(i,j)E 2 vrifie les proprits
suivantes :
pi,j 0, (i, j) E 2 ;
X
pi,j = 1, i E.
jE
c
Jean-Yves Dauxois,
Fvrier
2009
41
Terminologie : Une matrice vrifiant les assertions de la proprit 4.3 est appele matrice
stochastique.
Proposition 4.4. Une chane de Markov est entirement dtermine par la donne de sa
matrice de transition P et sa loi initiale 0 .
42
si j = i + 1;
p
1 p si j = i 1;
pi,j =
0
sinon.
Le graphe de la marche alatoire simple est donn dans la figure 2.
..
.
0
P =
..
.
..
..
..
..
..
.
.
.
.
.
qi ri
pi
0
43
c
Jean-Yves Dauxois,
Fvrier
2009
44
1 0 0
q1 0 p 1 0
0 q2 0 p2
0
p3
0
P = 0 0 q3 0
.
.
.
.
.
..
..
..
..
..
..
.
.
.
..
.. 0 q
0
pi
i
..
..
..
..
..
..
.
.
.
.
.
.
avec de plus q0 = 0.
..
.
0
..
.
0
..
.
..
.
..
.
..
.
..
.
..
.
c
Jean-Yves Dauxois,
Fvrier
2009
1 0
q 0 p
0
0 q 0
p
. .
..
..
. .
.
.
. .
P =
.. ..
0
. . q
. .
..
..
.. ..
.
.
. .
.
.
.. ..
..
..
.
..
..
0 ..
.
.
45
0
..
.
..
.
0
..
.
..
.
..
.
p
..
.
0
..
.
..
.
q
..
.
c
Jean-Yves Dauxois,
Fvrier
2009
46
0
1
0
...
...
...
... 0
..
1/a 0 (a 1)/a
0
...
...
...
.
..
0
(a 2)/a 0
...
...
.
0 2/a
P = .
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
..
..
..
..
..
.
.
.
. (a 1)/a 0 1/a
0
1
0
c
Jean-Yves Dauxois,
Fvrier
2009
47
2.4. La file dattente temps discret discret. Une file dattente est utilise pour
modliser le nombre de clients en attente dun service un guichet ou une caisse de supermarch, ou bien le nombre de requtes en attente pour un serveur informatique, etc...
Nous allons voir que, dans le cas o le temps est dicrtis, ou si lon raisonne par unit de
temps, alors on obtient une chane de Markov. Utilisons linterprtation en termes de clients
et guichet pour prsenter davantage ce modle.
On suppose qu chaque unit de temps des clients arrivent, en nombre alatoire, un
guichet et que celui ne peut servir quun client la fois avec un temps de service dune unit
de temps. Notons Yn le nombre de clients arrivant au nime instant. On suppose que la famille
des (Yn ) est indpendante et identiquement distribues de loi donne, pour tout n dans N, par
P (Yn = k) = ak 0 k N
+
X
ak = 1.
k=0
Quand aucun client nest en attente, aucun service nest effectu. On note par Xn le nombre
de clients en attente chaque instant n et si celui si est gal i alors Xn+1 sera gal i 1 + Yn
si i 1 et Yn si i = 0. On peut rsumer ceci de la manire suivante :
Xn+1 = (Xn 1)+ + Yn .
Ainsi la matrice de transition dune
a0
a0
P = 0
0
..
.
a1 a2 a3
a1 a2 a3
a0 a1 a2 a3
0 a0 a1 a2
..
..
..
..
..
.
.
.
.
.
Il nest bien sr pas possible de faire un graphe pour une telle chane de Markov, sauf pour
des cas particuliers trs simples. Intuitivement il apparat assez facilement que si lesprance
du nombre de clients arrivant par unit de temps est strictement suprieure 1 (i.e. EYn > 1)
alors la taille de la file dattente saccrotra de manire illimite. En revanche, si cette esprance
est strictement infrieure 1, alors on verra que la taille de la file dattente sapprochera dun
quilibre avec le temps. La situation ou cette esprance est gale 1 est, nous le verrons,
source de grande instabilit du systme.
2.5. Un modle de gestion des stocks. Dans un service de gestion des stocks, il arrive
chaque unit de temps une demande dune quantit Yn du produit gr (ce peut tre par
exemple le cumul de toutes les demandes coules dans lheure qui prcde). On suppose que
les Yn , pour n N, sont indpendants et identiquement distribus de loi gnrale
P (Yn = k) = ak , k N,
P
avec bien sr les ak 0 et tels que +
k=0 ak = 1. On note par Xn ltat du stock linstant n
que lon suppose toujours infrieur un entier S > 0 fix (ce peut tre par exemple la capacit
maximale de stockage). Les Xn sont alors valeurs dans S N, o une valeur ngative signifie
que le service de gestion na pas pu honorer la demande et est donc en dette du montant Xn .
Aprs chaque rponse une demande, est fait un inventaire dont la police, base sur le choix
dun entier s < S fix, est la suivante. Si la quantit de stock est infrieure ou gale s alors
le stock est rapprovisionn de manire annuler la dette (si elle a lieu) et remettre ltat du
c
Jean-Yves Dauxois,
Fvrier
2009
48
= (pi,j )(i,j)SNSN
a0 a1 a2 a3
0 a0 a1 a2
0 0
a0 a1
.
..
..
..
.
.
.
.
.
=
0 0 a0
a0 a1 a2 a3
a0 a1 a2 a3
..
..
..
..
.
.
.
.
a3
..
.
..
.
..
.
a1
..
.
a2
..
.
a3
..
.
..
.
..
.
On note que bien sr les tats 0 et 2N sont absorbants. Dautres modles ont t proposs,
particulirement en proposant dautres expressions pour les probabilits pi et qi . On pourra
consulter, entre autres, le livre de Karlin et Taylor.
3. quations de Chapman-Kolmogorov
Dans la premire section nous avons uniquement parl des probabilits de transition en
une tape dun tat un autre. Bien sr, on peut sintresser aux probabilits de passer en
deux, trois ou plus tapes dun tat un autre. Notons ainsi Pn la matrice des probabilits
de transition en n tapes dont le terme gnral est, pour tout (i, j) E 2 :
(n)
4. quations de Chapman-Kolmogorov
49
Le produit matriciel est un outil bien connu pour des matrices de taille finie. On tend
sans difficult sa dfinition des matrices infinies.
kE
(n)
pk,j pi,k .
kE
kE
Proposition 4.7. Pour tout entier n positif, la matrice de transition en n tapes Pn est
galement une matrice stochastique.
Preuve. Soit n N. Les lments de la matrice Pn sont bien sr positifs puisquil sagit
de probabilits et on a de plus :
X (n) X
pi,j =
P (Xn = j|X0 = i) = P (Xn E|X0 = i) = 1,
jE
jE
Notons que la matrice stochastique Pn est la matrice de transition (en une tape) de la
chane de Markov (Xnm )mN .
c
Jean-Yves Dauxois,
Fvrier
2009
50
Notons (Fn ) la filtration naturelle associe au processus (Xn ) (Cf. Chapitre 2), i.e., pour
tout n :
Fn = (Xk ; k = 0, . . . , n).
On peut montrer que tout vnement de la tribu Fn est une runion dnombrable dvnements
disjoints de cette mme tribu et de la forme {X0 = i0 , . . . , Xn = in }. Ainsi, tout vnement
A de Fn est tel que lvnement A {Xn = i} reste dans la tribu Fn . Si ce dernier nest pas
lensemble vide alors on a forcment A {Xn = i}, ce qui revient dire que le prsent est
donc fix.
Proposition 4.8. Pour tout entier n et tout vnement A de la tribu Fn , on a :
P (Xn+1 = j|A, Xn = i) = P (Xn+1 = j|Xn = i) = pi,j ,
ds que P (A, Xn = i) > 0.
Preuve/Solution de lexercice.
1) Il ny a rien montrer pour n = 0, puisque dans ce cas, lvnement A {X0 = i} nest
pas vide que si A = {X0 = i} et le rsultat de la proposition nest que la dfinition de pi,j .
2) Supposons maintenant n > 0. On a donc, pour tout A de la tribu Fn , lexistence dun
ensemble dnombrable dindices K et dune famille dvnements Bk , pour k K, tels que :
A = kK Bk .
Or, pour tout k dans K, si lon a
P (Bk , Xn = i) = P (X0 = ik0 , . . . , Xn = ikn , Xn = i) > 0
(ce qui implique que ikn = i !) alors lgalit de la proposition avec A = Bk nest rien dautre
que la proprit de Markov.
c
Jean-Yves Dauxois,
Fvrier
2009
51
kK
= pi,j
P (Bk , Xn = i)
kK
Il est important de noter que le rsultat de la proposition nest vrai quen prenant des
vnements du prsent de la forme Xn = i et non pour des vnements de forme gnrale
Xn B. On trouvera dans le livre de Foata et Fuchs, dont cette section est largement inspire,
un contre-exemple (Processus Stochastiques, Dunod 2002, p. 73). On notera galement que
lon pourrait par le mme genre de raisonnement montrer que ce type de rsultat reste vrai
pour des vnements du futur prenant en compte dautres temps que n + 1. Ainsi par exemple,
on a :
P (Xn+1 = jn+1 , . . . , Xn+r = jn+r |A, Xn = i)
= P (Xn+1 = jn+1 , . . . , Xn+r = jn+r |Xn = i)
ou encore
(r)
Solution de lexercice. Tous les tats sont accessibles depuis {1, . . . , a 1} mais seulement 0 est accessible depuis 0 et seulement a est accessible depuis a. En effet, par exemple,
3 1 puisque
P (X2 = 1|X0 = 3) = P (X2 = 1, X1 = 2|X0 = 3) = p2,1 p3,2 = q 2 > 0.
En revanche, 0 9 1 car P (Xn = 1|X0 = 0) = 0, quelque soit n.
Proposition 4.10. Une condition ncessaire et suffisante pour que i j est que P (n :
Xn = j|X0 = i) > 0
c
Jean-Yves Dauxois,
Fvrier
2009
52
(n)
pi,j ,
nN
(0)
Dfinition 4.12. On dit que deux tats i et j dune chane de Markov communiquent,
si i j et j i. On note i j.
Proposition 4.13. La relation de communication entre tats est une relation dquivalence.
On a donc :
i) (Rflexive) Tout tat i de la chane communique avec lui mme, i.e. i i ;
c
Jean-Yves Dauxois,
Fvrier
2009
53
ii) (Symtrique) Si un tat i communique avec un tat j, alors la rciproque est vraie,
i.e. i j j i;
iii) (Transitive) Si un tat i communique avec un tat j qui lui mme communique avec
un tat k, alors ltat i communique avec ltat k, i.e. si i j et j k alors
i k.
Preuve. Les proprits de rflexivit et de transitivit sont obtenues avec les rsultats
obtenus prcdemment sur la relation daccessibilit (Cf. proposition 4.11). La symtrie
dcoule directement de la dfinition de la relation de communication.
2
On a vu que tout tat dune chane de Markov communique avec lui mme, puisque lon
(0)
(n)
a pi,i = 1. En revanche, sil existe n > 0, tel pi,i > 0, alors ltat i est dit tat de retour et
tat de non retour dans le cas contraire.
On peut utiliser la relation dquivalence quest la relation de communication pour rpartir
les diffrents tats dune chane de Markov en classes dquivalence. On dfinit une classe
dquivalence comme lensemble des tats qui communiquent entre eux. Deux tats de deux
classes diffrentes ne peuvent alors communiquer entre eux (sinon on aurait faire la mme
classe). En revanche, il se peut que lon puisse aller dune classe une autre, mais le retour
dans la classe prcdente ne sera plus jamais possible (sinon les deux classes formeraient une
mme classe).
Dfinition 4.14. Une chane de Markov est dite irrductible si elle ne contient quune
seule classe dquivalence, autrement dit si tous les tats de la chane communiquent entre eux.
Preuve/Solution de lexercice.
La marche alatoire simple (Cf. Exemple 2.1), le modle de diffusion dEhrenfest (Cf.
Exemple 2.55), la marche alatoire multidimensionnelle (Cf. Section 2) sont des exemples de
chanes irrductibles.
En revanche la fortune du joueur A contre le joueur B (Exemple 2.4) ne constitue pas une
chane irrductible puisquelle est constitue de trois classes : {0}, {1, 2, . . . , a 1} et {a}. 3
c
Jean-Yves Dauxois,
Fvrier
2009
54
1/3 2/3
2/5 2/5
0
P =
0
0
0
0
0
Solution de lexercice.
1) Son graphe de Markov est donn par la Figure 8.
apriodique, sinon il est dit de priode d(i). Si, pour un tat i, on a pi,i = 0 pour tout n, alors
on pose d(i) = +.
c
Jean-Yves Dauxois,
Fvrier
2009
7. Priodicit
55
La priode dun ltat permet de savoir si le temps entre deux passage par cet tat est, ou
nest pas, multiple dun temps minimum. La plupart des chanes sont apriodiques. Mais il
est tout de mme ais de trouver des chanes priodiques.
Solution de lexercice.
1) Si 0 p, q < 1 alors d(i) = 1, pour i = 1, 2. De mme, si p = 1 et 0 < q < 1 ou si q = 1
et 0 < p < 1. Si p = 1 et q = 0 alors d(1) = + et d(2) = 1. Rciproquement, Si q = 1 et
p = 0, alors d(2) = + et d(2) = 1. Enfin, si p = q = 1, alors d(i) = 2 pour i = 1, 2.
2) Tous les tats ont toujours mme priode. Cette dernire est gale 2 si 0 < p < 1. En
revanche, si p est gal 0 ou 1, alors la priode est infinie.
3) On a toujours : d(0) = d(a) = 1. Si 0 < p < 1 alors d(i) = 2, pour i {1, . . . , a 1}.
Si p(1 p) = 0 alors d(i) = +, pour i {1, . . . , a 1}.
4) d(i) = 2, pour tout i = 0, . . . , a.
3
Proposition 4.17. Si la priode dun tat est finie alors tout autre tat qui communique
avec celui-ci est de mme priode. La priode est donc la mme pour tous les lments dune
mme classe.
(n)
Preuve. Dune part si i j, alors il existe deux entiers n et m tels que : pi,j > 0 et
(m)
pi,j > 0. Dautre part si lon a d(i) = d < + alors il existe au moins un entier k tel que
(k)
(m+n+k)
(m+n+2k)
pi,i > 0.
c
Jean-Yves Dauxois,
Fvrier
2009
56
n1
X
(nk) (k)
fi,j
pj,j
(n)
+ fi,j .
k=1
2) Conclure.
c
Jean-Yves Dauxois,
Fvrier
2009
57
Preuve/Solution de lexercice.
1) Pour tout (i, j) dans E 2 , on a :
(n)
pi,j
n
X
k=1
n1
X
k=1
n1
X
k=1
n1
X
k=1
n1
X
(n)
pj,j
(n)
+ fi,j ,
k=1
o lavant dernire galit est justifie par les formules vues en Section 4.
(0)
(0)
2) Comme on a : pj,j = 1 et fi,j = 0, on peut crire
(n)
pi,j =
n
X
(k) (nk)
fi,j pi,j
k=0
Dfinissons maintenant, pour tout n dans N, les fonctions gnratrices des suites de proba(n)
(n)
bilits (pi,j )nN et (fi,j )nN respectivement par :
Pi,j (s) =
Fi,j (s) =
+
X
n=0
+
X
(n)
pi,j sn , |s| 1;
(n)
fi,j sn , |s| 1.
n=0
Remarquons que ces sries sont absolument convergentes, pour |s| < 1, puisque les probabilits
(n)
(n)
pi,j et fi,j sont majores par 1.
Proposition 4.21. Pour tout couple (i, j) dans E 2 et pour tout |s| < 1, on a :
Pi,i (s) =
1
et Pi,j (s) = Fi,j (s)Pj,j (s),
1 Fi,i (s)
58
Preuve. En utilisant la proposition prcdente, on peut crire, pour tout i dans E et tout
|s| < 1:
Pi,i (s) =
+
X
(n)
pi,i sn
=1+
n=0
= 1+
+
X
(n)
pi,i sn
n=1
+
X
n
X
n=1
k=0
!
(k) (nk)
fi,i pi,i
s =1+
+ X
n
X
n=0
!
(k) (nk)
fi,i pi,i
sn
k=0
o lavant dernire galit est justifie par la nullit de fi,i et la dernire nest que lutilisation
dune formule classique de multiplication des sries entires1.
Lautre formule se dmontre exactement de la mme manire.
2
Dfinition 4.22. On dit quun tat i dune chane de Markov est rcurrent si, partant
de ltat i, la probabilit que cette chane retourne ltat i en un temps fini est gale 1, i.e.
si fi,i = 1. Sinon ltat est dit transient ou transitoire (on a alors fi,i < 1).
Autrement dit un tat rcurrent est tel que P (Ti < +|X0 = i) = 1. Le temps de retour
ltat i est donc p.s. fini. En revanche un tat transitoire est tel que : P (Ti < +|X0 = i) <
1 P (Ti = +|X0 = i) > 0, ce qui revient dire quil y a une probabilit strictement
positive que la chane ne repasse jamais par ltat transient i.
Exercice 4.16. Pour les chanes de Markov suivantes, donner les tats
rcurrents et transients.
1) Fortune du joueur A contre joueur B (Cf. Exemple 2.4).
2) Chane de Markov de lExercice 4.13.
Solution de lexercice.
1) Pour cette chane, les tats 0 et a sont absorbants donc rcurrents puisque lon a :
1 = f0,0 = p0,0 = fa,a = pa,a .
Les autres tats sont transitoires. En effet on a, par exemple, pour ltat 1 :
P (T1 = +|X0 = 1) P (X1 = 0|X0 = 1) = q > 0,
puisque ltat 0 est absorbant.
2) Ltat 5 est rcurrent car absorbant (vident), tous les autres sont transitoires. En effet,
par exemple, on a pour ltat 1 :
2 1
f1,1 P (X2 = 3, X1 = 2|X0 = 1) = > 0.
3 3
Les autres se montrent de la mme manire.
3
1On rappelle que lon a :
+
X
k=0
!
k
ak s
+
X
l=0
!
l
bl s
+
k
X
X
k=0
!
ak bkl
l=0
c
Jean-Yves Dauxois,
Fvrier
2009
sk .
59
Proposition 4.23. Un tat i dune chane de Markov est rcurrent si, et seulement si, on
a:
+
X
(n)
fi,i = 1.
n=1
(n)
fi,i < 1.
n=1
+
X
P ({Tj = n})|X0 = i) =
n=1
+
X
(n)
fi,j
n=1
an = a < +,
n=0
alors on a :
+
X
lim
s1
an sn =
n=0
+
X
an = a.
n=0
ii) Si une srie de terme gnral an , tous positifs, est telle que
lim
s1
+
X
an sn = a +,
n=0
alors on a :
+
X
an = a +.
n=0
Nous ne dmontrons pas ce lemme, que lon peut trouver dans nimporte quel bon livre
danalyse.
Nous sommes maintenant en mesure de donner une autre caractrisation de la rcurrence.
c
Jean-Yves Dauxois,
Fvrier
2009
60
Thorme 4.25. Un tat i dans E lespace des tats dune chane de Markov est rcurrent
si, et seulement si, lon a :
+
X
(n)
pi,i = +.
n=0
Preuve/Solution de lexercice. Montrons en premier lieu que cette condition est ncessaire. Supposons donc que ltat i est rcurrent. Daprs la proposition 4.23, on sait que :
+
X
(n)
fi,i = 1.
n=1
+
X
s1
(n)
n=0
s1
s1
+
X
(n)
pi,i sn = +.
n=0
(n)
pi,i = +,
n=0
s1
s1
+
X
(n)
pi,i sn < +,
n=0
(n)
pi,i < +.
n=0
61
Remarquons, que daprs leurs dfinitions tout tat de non retour est transient et tout tat
absorbant est rcurrent. Ceci est facilement confirm par le fait quun tat de non retour est
(0)
(n)
tel que pi,i = 1 et pi,i = 0, pour tout n. La srie de la proposition 4.25 est donc trivialement
convergente. Pour un tat absorbant, cette srie est bien sr divergente puisque tous les termes
de la srie sont gaux 1.
Corollaire 4.26. Si un tat j dans E est rcurrent alors on a, pour tout tat i tel que
ij :
+
X
(n)
pi,j = +.
n=0
(n)
pi,j < +.
n=0
= 0.
fj,j
s1
3) Montrer que la limite prcdente est infinie.
4) Achever en utilisant nouveau le lemme dAbel.
Preuve/Solution de lexercice.
1) Supposons dans un premier temps que ltat j soit transient. On sait, daprs le
thorme 4.21, que lon a
Fi,j (s)
Pi,j (s) =
.
1 Fj,j (s)
P
P+ (n)
(n)
Or les sries +
n=0 fi,j et
n=0 fj,j sont convergentes de sommes respectivement gales
fi,j et fj,j toutes les deux majores par 1 (puisque ce sont des probabilits). Le lemme dAbel
utilis pour ces deux sries nous permet dcrire que :
lim Pi,j (s) =
s1
fi,j
lims1 Fi,j (s)
=
< +,
1 lims1 Fj,j (s)
1 fj,j
c
Jean-Yves Dauxois,
Fvrier
2009
62
puisque le numrateur, comme probabilit, est major par un et le dnominateur 1 fj,j est
strictement positif, par transience de ltat j. En utilisant le ii) du lemme dAbel, il vient
alors que :
+
X
fi,j
(n)
< +.
pi,j =
1 fj,j
n=0
(n)
pi,j =
n=0
fi,j
= ,
1 fj,j
2
Le thorme 4.25 nous permet de voir que, partant dun tat i, lesprance du nombre de
retour cet tat est infinie si et seulement si ltat est rcurrent. En effet, notons
Ni =
+
X
1l{Xn =i} .
n=0
+
X
(n)
pi,i ,
n=0
o Ei est lesprance pour la loi conditionnelle {X0 = i}. Daprs la proposition prcdente,
la partie droite de lgalit est infinie si, et seulement si, ltat i est rcurrent.
Ce rsultat est confirm par la proposition suivante.
Proposition 4.27. Un tat i est rcurrent ou transient suivant que la probabilit
P (Xn = i pour une infinit de n|X0 = i)
est gale, respectivement, 1 ou 0.
c
Jean-Yves Dauxois,
Fvrier
2009
63
+
X
k=1
+
X
k=1
+
X
(k)
1
N 1
QN
i,i fi,i = fi,i Qi,i .
k=1
N +
Ainsi, la probabilit Qi,i est gale 1 si, et seulement si, fi,i = 1, ou encore, daprs la
proposition 4.23, si, et seulement si, ltat i est rcurrent. La transience de ltat i est nous
lavons vu, quivalente fi,i < 1, ce qui daprs ce qui prcde est equivalent Qi,i = 0. 2
Thorme 4.28. Pour une chane de Markov irrductible et rcurrente, on a pour tout
tat (i, j) dans E 2 :
fi,j = P (Tj < +|X0 = i) = 1,
ce qui implique que pour tout j de E on a :
P (Tj < +) = 1.
c
Jean-Yves Dauxois,
Fvrier
2009
64
Preuve. La classe tant rcurrente, daprs la proposition 4.27, on peut crire, pour m
quelconque :
1 = P (Xn = j pour une infinit de n|X0 = j)
P (Xn = j pour un n m + 1|X0 = j) 1,
o la premire ingalit est d :
{Xn = j pour une infinit de n} = {m, n m : Xn = j}
= mN nm {Xn = j} nm {Xn = j},
pour m quelconque dans N. Les deux probabilits prcdentes sont ainsi gales. On en dduit
(m)
que, en prenant m tel que pj,i > 0, on a :
1 = P (Xn = j pour une infinit de n|X0 = j)
= P (Xn = j pour un n m + 1|X0 = j)
X
=
P (Xn = j pour un n m + 1|Xm = k)P (Xm = k|X0 = i)
kE
(m)
kE
o lon a utilis la proprit de Markov pour obtenir la dernire galit. Mais la matrice P (m)
tant stochastique, on a dj
X (m)
pj,k = 1,
kE
ce qui implique ncessairement que fi,j = P (Tj < +|X0 = k) = 1, pour tout tat k dans E.
Quand au dernier rsultat du thorme, il sobtient rapidement en dcomposant suivant
les valeurs possibles pour X0 , :
X
X
P (Tj < +) =
P (Tj < +|X0 = i)P (X0 = i) =
fi,j P (X0 = i) = 1.
iE
iE
Preuve/Solution de lexercice. Soient i et j deux tats qui communiquent. Par dfinition, il existe donc m et n dans N tels que :
(m)
(n)
(m+n+k)
pj,j
+
X
(n) (m)
k=0
c
Jean-Yves Dauxois,
Fvrier
2009
+
X
k=0
(k)
pi,i = +,
65
puisque ltat i est suppos rcurrent. Ltat j est donc lui aussi rcurrent.2
Solution de lexercice. Daprs sa dfinition la marche alatoire simple est telle que,
pour tout n dans N, on a :
(2n+1)
p0,0
(2n)
n n
= 0 et p0,0 = C2n
p (1 p)n .
n n
2n
,
e
quand n +, on a :
(2n)
p0,0
2 n
2n 2n
e
pn (1
n 2n
e
2n
p)n =
[4p(1 p)]n
.
n
Or il est ais de vrifier que lon a p(1 p) 1/4 avec galit seulement dans le cas o
p = 1/2. Si lon est dans cette dernire situation, alors la srie
+
X
(n)
p0,0 =
n=0
+
X
(2n)
p0,0
n=0
n
n=0
qui est divergente. Ainsi daprs la proposition 4.25, ltat 0 est rcurrent. Ayant vu quune
marche alatoire simple est irrductible, i.e. tous les tats communiquent entre eux, et que
la rcurrence est une proprit de classe, tous les tats de la marche alatoire simple sont
rcurrents.
Supposons maintenant que lon ait p 6= 1/2. Notons alors r = 4p(1 p) < 1. La srie
+
X
(n)
p0,0
n=0
rn
n=0
que lon sait tre convergente pour r < 1. La proposition 4.25 nous permet de conclure que
ltat 0 est transient. Tous les tats de la marche alatoire simple sont alors transients dans
le cas o p 6= 1/2.
3
c
Jean-Yves Dauxois,
Fvrier
2009
66
Donnons la dfinition dun temps darrt associ une filtration, notion qui sera nouveau
tudie dans le Chapitre ?? sur les martingales.
Dfinition 4.30. Soit (Fn ) une filtration sur un espace probabilis (, A, P ). Une appli est dite temps darrt relativement la filtration (Fn ) si
cation T : N
n N : {T n} Fn
ou encore de manire quivalente si
n N : {T = n} Fn
Dfinissons la tribu des vnements antrieurs un temps darrt T .
Dfinition 4.31. Soit T un temps darrt relativement une filtration (Fn ). On appelle
tribu des vnements antrieurs T la tribu FT dfinie par :
FT = {A F : n N on ait A {T n} Fn },
o la tribu F est dfinie par
F = n Fn .
On peut montrer que la tribu FT est galement telle que
FT = {A F : n N on ait A {T = n} Fn }.
On peut maintenant donner la proprit de Markov forte associe une chane de Markov.
Lide, simple, est de montrer que lon a toujours la proprit de Markov quand on ne conditionne plus en un temps fix, disons n quand on conditionne par rapport {Xn = i}, mais
quand on conditionne en un temps alatoire donn par un temps darrt T , donc quand on
conditionne par rapport un vnement du type {XT = i}. Nous formulons cette proprit
dans sa forme plus gnrale mettre en relation avec les formules de conditionnement obtenues
en section 4.
Thorme 4.32. (Proprit de Markov forte) Soit T un temps darrt relativement
la filtration naturelle associe une chane de Markov (Xn ). Pour tout vnement A de la
tribu FT tel que P (T < +, A, XT = i) > 0 on a :
P (XT +1 = j1 , . . . , XT +k = jk |T < +, A, XT = i)
= P (X1 = j1 , . . . , Xk = jk |X0 = i)
67
et conclure.
n=0
+
X
n=0
+
X
P (Xn+1 = j1 , . . . , Xn+k = jk , T = n, A, Xn = i)
P (Xn+1 = j1 , . . . , Xn+k = jk |T = n, A, Xn = i)P (T = n, A, Xn = i).
n=0
Dans cette dernire somme les termes non nuls sont seulement ceux pour lesquels on a :
P (T = n, A, Xn = i) > 0. Or sous cette condition et en utilisant une formule vue en section
4, on peut crire :
P (Xn+1 = j1 , . . . , Xn+k = jk |T = n, A, Xn = i)
= P (Xn+1 = j1 , . . . , Xn+k = jk |Xn = i)
puisque lvnement {T = n} A est dans la tribu Fn par dfinition de la tribu arrte FT .
Lhomognit en temps de la chane de Markov nous donne alors :
P (Xn+1 = j1 , . . . , Xn+k = jk |T = n, A, Xn = i)
= P (X1 = j1 , . . . , Xk = jk |X0 = i).
On a donc
P (XT +1 = j1 , . . . , XT +k = jk , T < +, A, XT = i)
+
X
=
P (X1 = j1 , . . . , Xk = jk |X0 = i)P (T = n, A, Xn = i)
n=0
= P (X1 = j1 , . . . , Xk = jk |X0 = i)
+
X
P (T = n, A, Xn = i)
n=0
c
Jean-Yves Dauxois,
Fvrier
2009
68
Dfinition 4.33. Pour tout tat i dune chane de Markov, on dfinit le temps moyen
de rcurrence i par :
(
+
si i est transient;
P
i = Ei (Ti ) = E(Ti |X0 = i) =
(n)
nf
si i est rcurrent.
n1
i,i
Puisque, comme nous venons de le rappeler, pour un tat transient on a P (Ti = +|X0 =
i) > 0, lesprance du temps de retour i est infinie, i.e. i = Ei (Ti ) = +. En revanche si
ltat i est rcurrent, on peut avoir un temps moyen de rcurrence i fini ou infini.
Dfinition 4.34. Un tat rcurrent dune chane de Markov est dit rcurrent nul si
i = + et rcurrent positif (ou non nul) si i < +.
Lesprance du temps de retour un tat transient tant infinie, on rencontre dans certains
ouvrages le terme redondant dtat transient nul. Nous nutiliserons pas cette terminologie car
elle pourrait laisser sous-entendre quil existe des tats transients positifs, ce qui est impossible
comme nous venons de le voir. Tout tat transient est forcment nul.
Les tats rcurrents nuls sont donc entre les tats transients et les tats rcurrents positifs.
Ils sont rcurrents mais leur temps moyen de rcurrence est infini comme les tats transients.
Le critre suivant, que nous ne dmontrerons pas, permet de caractriser la positivit dun
tat rcurrent.
Thorme 4.35. (Critre de nullit) Un tat rcurrent dune chane de Markov est nul
si, et seulement si,
(n)
lim pi,i = 0.
n+
pi,i
vraie pour tout k dans E, on tire que la nullit de ltat i implique celle de ltat j.
Ainsi une classe dquivalence dune chane de Markov est soit transiente, soit rcurrente
nulle, soit rcurrente positive. En revanche, si lespace des tats E de la chane de Markov est
fini, on ne peut trouver dtat, et donc bien sr de classe, rcurrente nulle.
c
Jean-Yves Dauxois,
Fvrier
2009
69
Proposition 4.37. Soit (Xn ) une chane de Markov sur un espace dtats E fini. Elle
possde alors au moins un tat rcurrent et les tats rcurrents sont tous positifs.
Preuve. Supposons que tous les tats de la chane soient transients. Daprs le corollaire
4.26 on a pour tout (i, j) dans E 2 :
(n)
lim p
n+ i,j
= 0.
jE
jE
n+
pi,i
(n) (m)
pi,j pj,i .
Puisque ltat i est suppos rcurrent nul, le critre de nullit assure la convergence vers 0
(n)
du terme gauche dans lingalit, quand n tend vers + et donc galement celle de pi,j ,
toujours quand n tend vers +. Or la classe C tant de cardinal fini (puisque lensemble des
tats E de la chane est suppos fini), on en dduit que :
X (n)
lim
pi,j = 0.
n+
jC
Or ceci est en contradiction avec le fait que lon ait pour tout n :
X (n) X (n)
1=
pi,j =
pi,j ,
jE
jC
o la dernire galit est justifie par limpossibit de quitter une classe rcurrente. La classe
rcurrente C ne peut donc tre nulle et est donc positive, ce qui est bien le rsultat cherch.2
Il nest pas ncessaire de dmontrer le corollaire suivant tout fait vident.
Corollaire 4.38. Une chane de Markov irrductible sur un espace fini est forcment
rcurrente positive.
c
Jean-Yves Dauxois,
Fvrier
2009
70
nE
o la dernire galit est justifie par linvariance de la loi . La loi de la v.a. X1 est donc
galement . La loi de X1 est donc toujours donne par P et, dans le cas dune loi initiale
stationnaire, est gale encore .
Maintenant, constatons que lon a :
(P )2 = P ( P ) = P =
et, par rcurrence vidente, pour tout n dans N :
(P )n = .
Or en faisant le mme raisonnement que prcdemment, la loi de la chane linstant n, i.e.
la loi de la v.a. Xn , est P n qui est donc encore gale . La loi des Xn nvolue donc pas
avec le temps. Et bien sr dans un tel cas, la loi est galement la loi limite de la chane.
En fait on peut montrer bien plus. Dans le cas o la loi initiale est une loi stationnaire, alors
le processus (Xn ) est stationnaire au sens fort, comme dfinie dans le cours "Introduction aux
Processus Stochastiques". En effet, pour tout k dans N, pour tout vecteur dentiers (n1 , . . . , nk )
c
Jean-Yves Dauxois,
Fvrier
2009
71
tels que n1 < < nk et tout vecteur (i1 , . . . , ik ) dans E k , on a, par homognit de la chane
et pour tout n :
(n n
(n n1 )
k
k1
pi1 ,i22
P (Xm+n1 = i1 , . . . , Xm+nk = ik ) = pik1
,ik
i1
= P (Xn1 = i1 , . . . , Xnk = ik ).
Ainsi on a, pour tout k dans N, pour tout vecteur dentiers (n1 , . . . , nk ) tels que n1 < < nk
et tout entier m :
L(Xn1 , . . . , Xnk ) = L(Xm+n1 , . . . , Xm+nk ),
ce qui prouve bien que le processus est stationnaire au sens fort.
Le thorme qui suit formule diffremment le rsultat que nous venons dobtenir.
Thorme 4.40. Soit (Xn )nN une chane de Markov de matrice de passage P et de loi
initiale stationnaire. Alors, pour tout entier m, le processus translat (Xm+n )nN est une
chane de Markov de matrice de passage P (rien de neuf ici !) et de loi intiale . Autrement
dit, les deux chanes de Markov ont mme loi.
Lappellation loi dquilibre peut tre dj pressentie par thorme qui suit. Elle sera
encore plus claire quand nous verrons les thormes limites.
Thorme 4.41. Soit (Xn ) une chane de Markov espace dtats E fini. Supposons que
pour un tat i de E on ait, quand n tend vers + :
(n)
jE
n+
n+
jE
ce qui prouve que est bien une loi de probabilit sur E. Par ailleurs, ayant pour tout (i, j)
dans E 2 et tout n dans N
X (n1)
(n)
pi,j =
pi,k pk,j ,
kE
il vient :
(n)
n+
(n1)
pi,k
pk,j =
kE
X
kE
(n1)
lim pi,k
n+
pk,j =
k pk,j ,
kE
Il est important de noter quil nexiste pas toujours une loi stationnaire. Il en est ainsi
par exemple dans le cas dune marche alatoire simple avec p = 1 (et donc q = 0). En effet
dans ce cas, comme pi,j est non nul seulement si j = i + 1, lquation que doit vrifier une loi
stationnaire
X
j =
i pi,j , j Z,
iE
implique que j = j1 et que donc tous les j sont gaux une constante. La mesure
discrte ainsi obtenue sur Z nest bien sr pas une probabilit. Constatons galement que
pour une marche alatoire simple gnrale (i.e sur Z avec p [0, 1]) on a, pour tout (i, j) Z2 ,
c
Jean-Yves Dauxois,
Fvrier
2009
72
la convergence de pi,j vers 0 quand n tend vers +. Mais la mesure ainsi obtenue est
effectivement invariante mais nest toujours pas une probabilit sur Z. Le thorme prcdent
est donc uniquement vrai dans le cas dun espace des tats fini.
linverse il existe des chanes de Markov possdant une infinit de loi stationnaire.
Exercice 4.25. Dmontrer que pour la chane modlisant le jeu entre
A et B (Cf. Exemple 2.4), il existe une infinit de loi stationnaires et donner
leurs formes.
Solution de lexercice.
On vrifie aisment que nimporte quelle probabilit sur {0, 1, . . . , a} de la forme =
(, 0, . . . , 0, 1 ) est stationnaire pour cette chane.
3
Cas des matrices bistochastiques.
Une matrice stochastique P est dite bistochastiques si la somme de ses colonnes vaut
aussi 1. Cest par exemple le cas pour une matrice de transition P qui serait symtrique.
Notons 1l le vecteur colonne sur E ayant toutes ses composantes gales 1. Si P est
bistochastique, ce vecteur 1l est alors naturellement vecteur propre droite de P i.e.
P 1l = 1l.
Ainsi, le vecteur 1l est une mesure invariante pour la chane mais ce nest bien sr pas une
probabilit. Dans le cas o E est infini, tout vecteur de la forme c1l o c R+ est toujours
une mesure invariante mais pas une probabilit.
En revanche, si E est fini, alors en prenant c = 1/Card(E), on obtient une loi invariante.
Ainsi par exemple, toute chane de Markov sur E fini ayant une matrice symtrique admet
une loi invariante.
(n+1)
(n+1)
(n+1)
p1,1
p1,2
p2,1
p2,2
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
c
Jean-Yves Dauxois,
Fvrier
2009
73
Solution de lexercice.
1) Rappelons que sa matrice de transition est
1p
p
P =
q
1q
En utilisant la relation P n+1 = P n P , on obtient les relations
(n+1)
= (1 p)p1,1 + q p1,2
(n)
(n+1)
= p p1,1 + (1 q)p1,2
(n+1)
= (1 p)p2,1 + q p2,2
(n+1)
= p p2,1 + (1 q)p2,2
p1,1
(n)
(n)
p1,2
(n)
(n)
p2,1
(n)
(n)
p2,2
(n)
(n)
(n)
(n)
(n+1)
(n+1)
(n+1)
p1,1
p1,2
p2,1
p2,2
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
(n)
p1,1
(n)
= p1,1 (1 p q) + q,
ce qui, daprs le rappel que nous venons de faire, est de solution de forme gnrale :
q
(n)
.
p1,1 = A (1 p q)n +
p+q
(0)
74
p+q
p+q
P =
q
p
p+q
p+q
Le thorme prcdent nous permet daffirmer que la loi de probabilit sur E = {1, 2} dfinie
par = (q/(p + q), p/(p + q)) est ncessairement une mesure invariante sur E. Constatons au
(n)
passage que la limite des pi,j ne dpend effectivement pas de i.
3
Solution de lexercice.
1) La matrice de passage est
0
1
0
P = 0 1/2 1/2 .
1/2 0 1/2
c
Jean-Yves Dauxois,
Fvrier
2009
75
2) Cherchons sil existe une ou des lois stationnaires pour une telle chane. Une telle loi
doit par dfinition vrifier lquation P = , ce qui nous donne le systme dquations :
1 = 12 3
1 = 12 3
1
.
2 = 1 + 2 2
2 = 3
3 = 21 2 + 12 3
Comme on doit avoir 1 + 2 + 3 = 1, lunique solution du systme est (1/5, 2/5, 2/5). Ainsi
il existe une unique loi stationnaire donne par = (1/5, 2/5, 2/5) pour une telle chane
de Markov sur le triangle.
3
10.2. Loi stationnaire et chane irrductible.
Thorme 4.42. Une chane de Markov irrductible admet une distribution stationnaire
si, et seulement si, elle est rcurrente positive. Dans ce cas, la distribution est unique et
est dfinie, pour tout i dans E, par :
1
i = .
i
Une chane irrductible ne peut donc la fois tre transiente et possder une distribution
stationnaire. Or on sait que la marche alatoire simple est irrductible et transiente dans le
cas o p 6= 1/2. Pour une telle chane il nexiste donc pas de loi stationnaire.
Corollaire 4.43. Une chane de Markov irrductible sur un espace dtat fini E admet
une unique loi stationnaire . Celle-ci est telle que, pour tout i dans E, on ait :
1
i = .
i
Soit k un tat fix dans E et, pour chaque tat i on dfinit lesprance du nombre de visites
de ltat i entre deux visites de ltat k (on dira plus simplement le nombre moyen de visites...
mme si ce nest pas mathmatiquement la mme chose) par :
!
!
TX
TX
k 1
k 1
i (k) = Ek
1l{Xn =i} = E
1l{Xn =i} |X0 = k .
n=0
n=0
On peut alors montrer que lon a, pour tout couple (i, k) dans E 2 :
i
k
i (k) =
=
.
i
k
10.3. thormes limites. On peut maintenant sattaquer au problme de la convergence
de la chane de Markov vers une situation dquilibre. On sintresse donc dterminer les
(n)
situations o lon a la convergence, pour tout i dans E, des pi,j , pour j E, quand n tend
vers + ou encore la convergence des P (Xn = j) quand n tend vers +.
Il est important dans un premier temps de souligner que la priodicit de la chane peut
tre source de problme dans cet objectif de convergence vers lquilibre. En effet considrons
le cas trs simple de la chane de Markov deux tats, i.e. valeurs dans E = {1, 2}, avec
p1,2 = p2,1 = 1. Le graphe dune telle chane est donn dans la Figure 10 :
c
Jean-Yves Dauxois,
Fvrier
2009
76
(n)
p2,2
(n)
p2,1
0 si n est impair
1 si n est pair
1 si n est impair
0 si n est pair
et
(n)
p1,2
(n)
On ne peut donc pas esprer une convergence des pi,i vers des limites i , pour i = 1, 2,
et donc une convergence de la chane de Markov vers une situation dquilibre. Et pourtant
cette chane admet une loi stationnaire : = (1/2, 1/2)0 .
Cest pourquoi nous allons ici nous restreindre aux chanes de Markov apriodiques. Mais
cela dit, il existe des rsultats pour les chanes priodiques.
Dfinition 4.44. On dit quun tat dune chane de Markov est ergodique sil est rcurrent
positif et apriodique.
On note que lergodicit est une proprit de classe, puisque la rcurrence positive et la
priodicit le sont. Une chane de Markov irrductible rcurrente positive et apriodique est
dite simplement chane de Markov ergodique.
Thorme 4.45. Soit (Xn )nN une chane de Markov ergodique (i.e. irrductible rcurrente positive et apriodique) de loi initiale 0 quelconque. On a alors, pour tout j dans E :
1
, quand n +.
P (Xn = j) j =
j
En particulier, on a pour tout (i, j) dans E 2
(n)
pi,j j , quand n +.
10.4. Inversion du temps. Daprs sa dfinition, une chane de Markov est telle que le
pass et le futur sont indpendants, conditionnellement au prsent. Pour sen convaincre soient
(i, j, k) un triplet dtats dune chane de Markov valeurs dans une espace E dnombrable.
Pour tout entier n, on a bien :
P (Xn+1 = k, Xn1 = j|Xn = i)
= P (Xn+1 = k|Xn1 = j, Xn = i)P (Xn1 = j|Xn = i)
= P (Xn+1 = k|Xn = i)P (Xn1 = j|Xn = i).
Cette proprit tant symtrique, on se pose naturellement la question de ce que lon
obtiendrait en inversant le temps. Soit donc (Xn )nZ une chane de Markov, de matrice de
transition P , irrductible, rcurrente positive et de loi stationnaire (on sait quil en existe
c
Jean-Yves Dauxois,
Fvrier
2009
77
une et une seule). Supposons que, pour tout n, la loi de Xn soit . Notons que cette hypothse
est plus forte que de demander que la loi de X0 soit (cette dernire ne permettant davoir
la loi pour les Xn pour uniquement n 0). On dfinit alors la chane inverse en temps
(Yn )nZ par :
Yn = Xn ,
pour n Z. Montrons que (Yn ) est alors encore une chane de Markov et que pour tout n la
loi de Yn est galement . Que la loi de Yn soit pour tout n est trivial. Pour le caractre
markovien, on a en effet, pour tout n Z, tout k N et tout (in+1 , in , in1 , . . . , ink ) E k+1 :
=
=
=
=
=
= P (Yn+1 = j|Yn = i)
= P (Xn1 = j|Xn = i)
pj,i j
=
,
i
en utilisant le mme genre de raisonnement que ci-dessus. On a alors clairement qi,j = pi,j si,
et seulement si : i pi,j = j pj,i .
2
Un des intrts de cette proprit de rversibilit est de donner une manire aise (mais
qui ne marche pas toujours) pour dterminer une loi stationnaire associe une chane de
Markov.
Thorme 4.48. Si une chane de Markov irrductible (Xn ) possde une loi rversible
alors elle est rcurrente positive avec pour unique loi stationnaire .
c
Jean-Yves Dauxois,
Fvrier
2009
78
Preuve. Supposons que la chane irrductible (Xn ) possde une loi rversible . On a
alors :
X
X
i pi,j =
j pj,i
iE
iE
= j
pj,i = j ,
iE
et on a bien P = . La chane possde donc une loi stationnaire. Comme elle est irrductible, on sait quelle est rcurrente positive et que la loi stationnaire est unique, ce qui
achve la dmonstration.
2
Voyons maintenant quelques exemples.
0 2/3 1/3
P = 1/3 0 2/3
2/3 1/3 0
1)
2)
3)
4)
5)
Solution de lexercice.
1) Son graphe est donn par la Figure 11.
1
1l = (1/3, 1/3, 1/3) .
CardE
c
Jean-Yves Dauxois,
Fvrier
2009
79
4) En utilisant la formule obtenue dans le thorme 4.47, la chane de Markov (Yn ) inversion
en temps de la chane (Xn ) est de matrice de passage :
Q = P
Comme la matrice P nest pas symtrique, la chane (Xn ) nest pas rversible (Q 6= P ).
5) Toutes les chanes ne sont pas rversibles, mme celles possdant une loi stationnaire. 3
Solution de lexercice.
1) Rappelons que lon a pour une telle chane :
p
= p, pour i = 1, . . . , a 1
i,i+1
pi,i1 = q, pour i = 1, . . . , a 1
p0,0 = pa,a = 1
p0,1 = pa,a1 = 0
Si une telle loi rversible existe, elle doit, daprs le thorme 4.47, vrifier le systme
dquations :
(
i p = i+1 q i+1 = pq i , pour i = 1, . . . , a 2
,
0 = 1 q = a1 p
ce qui nous donne = (, 0, . . . , 0, 1 ) , o [0, 1].
2) On retrouve bien la loi stationnaire calcule prcdemment.
q p 0 0
..
q 0 p 0
.
..
0 q 0 p
0
.
. . .
..
..
..
..
. . .
.
.
.
.
. . .
P = .. ..
.
.
q
0
p
0
. . .
..
..
..
..
.. .. ..
.
.
.
.
. . .
..
.. .. ..
.
q
0
p
.. ..
..
0 . .
.
0
q
p
c
Jean-Yves Dauxois,
Fvrier
2009
80
pi,i+1 = p, pour i = 0, . . . , a 1
pi,i1 = q, pour i = 1, . . . , a
p0,0 = q et pa,a = p
Dterminer une loi stationnaire si elle existe. (Ind. On pourra dissocier
les rsultats suivant les valeurs de p)
Solution de lexercice.
Une loi rversible pour une telle chane, si elle existe, doit vrifier le systme dquations :
i p = i+1 q, pour i = 0, . . . , a 1,
ce qui nous donne
i
p
.
i = 0
q
Cherchant une loi de probabilit, il nous faut prendre 0 de manire avoir
a
X
i = 1,
i=0
i.e
(
1( pq )a+1
1 pq
(a + 1)0
= 1 si p 6= q
= 1 si p = q = 1/2
0 =
0 =
1 pq
1( pq )a+1
1
a+1 si p
si p 6= q
= q = 1/2
1
(1, . . . , 1) ,
a+1
dans le cas o p = q.
On serait tent de dire que, si p est plus grand que q, la chane se dcale progressivement
vers a et que par consquent la chane inverse en temps irait, elle, plutt vers 0. Mais
seulement la premire affirmation est justifie. En effet, la chane inverse nest considre
quen tat dquilibre pour la chane initiale, qui est, dans le cas o p est largement plus
grand que q, concentre autour de la valeur a (et par symtrie vidente autour de 0 si p est
largement plus petit que q). La chane reste ainsi le plus souvent proche de ltat a, tout en
faisant de brves excursions vers la gauche (i.e. en direction de 0). Ce comportement est bien
sr symtrique en temps, ce qui signifie que la chane inverse reste elle aussi le plus souvent
proche de a.
3
Donnons une interprtation intuitive de la stationnarit et de la rversibilit. Soit (Xn )
une chane de Markov espace dtats E. Supposons que lon observe un (trs !) grand
nombre de trajectoires de cette chane en tat dquilibre. un instant n, la proportion de
c
Jean-Yves Dauxois,
Fvrier
2009
11. Bibliographie
81
trajectoires tant dans ltat i est donc i o est la loi dquilibre. linstant suivant, soit
n + 1, la proportion de ceux qui partent de i (ce qui ne veut pas forcment dire quil le quitte)
est donc i . La proportion de ceux qui arrivent ltat i (mme si ils y taient dj) est :
X
j pj,i .
j
Cette chane est rellement en quilibre ou en tat stationnaire si ces deux proportions sont
gales. Cest dire si lon a bien :
X
i =
j pj,i .
j
La proprit de rversibilit est, elle, plus exigeante. Elle demande que la proportion de ceux
qui quittent ltat i pour aller vers ltat j soit la mme que celle de ceux qui font le trajet
inverse, i.e. i pi,j = j pj,i . On pourrait parler dquilibre local, ce qui est bien plus fort que
lquilibre (global) considr prcdemment.
10.5. Thorie ergodique. La notion de thorie ergodique peut tre utilise en rfrence
un comportement limite de la chane mais aussi en rfrence un comportement limite
des moyennes sur une priode. Plus prcisment on sintresse pour une chane en rgime
stationnaire, la proportion de temps pass dans chaque tat. Cest ce que nous voulons
tudier dans cette section.
Considrons Ni (n) le nombre de visites de ltat i queffectue la chane (Xn ) avant le temps
n, i.e.
n1
X
1l{Xk =i} .
Ni (n) =
k=0
et Ni (n)/n la proportion de temps pass par la chane dans ltat i avant le temps n.
Thorme 4.49. Soit (Xn ) une chane de Markov valeurs dans un espace dnombrable
E, irrductible et de loi initiale 0 quelconque. On a alors, pour tout tat i de E, on a p.s. :
1
Ni (n)
=
lim
n+
n
i
o i = Ei (Ti ) est toujours le temps moyen de retour ltat i.
De plus, si la chane est rcurrente positive, alors pour toute fonction f borne de E vers
R, on a p.s.
n1
1X
lim
f (Xk ) = f,
n+ n
k=0
o
f =
Z
i f (i) =
f d
iE
c
Jean-Yves Dauxois,
Fvrier
2009
CHAPITRE 5
Esprances conditionnelles
83
84
P (A B)
.
P (B)
Si X est une v.a. positive, on peut naturellement dfinir son esprance conditionnelle B
par :
Z
E(X|B) = X()dP (|B),
cest dire lesprance de X prise par rapport la probabilit conditionnelle P (|B). On peut
montrer que cette esprance conditionnelle vrifie lgalit (parfois utile pour les calculs) :
Z
E(X1lB )
1
E(X|B) =
(1)
X()dP ().
=
P (B)
P (B) B
En effet cette formule est trivialement vrifie pour toute v.a. indicatrice de la forme X = 1lA .
Ce nest rien dautre que la formule classique des probabilits conditionnelles rappele cidessus. Grce la linarit de lesprance, cette formule est donc vrifie galement pour
toute fonction tage de la forme
n
X
Xn =
i 1lAi ,
i=1
o les i sont des rels positifs et les Ai des vnements disjoints de la tribu A. On sait
que toute fonction mesurable positive peut tre crite comme limite croissante de fonctions
tages positives. Ainsi, toujours par linarit de lesprance et avec le soutien supplmentaire
du thorme de convergence monotone, la formule (1) est bien vraie pour toute v.a. positive.
Pour toute v.a. intgrable (et non ncessairement positive), on peut alors utiliser lquation (1) pour dfinir son esprance conditionnelle B. On crit en effet X = X + X
avec X + = max(X, 0) et X = max(X, 0). Daprs ce qui prcde, on sait dfinir et les
esprances conditionnelles E(X + |B) et E(X |B). Elles vrifient lquation (1), ce qui, puisque
X est suppose intgrable, assure quelles sont toutes les deux finies. On peut alors dfinir
E(X|B) par E(X|B) = E(X + |B) E(X |B) et avoir la formule (1) galement vrifie pour
une v.a. intgrable.
Considrons maintenant une v.a. Y discrte, i.e. valeurs dans un ensemble E =
{y1 , y2 , . . . , yk , . . .} au plus dnombrable. Daprs ce qui prcde on peut dfinir, pour toute
variable X intgrable, lesprance conditionnelle
E(X|{Y = yk }),
pour tout yk de E. On a ici aussi, comme prcdemment :
Z
E(X1l{Y =yk } )
1
(2)
X()dP ().
E(X|{Y = yk }) =
=
P (Y = yk )
P (Y = yk ) {Y =yk }
Notons alors h la fonction de E vers R dfinie par :
h(yk ) = E(X|{Y = yk })
c
Jean-Yves Dauxois,
Fvrier
2009
2. Esprance conditionnelle
85
et considrons h(Y ) la compose de h avec la v.a. Y . On peut alors crire, pour tout vnement
B sur la tribu E mise sur E :
Z
Z
E(h(Y )1l{Y B} ) =
h(Y ())dP () =
h(yk )dPY (yk )
{:Y ()B}
h(yk )P (Y = yk ) =
yk B
{yk B}
yk B
E(XY ) = E(ZY ), Y L2 (, B, P ),
2
Il est important de bien noter que lesprance conditionnelle E(X|B) nest dfinie qua une
galit p.s. prs (plus prcisment lunicit nest vraie qu une galit p.s. prs).
c
Jean-Yves Dauxois,
Fvrier
2009
86
Preuve/solution de lexercice.
1) vident puisque lesprance conditionnelle est une projection. On peut galement le
retrouver en utilisant le Thorme 5.2.
2) La v.a.r. Z gale p.s. x est bien dans L2 (, B, P ) et telle que E(XY ) = E(ZY ) pour
tout Y de L2 (, B, P ). Elle convient donc comme esprance conditionnelle et, par unicit,
cest uniquement elle.
3) On prend ici Z = E(X) qui est aussi une variable de L2 (, B, P ). Par indpendance,
on a bien :
E(XY ) = E(X)E(Y ) = E(E(X)Y ),
2
pour tout Y de L (, B, P ). La v.a.r. Z ainsi dfinie convient bien et par unicit, cest bien
elle.
4) On note Z1 = ZE(X|B). Cette v.a.r. est bien B-mesurable et de carr intgrable
puisque Z est borne et que E(X|B) est dans L2 (, B, P ). Pour tout Y de L2 (, B, P ), on a :
E(Z1 Y ) = E(Y ZE(X|B)) = E(Y ZX),
puisque Y Z est B-mesurable et de carr intgrable. Par unicit on a alors :
E(ZX|B) = ZE(X|B).
Cette proprit souligne que, conditionnellement B, la v.a.r. Z est connue et se comporte
alors comme une constante dans lesprance conditionnelle.
5) Notons Z = E(X|B) et An = {Z < 1/n} qui est un vnement de B. La fonction
indicatrice de cet vnement est donc B-mesurable et on peut crire :
1
0 E(X1lAn ) = E(Z1lAn ) P (An ) 0.
n
c
Jean-Yves Dauxois,
Fvrier
2009
2. Esprance conditionnelle
87
vers R = [0, +] et L+ (, B, P ) le sous espace de ces classes dquivalence qui soient Bmesurables.
+ (, A, P ), il existe un lment unique de L
+ (, B, P ) tel que :
Pour tout X de L
E(ZY ) = E(XY ),
c
Jean-Yves Dauxois,
Fvrier
2009
88
Preuve/solution de lexercice.
1) La v.a. Xn est, pour tout n, positive et borne. Elle est donc dans L2 (, A, P ). Par
dfinition de lesprance conditionnelle dans L2 , il existe donc, pour tout n, une unique v.a.
Zn = E(Xn |B) de L2 (, B, P ).
2) Comme (Xn ) est une suite de v.a. positives p.s. croissante, par la proprit 5 de la
Proposition 5.3, la suite (Zn ) est galement une suite de v.a. positives, B-mesurables. Elle est
croissante vers une v.a. Z positive et B-mesurable (comme suite de v.a. B-mesurables).
3) Les v.a. (Yp ) sont dans L2 (, B, P ). Daprs la dfinition de lesprance conditionnelle,
on a donc, pour tout n et tout p : E(Xn Yp ) = E(Zn Yp ). La croissance de Yp vers Y quand
p tend vers + (et la suite Xn tant borne) assure la convergence monotone croissante de
Xn Yp vers Xn Y et celle de Zn Yp vers Zn Y . Par le thorme de convergence monotone on a
donc : E(Xn Y ) = E(Zn Y ), pour tout n.
4) On fait exactement le mme raisonnement quau point prcdent en faisant tendre cette
fois-ci n vers +.
5) La v.a. 1l{Z1 a<bZ2 } tant B-mesurable (puisque Z1 et Z2 le sont), on peut crire :
aP (Z1 a < b Z2 ) E(Z1 1l{Z1 a<bZ2 } ) = E(Z2 1l{Z1 a<bZ2 } ) bP (Z1 a < b Z2 ),
lgalit du centre tant assure par la proprit de lesprance conditionnelle. On aboutit
une contradiction sauf si P (Z1 a < b Z2 ) = 0.
6) On peut crire :
[
{Z1 < Z2 } =
{Z1 a < b Z2 }.
(a,b)Q2 , a<b
Lvnement {Z1 < Z2 } est donc ngligeable par union dnombrable de ngligeables. Par
symtrie, on a P (Z1 > Z2 ) = 0 et donc P (Z1 6= Z2 ) = 0.
2
Corollaire 5.5. Avec les mmes notations quau Thorme 5.4, pour avoir Z = E(X|B)
il suffit davoir lune des conditions quivalentes suivantes :
lgalit E(ZY ) = E(XY ), pour toute v.a.r Y borne et B-mesurable ;
lgalit E(Z1lB ) = E(X1lB ), pour tout vnement B de B.
Preuve/solution de lexercice.
+ (, B, P ) et dfinissons Yn = Y n. Par hypothse,
1) Soit Y une v.a. quelconque de L
on a donc :
E(ZYn ) = E(XYn )
Par le thorme de convergence monotone on obtient, en faisant tendre n vers +, la relation
E(ZY ) = E(XY ).
2) Supposons que Y soit une v.a.r. B-mesurable, positive et borne. On sait que Y peut
tre approche par une suite croissante de fonctions tages de la forme (avec des notations
qui se comprennent aisment) :
pn
X
Yn =
in 1lBin .
i=1
c
Jean-Yves Dauxois,
Fvrier
2009
2. Esprance conditionnelle
89
Lhypothse et la linarit de lesprance conditionnelle assure que lon a pour tout n lgalit
E(ZYn ) = E(XYn ). Une nouvelle application du thorme de convergence monotone nous
remet dans le cas 1) et achve donc la preuve.
2
Enfin on peut dfinir lesprance conditionnelle pour des v.a.r. intgrables (et non ncessairement positives).
Thorme 5.6. Soit X une v.a.r. de L1 (, A, P ). Il existe une unique v.a.r. Z de
telle que pour tout v.a.r. B-mesurable borne Y on ait : E(XY ) = E(ZY ). La
v.a.r. Z ainsi dfinie est appele esprance conditionnelle B et est note E(X|B).
L1 (, B, P )
Preuve/solution de lexercice.
1) Les v.a.r. de la suite (Xn ) sont bornes et donc toutes dans L2 (, A, P ). On peut donc
dfinir Zn = E(Xn |B), pour tout n.
2) On peut crire, pour tout n et m :
E|E(Xn |B) E(Xm |B)| = E|E(Xn Xm |B)|
E(E(|Xn Xm ||B)) = E|Xn Xm |.
De plus, la convergence p.s. de Xn vers X et lingalit |Xn X| 2|X| permettent
dappliquer le thorme de convergence domine pour obtenir la convergence dans L1 de Xn
vers X. La suite (Xn ) est donc de Cauchy dans L1 et par lingalit prcdente, la suite (Zn )
lest aussi. Lespace L1 tant complet (puisque de Banach), on a galement la convergence
dans L1 de Zn vers une limite que nous noterons Z.
3) On sait que les v.a.r. Xn sont dans L2 (, A, P ). De plus, toute v.a.r. B-mesurable
borne Y est galement dans L2 (, A, P ). Par proprit de lesprance conditionnelle dans
L2 , on a donc : E(Xn Y ) = E(Zn Y ).
Maintenant, la v.a. Y tant suppose borne, les convergences vues prcdemment entranent celles de Xn Y vers XY et de Zn Y vers ZY , toujours dans L1 . On en dduit que
E(Xn Y ) EXY et E(Zn Y ) EZY,
c
Jean-Yves Dauxois,
Fvrier
2009
90
quand n +. Les termes des deux sries tant gaux pour tout n, on a bien le rsultat
annonc.
4) Soient Z1 et Z2 deux v.a.r. de L1 (, B, P ) telles que :
E(XY ) = E(Z1 Y ) = E(Z2 Y ),
pour tout Y de L1 (, B, P ). En dfinissant les vnements An = {Z1 + 1/n < Z2 } pour tout
n, les v.a.r. 1lAn sont B-mesurables bornes pour tout n et on a donc
E(Z2 1lAn ) = E(Z1 1lAn ) E((Z2 1/n)1lAn ) = EZ2
1
P (An ).
n
Mais comme la v.a.r. Z2 est dans L1 (, B, P ), lesprance E(Z2 1lAn ) est finie. Lingalit
prcdente implique alors que lon a : P (An ) = 0, pour tout n. On en dduit que lvnement
n An est galement ngligeable et donc que lon a P (Z1 < Z2 ) = 0. Par symtrie on a P (Z1 >
Z2 ) = 0 et donc P (Z1 6= Z2 ) = 0, ce qui prouve bien lunicit de lesprance conditionnelle
dans L1 .
2
Proposition 5.7. Soit X une v.a.r. de L1 (, A, P ) et C une classe de fonctions Bmesurables bornes stable par multiplication qui engendre la tribu B (i.e. telle que (C) = B)).
Alors, pour quun lment Z de L1 (, A, P ) soit gal lesprance conditionnelle E(X|B),
il suffit que lon ait la relation E(XY ) = E(ZY ) pour tout Y de C.
2. Esprance conditionnelle
91
(6) (Convergence domine) Pour toute suite (Xn ) de v.a. positives telle que
p.s.
p.s.
92
o A = {(a, b) : y, ay + b (y)}.
2) Montrer la proprit des variances conditionnelles.
3) Montrer en premier lieu que les esprances conditionnelles prsentes
dans la formule sont bien dfinies dans L1 . Appliquer ensuite lingalit
1
1
xy xp + y q ,
p
q
vraie pour tout x et y de R+ , aux v.a.
|X|
|Y |
et
.
1/p
p
[E(|X| |B)]
[E(|Y |q |B)]1/q
pour tablir lingalit :
E(|XY ||B)
1,
[E(|X|p |B)]1/p [E(|Y |q |B)]1/q
sur lensemble B = {E(|X|p |B) > 0 et E(|Y |q |B) > 0}. Terminer en montrant que lingalit est trivialement vrifie sur le complmentaire de B.
On pourra utiliser les ensembles de la forme : BX = {E(|X|p |B) = 0} et
BY = {E(|Y |q |B) = 0}.
4) Dmontrer la proprit de convergence monotone pour lesprance conditionnelle.
5) Pour tablir le rsultat du type Lemme de Fatou, on pourra considrer les suites (Yn ) et (Zn ) dfinies par
Yn = inf Xp et Zn = inf E(Xp |B).
pn
pn
2. Esprance conditionnelle
93
Preuve/solution de lexercice.
1) Daprs le proprit rappele pour une fonction convexe, on peut crire :
(E(X|B)) =
(a,b)A
2) On peut crire :
h
i
E (X E(X|B))2 |B = E X 2 2XE(X|B) + E2 (X|B) |B
= E(X 2 |B) + E2 (X|B) 2E2 (X|B)
= E(X 2 |B) E2 (X|B).
3) Puisque les v.a. X et Y sont respectivement dans Lp et Lq , les v.a. X p et Y q sont dans
De plus, daprs lingalit de Hlder pour les esprances classiques, le produit XY est
dans L1 . On peut donc bien dfinir les esprances conditionnelles de ces v.a. dans L1 .
Maintenant, sur lensemble B = {E(|X|p |B) > 0 et E(|Y |q |B) > 0}, les v.a.
L1 .
|Y |
|X|
et
[E(|X|p |B)]1/p
[E(|Y |q |B)]1/q
sont bien dfinies et positives. On peut alors leur appliquer lingalit rappele dans lnonc
pour obtenir, sur lensemble B :
|Y |
|X|p
|Y |q
|X|
+
.
pE(|X|p |B) qE(|Y |q |B)
[E(|X|p |B)]1/p [E(|Y |q |B)]1/q
Lvnement B tant B-mesurable, en prenant lesprance conditionnelle de lingalit prcdente on obtient, toujours sur B :
E(|XY ||B)
1 1
+ = 1,
1/p
1/q
p
q
p
q
[E(|X| |B)] [E(|Y | |B)]
ce qui, grce la proprit 6) de la Proposition 5.3, prouve sur lvnement B lingalit de
Hlder dsire.
Considrons maintenant lvnement BX = {E(|X|p |B) = 0}. Cet vnement est dans B
et par proprit des esprances conditionnelles, on a :
E(|X|p 1lBX ) = E(E(|X|p |B)1lBX ) = 0,
ce qui implique que la v.a. |X|p 1lBX est p.s. nulle. On en tire que
E(|XY |1lBX |B) = 0
et lingalit de Hlder est alors trivialement vrifie sur BX , les deux cots de lingalit
tant nuls. Il en est par symtrie vidente de mme sur BY = {E(|Y |q |B) = 0}. Comme on a
= B BX BY , lingalit de Hlder est toujours vraie.
c
Jean-Yves Dauxois,
Fvrier
2009
94
4) Soit (Xn ) une suite dfinie comme dans le thorme et notons (Yn ) la suite dfinie,
pour tout n, par Yn = E(Xn |B). Par proprits de lesprance conditionnelle, cette dernire
constitue une suite de v.a. positives, B-mesurables et croissante vers une v.a. Y qui est Bmesurable et valeurs dans [0, +]. Or, pour tout n et tout B de B, on a : E(Xn 1lB |B) =
E(Yn 1lB |B). Par le thorme de convergence monotone pour les esprances classiques, le terme
de gauche converge en croissant vers E(X1lB |B) et celui de droite vers E(Y 1lB |B), ce qui prouve
que Y nest autre que lesprance conditionnelle E(X|B) et la dmonstration est acheve.
5) Les suites (Yn ) et (Zn ), dfinies dans lnonc de lexercice, convergent en croissant
respectivement vers lim inf n Xn et lim inf n E(Xn |B). Par ailleurs, la monotonie de lesprance
conditionnelle nous assure que lon a
E(Xp |B) E(Yn |B),
pour tout p n et donc :
Zn E(Yn |B),
pour tout n. Par le thorme de convergence monotone que nous venons de dmontrer au
point 4), le terme de droite converge en croissant vers E(lim inf n Yn |B). En faisant tendre
n vers + des deux cots de lingalit prcdente, on obtient lingalit de Fatou pour les
esprances conditionnelles.
6) a) Considrons la suite (Un ) dfinie, pour tout n, par
Un = sup E(Xp |B).
pn
Comme cette suite est dcroissante et positive elle est convergente vers une v.a. U galement
positive. Or on a :
E(Un ) = E(sup E(Xp |B)) E(E(sup Xp |B)) = E(sup Xp ).
pn
pn
pn
Mais la convergence p.s. de la suite (Xn ) vers 0 entrane celle de (suppn Xp ) vers 0. Comme
chaque lment de cette dernire suite est majore par la v.a. Y qui est telle que E(Y ) =
E(E(Y |B)) N , le thorme de convergence domine classique assure alors la convergence :
E(sup Xp ) 0, quand n +.
pn
Cette dernire convergence associe lingalit prcdemment tablie, montre que lon a
la convergence de E(Un ) vers 0. La variable limite U de la suite positive (Un ) est donc positive
et desprance nulle. Elle ne peut tre diffrente de 0. On a donc bien la convergence :
p.s.
Xn X 0
et les majorations p.s.
|Xn X| 2Y et E(2Y |B) 2N.
Daprs le point a) prcdent nous avons donc la convergence
p.s.
2. Esprance conditionnelle
95
Xn0 X 0 = X1lAN .
De plus, pour tout n, la v.a. |Xn0 | est majore par la v.a. Y 0 = Y 1lAN qui est telle que, p.s. :
E(Y 0 |B) = 1lAN E(Y |B) N,
puisque lvnement AN est lment de B. Le rsultat du point b) prcdent permet dassurer
la convergence :
p.s.
E(Xn |B)1lAN E(X|B)1lAN .
Lgalit
= N N AN
et la linarit de lesprance conduisent alors la conclusion du thorme.
7) Notons Y = E(X|B) et Z = E(Y |C). Il sagit de montrer que lon a Z = E(X|C).
Soit C un lment quelconque de C. Par dfinition de Z puis par dfinition de Y on peut
crire :
E(Z1lC ) = E(Y 1lC ) = E(E(X|B)1lC ) = E(E(X1lC |B)) = E(X1lC ),
ce qui prouve que Z = E(X|C).
Enfin la dernire affirmation est aisment obtenue en remarquant que lesprance conditionnelle E(X|B) sort de lesprance conditionnelle C si elle C-mesurable.
2
Voyons maintenant le lien avec les lois conditionnelles vues en cours de base de Probabilits.
Supposons que Z soit une v.a. de dans R telle que sa loi soit absolument continue par rapport
une mesure 1 sur R. Soit galement X une v.a. de vers un ensemble E de loi absolument
continue par rapport une mesure 2 sur E. Supposons enfin que la loi du couple alatoire
(Z, X) soit absolument continue par rapport la mesure produit 1 2 et de densit f (z, x).
La densit de la v.a. X par rapport la mesure 2 est alors donne par
Z
g(x) =
f (z, x)1 (dz)
R
Z
k (x) =
pour tout x de E.
c
Jean-Yves Dauxois,
Fvrier
2009
96
Preuve/solution de lexercice. Daprs le Lemme de Doob, la v.a. k (X) est (X)mesurable. Il nous faut donc seulement montrer que lon a pour toute v.a. (X)-mesurable
Y :
E(k (X)Y ) = E((Z)Y ).
Or, Y tant (X)-mesurable, il existe daprs le lemme de Doob une fonction telle que
Y = (X).
On en est donc dduit montrer que lon a pour toute fonction mesurable borne :
E(k (X)(X)) = E((Z)(X)).
Or, on peut crire :
Z Z
Z
E(k (X)(X)) =
(z)h(z, x)1 (dz) (x)g(x)2 (dx)
k (x)(x)g(x)2 (dx) =
x
z
Z Z
=
(x)(z)h(z, x)g(x)1 (dz)2 (dx)
ZxZ z
=
(x)(z)f (z, x)1 (dz)2 (dx)
= E((Z)(X)).
La variable k (X) convient. Elle est donc lunique ( une galit p.s. prs) solution.
c
Jean-Yves Dauxois,
Fvrier
2009
CHAPITRE 6
Martingales
97
98
Chapitre 6. Martingales
1. Martingales
1.1. Filtrations et temps darrt.
Dfinition 6.1. Une filtration sur un espace probabilis (, F, P ) est une suite croissante
(Fn ) de sous tribus de F, i.e., pour tout n, les sous tribus Fn et Fn+1 de F sont telles que :
Fn Fn+1 .
De plus on dfinit :
F = n Fn (n Fn ),
Dans cette dfinition on utilise donc la notation F G pour signifier la tribu engendre
par lunion de deux tribus F et G (on sait que lunion de deux tribus ne donne pas forcment
une tribu).
On supposera dans la suite que la tribu F0 contient tous les ngligeables de F .
Exemple fondamental de filtration : la filtration naturelle associe un processus. Soit (Xn ) une suite de v.a.r. sur (, F, P ). Dfinissons, pour tout n, la tribu
Fn = (X0 , . . . , Xn ).
La filtration ainsi construite est appele filtration naturelle associe au processus (Xn ).
Dfinition 6.2. Soit (Fn ) une filtration sur un espace probabilis (, F, P ). Un processus
(Xn )n0 est dit adapt la filtration (Fn ) si la v.a. Xn est Fn -mesurable, pour tout n.
Naturellement la filtration naturelle associe au processus (Xn ) est la plus petite filtration
le rendant adapt.
N {+} est appele (Fn )-temps
Dfinition 6.3. Une application T de vers N
darrt (t.d.a.) si on a :
1) n N : {T n} = { : T () n} Fn ,
ou encore de manire quivalente si :
2) n N : {T = n} Fn .
Solution de lexercice. Pour montrer que 1) implique 2), il suffit de remarquer que lon
a, pour tout n :
{T = n} = {T n} \ {T n 1}.
Le premier terme droite de lgalit est dans Fn par dfinition dun t.d.a. et le second dans
Fn1 . Par croissance des tribus dans une filtration et par proprit des tribus, lvnement de
gauche est donc bien dans Fn .
Pour la rciproque on utilise nouveau la croissance des tribus dans une filtration et
lgalit
{T n} = {T = 0} {T = 1} {T = n},
vraie pour tout n.
3
c
Jean-Yves Dauxois,
Fvrier
2009
1. Martingales
99
Solution de lexercice.
1) Il suffit de noter que lon peut crire
{T < } = n {T = n}.
Chaque vnement de droite tant dans F , le complmentaire de lvnement {T = } est
donc galement dans F .
c
Jean-Yves Dauxois,
Fvrier
2009
100
Chapitre 6. Martingales
Ceci nous permet de comprendre pourquoi, dans certains ouvrages, on peut trouver la
condition
: {T n} Fn .
n N
2) On a :
{T + 1 = n} = {T = n 1} Fn1 Fn
ce qui montre T + 1 est bien un t.d.a. En revanche, on a :
{T 1 = n} = {T = n + 1} Fn+1
et cet vnement na donc lui, a priori, aucune raison dtre dans la tribu Fn .
3) Les galits
{max(T, S) n} = {T n} {S n}
{min(T, S) > n} = {T > n} {S > n}
{T + S = n} = nk=0 {T = k} {S = n k}
permettent aisment dtablir ce rsultat.
Lemme 6.4. La v.a. T est un (Fn )-t.d.a. si, et seulement si, le processus (Xn ), dfini en
tout n par Xn = 1l{T n} , est (Fn )-adapt. Dans ce cas, on a
T = inf{n N : Xn = 1}.
La dmonstration de ce lemme est triviale et laisse au lecteur.
Dfinition 6.5. On appelle tribu des vnements antrieurs un (Fn )-t.d.a., la tribu FT
dfinie par
FT = {A F : n N, A {T n} Fn }.
Cest une exercice facile que de vrifier que FT est effectivement une tribu.
Proposition 6.6.
Si T est un t.d.a. p.s. constant gal k, alors la tribu FT nest autre que la tribu Fk .
Un vnement A est dans FT si, et seulement si, on a, pour tout n, lvnement
A {T = n} dans Fn .
Preuve/Solution de lexercice.
1) Si T est p.s. gal k, on a pour tout A de F les galits :
A {T n} = , si k > n
A {T n} = A, si k n.
Ainsi, on peut crire :
A FT n : A {T n} Fn n k : A Fn A nk Fn = Fk .
c
Jean-Yves Dauxois,
Fvrier
2009
1. Martingales
101
Preuve/Solution de lexercice.
1) Soit N le ngligeable en dehors duquel on a S() T (). On peut crire, pour tout
vnement A de FS :
.
A {T n} = (A {T n} N ) A {T n} N
Le premier terme dans lunion de droite est ngligeable, donc par hypothse dans F0 et, par
croissance de la filtration, dans Fn . Le second terme peut scrire sous la forme :
A {S n} {T n} N
ce qui prouve quil est dans Fn , puisque A est dans FS , que T est un t.d.a. et que N est dans
Fn .
2) Daprs le point prcdent, la tribu FST est inclue dans FS aussi bien que dans FT .
Elle est donc inclue dans FS FT .
c
Jean-Yves Dauxois,
Fvrier
2009
102
Chapitre 6. Martingales
Considrons maintenant un vnement A de FS FT . On peut crire
A {S T n} = (A {T n}) (A {S n}) .
Il sagit bien dun vnement de Fn puisque chaque terme de lunion est dans Fn par dfinition
dune tribu des vnements antrieurs un t.d.a. Lvnement A est donc bien dans FST , ce
qui prouve linclusion inverse et donc lgalit
FS FT = FST .
4) Soit (Tn ) une suite de t.d.a. dcroissante vers T . Lgalit
[
{T k} = {Tn k},
n
vraie pour tout k, montre bien que T est un t.d.a. puisque chaque terme de droite est dans
Fk . De plus, lingalit T Tn , vraie pour tout n, implique linclusion de FT dans FTn et
donc
\
FT
FTn .
n
montre bien que A est un lment de FT puisque chaque terme dans lunion de droite est dans
Fk .
2
Proposition 6.8. Une v.a. Z est FT mesurable si, et seulement si, pour tout entier k, la
v.a. Z1l{T k} est Fk mesurable.
Preuve/Solution de lexercice.
Condition ncessaire. Lensemble
H = {v.a. Z bornes : Z1l{T k} est Fk -mesurable, pour tout k N}
constitue un espace vectoriel de fonctions bornes, contenant les constantes et stable par limite
monotone borne. De plus lensemble
C = {Z = 1lA : A FT }
est une classe de fonctions relles bornes stable par multiplication. Par dfinition de FT ,
lensemble C est inclus dans H et, daprs le thorme des classes monotones, il en est de
mme pour lensemble de toutes les fonctions (C)-mesurables bornes. Ainsi toute v.a. Z qui
est FT -mesurable borne est telle que, pour tout k dans N, la v.a. Z1l{T k} est Fk -mesurable.
c
Jean-Yves Dauxois,
Fvrier
2009
1. Martingales
103
Preuve/Solution de lexercice.
On peut crire
X
XT =
Xk 1l{T =k} + X 1l{T =} .
kN
k
X
Xp 1l{T =p} ,
p=0
apparat clairement comme Fk -mesurable, ce qui prouve, grce la Proposition 6.8, que XT
est FT -mesurable.
2
1.2. Martingales, Sousmartingales et Surmartingales.
1.2.1. Dfinition.
Dfinition 6.10. Un suite de v.a. (Xn ) de vers R est dite une martingale relativement
une filtration (Fn ) (ou (Fn )-martingale) si elle vrifie les proprits suivantes :
(1) (Xn ) est un processus (Fn )-adapt ;
(2) E|Xn | < +, pour tout n dans N ;
(3) (proprit de martingale) E(Xn |Fn1 ) = Xn1 , pour tout n 1.
Le processus (Xn ) est appel sousmartingale (resp. surmartingale) si les proprits 1) et
2) sont respectes conjointement avec lingalit E(Xn |Fn1 ) Xn1 (resp. E(Xn |Fn1 )
Xn1 ), pour tout n 1.
c
Jean-Yves Dauxois,
Fvrier
2009
104
Chapitre 6. Martingales
On constate que, dans le cas dune martingale, la condition 1) est automatiquement assure ds que la condition 3) lest. Il y a donc redondance. En revanche, dans le cas dune
sousmartingale ou dune surmartingale, la condition 1) est ncessaire car non assure par la
condition 3). Par ailleurs on note que bien videmment (Xn ) est une surmartingale si, et
seulement si, le processus (Xn ) est une sousmartingale.
Il apparat clairement que la suite des esprances dune martingale est constante alors
quelle est croissante (resp. dcroissante) pour une sousmartingale (resp. surmartingale).
Les martingales sont utilises pour modliser les jeux de hasard quitables. Supposons en
effet qu un jeu de hasard, la v.a. Xn reprsente la fortune dun joueur la nime partie. La
proprit de martingale stipule que, si le joueur a la connaissance de lvolution passe de sa
fortune (cest dire jusquau temps n 1) alors lesprance de la valeur de sa fortune aprs
la partie suivante (la nime) est gale celle actuelle (i.e. n 1). En moyenne ses gains
restent inchangs.
Proposition 6.11. Si (Xn ) est une (Fn )-martingale, on a alors, pour tout m < n :
E(Xn |Fm ) = Xm .
La preuve est immdiate.
Remarquons que si X = (Xn ) est une martingale et si U est une v.a. F0 -mesurable et
dans L1 , alors le processus X U = (Xn U ) est encore une martingale. Cest pourquoi, on
pourra se restreindre ltude des martingales nulles en 0 (quitte soustraire sa valeur initiale
X0 ).
1.2.2. Exemples classiques de martingales.
Exercice 6.8.
1) (Somme de v.a. indpendantes et centres) Soit (Yn ) une suite de
v.a.r. indpendantes, centres et dans L1 . Montrer que le processus (Sn ),
dfini pour tout n par
n
X
Sn =
Yk ,
k=0
est une martingale par rapport une filtration que lon prcisera.
2) (Produit de v.a. positives, indpendantes et desprance 1) Soit (Xn )
une suite de v.a.r. indpendantes, positives et telles que E(Xn ) = 1, pour
tout n de N. Montrer que le processus (Mn ) dfini, pour tout n, par :
n
Y
Mn =
Xk
k=1
c
Jean-Yves Dauxois,
Fvrier
2009
1. Martingales
105
Solution de lexercice.
1) Prenons pour filtration (Fn ), la filtration naturelle associe au processus (Yn ), i.e. telle
que, pour tout n, on ait Fn = (Y0 , Y1 , . . . , Yn ). Le processus (Sn ) est naturellement (Fn )adapt et dans L1 . Par ailleurs,
E(Sn |Fn1 ) = E(Sn1 + Yn |Fn1 ) = Sn1 + E(Yn ) = Sn1 ,
o lavant dernire galit est due la Fn1 -mesurabilit de Sn1 et lindpendance entre
Yn et Fn1 . Ainsi, (Sn ) est bien une (Fn )-martingale.
2) La suite (Mn ) est videmment (Fn )-adapte et, grce lindpendance, dans L1 . De
plus, on peut crire :
E(Mn |Fn1 ) = E(Mn1 Xn |Fn1 ) = Mn1 E(Xn |Fn1 ) = Mn1 ,
puisque la v.a. Xn est indpendante de de Fn1 et desprance 1.
En revanche, si lon a E(Xn ) 1 (resp. E(Xn ) 1), pour tout n de N, la suite (Mn ) est
une (Fn )-sousmartingale (resp. surmartingale).
3) La suite (Mn ) est clairement (Fn )-adapte. Grce lingalit de Jensen pour les
esprances conditionnelles il vient :
E|Mn | = E (|E(X|Fn )|) E (E(|X||Fn )) = E|X|,
ce qui prouve que Mn est dans L1 puisque X lest. Enfin on a :
E(Mn |Fn1 ) = E(E(X|Fn )|Fn1 ) = E(X|Fn1 ) = Mn1 ,
et la proprit de martingale est bien vrifie.
c
Jean-Yves Dauxois,
Fvrier
2009
106
Chapitre 6. Martingales
Preuve/Solution de lexercice.
Le processus (H X) est adapt puisque, pour tout n,
H Xn =
n
X
Hk (Xk Xk1 )
k=1
L1 .
1. Martingales
107
pour tout p n.
Revenons maintenant sur lun des rsultats donn par le Corollaire prcdent, savoir
que pour une martingale arrte (XnT ), on a EXT n = E(X0 ) = 0. On peut naturellement se
demander si lon peut avoir le mme style de rsultat en ne considrant pas la v.a. XT n mais
la v.a. XT . Cest dire a-t-on
EXT = E(X0 ) = 0 ?
Et ventuellement, si ce nest pas toujours le cas, sous quelles conditions peut avoir ce rsultat ?
On va dabord aisment se convaincre quun tel rsultat nest pas toujours vrai. Considrons en effet (Xn ) une marche alatoire symtrique sur Z, dmarrant 0. On sait que lon
peut reprsenter cette marche alatoire sous la forme
n
X
Xn =
k ,
k=1
c
Jean-Yves Dauxois,
Fvrier
2009
108
Chapitre 6. Martingales
o (n ) est une suite de v.a. i.i.d. de loi de Rademacher, cest dire de loi 12 (1 + 1 ).
Le processus (Xn ) apparat alors clairement comme une martingale, nulle en 0. Daprs le
Corollaire prcdent on sait que, pour tout (Fn )-t.d.a. T , o (Fn ) est la filtration naturelle
associe au processus (Xn ), on a
EXT n = E(X0 ) = 0,
pour tout n. Considrons le t.d.a. T = inf{n : Xn = 1} (cest bien un t.d.a. daprs une
proprit vue dans la premire section de ce chapitre). Lgalit prcdente est vrifie pour
ce t.d.a., mais en revanche elle ne lest pas si on remplace T n par T . En effet la v.a. XT
tant p.s. gale 1, on a :
1 = E(XT ) 6= E(X0 ) = 0.
Nous allons voir que dans ce cas le Thorme darrt ne sapplique pas.
Thorme 6.18. Thorme darrt
Soit (Fn ) une filtration sur un espace probabilis (, F, P ), un (Fn )-t.d.a. T et (Xn ) une
(Fn )-martingale (resp. sousmartingale, surmartingale).
La v.a. XT est intgrable et on a
EXT = EX0 , (resp. , ),
si lune des conditions suivantes est vrifie :
T est un t.d.a. born, i.e. il existe k tel que P (T k) = 1 ;
X est borne, i.e. il existe K dans R+ tel que |Xn ()| K pour tout n et tout , et
T est p.s. fini ;
T est desprance finie et il existe K de R+ tel que |Xn () Xn1 ()| K, pour
tout n et tout .
Preuve/Solution de lexercice.
1) On sait que lon a, pour tout n :
EXT n = EX0 .
En prenant n = k, on obtient le rsultat.
2) Puisque T est p.s. fini, on a
p.s.
XT n XT ,
quand n tend vers +. La suite de v.a. (XT n ) tant intgrable puisque borne, on peut
appliquer le thorme de convergence domine pour obtenir
EXT n EXT ,
quand n +. cette convergence et lgalit, pour tout n, de EXT n avec EX0 permet
dtablir le rsultat annonc.
c
Jean-Yves Dauxois,
Fvrier
2009
1. Martingales
109
Preuve/Solution de lexercice.
Puisque T est p.s. born par k, on peut crire :
p.s.
XT =
k
X
Xp 1l{T =p} .
p=0
k
X
p=0
k
X
p=0
o la seconde galit est justifie par lappartenance de {T = p}A la tribu Fp (par dfinition
de FT ) et lgalit Xp = E(Xk |Fp ). On a donc bien montr que lon a E(Xk |FT ) = XT . 2
1.2.5. Dcomposition de Doob dune sousmartingale.
Thorme 6.20. (Dcomposition de Doob)
1) Soit X = (Xn ) un processus (Fn )-adapt et intgrable. Il admet alors la dcomposition
suivante
X = X0 + M + A,
o M est une martingale nulle en 0 et A un processus prvisible galement nul en 0. Cette
dcomposition est unique une indistinguabilit prs (Cf Chapitre 2), au sens o si il existe
et A vrifiant la mme quation, on a P (n : Mn = M
n , An = An ) = 1.
M
2) Le processus X = (Xn ) est une sousmartingale si, et seulement si, le processus A est
un processus croissant, i.e. tel que : P (n : An An+1 ) = 1.
c
Jean-Yves Dauxois,
Fvrier
2009
110
Chapitre 6. Martingales
Exercice 6.13. Dmontrer ce Thorme (Ind. Dans la premire question on pourra construire le processus (An ) partir des quantits E(Xn
Xn1 |Fn1 )).
Preuve/Solution de lexercice.
1) Dfinissons le processus (An ), nul en zro et tel que
An An1 = E(Xn Xn1 |Fn1 ).
Ce processus est bien (Fn )-prvisible et intgrable. Soit maintenant (Mn ) le processus dfini
pour tout n par : Mn = Xn X0 An . Il est naturellement adapt et intgrable. On a :
E(Mn Mn1 |Fn1 ) = E(Xn Xn1 |Fn1 ) (An An1 ) = 0,
ce qui prouve quil sagit bien dune martingale (videmment nulle en 0).
Pour dmontrer lunicit de la dcomposition, supposons quil existe deux autres processus
(A0n ) et (Mn0 ) avec les mmes proprits et tels que lon ait galement : Xn = X0 + Mn0 + A0n .
On a alors :
0
A0n A0n1 = Xn Xn1 (Mn0 Mn1
).
puisque (Mn0 ) est galement une martingale. Les deux processus (An ) et (A0n ) sont donc gaux,
puisquils ont des accroissements gaux et la mme valeur initiale 0. Les deux processus (Mn )
et (Mn0 ) sont alors galement gaux.
2) Si le processus (Xn ) est une sousmartingale, la dfinition des accroissements du processus
(An ) montre quils sont p.s. positifs. Rciproquement, si lon peut crire : Xn = X0 +Mn +An
avec un processus prvisible (An ) croissant, il vient :
E(Xn Xn1 |Fn1 ) = E(Mn Mn1 |Fn1 ) + E(An An1 |Fn1 ) = 0 + An An1 0,
et le processus (Xn ) est bien une sousmartingale.
et montre ainsi que le processus (Mn2 ) est une (Fn )-sousmartingale. Grce la dcomposition
de Doob, on sait quil existe une martingale N nulle en zro et un processus prvisible croissant
A, galement nul en zro, tel que : M 2 = N + A. Le processus A est appel crochet de la
martingale M et est not hM i.
c
Jean-Yves Dauxois,
Fvrier
2009
111
Exercice 6.14.
1) Montrer quune martingale positive est borne dans L1 .
2) Montrer quune surmartingale positive est galement borne dans L1 .
Solution de lexercice.
1) On a
E|Xn | = EXn = EX0 < +,
pour tout n de N.
2) Comme on a
EXn = E(E(Xn |F0 )) EX0 ,
il vient
E|Xn | = EXn EX0 < +,
2
pour tout n.
2.2. Convergences. Pour tablir un rsultat de convergence p.s., il faut en premier introduire un lemme de Doob sur les montes effectues par une martingale. Plusieurs mthodes
de preuve sont possibles pour ce rsultat. Nous choisissons celle utilisant linterprtation des
martingales en thorie des jeux.
Soit donc (Xn ) un processus tel que Xn Xn1 reprsente le gain par unit de temps
mise pour la nime partie. Et considrons la stratgie de jeu suivante :
c
Jean-Yves Dauxois,
Fvrier
2009
112
Chapitre 6. Martingales
Choisir deux rels a et b tels que a < b.
Rpter sans arrt :
dbut de boucle
Ne pas miser tant que X nest pas pass en dessous de a.
Une fois que X est pass en dessous de a, miser une unit tant que
lon est en dessous de b.
Une fois que X est pass en dessus de b, arrter de miser.
fin de boucle
Cette stratgie peut tre modlise par le processus prvisible H = (Hn ) dfini par :
H1 = 1l{X0 <a} et, pour tout n, Hn = 1l{Hn1 =1} 1l{Xn1 b} + 1l{Hn1 =0} 1l{Xn1 <a} .
Comme nous lavons dj dit, les gains cumuls sont donns par la transforme de martingale
de X par H, not H X.
Un exemple de ralisation dune telle partie et de la stratgie adopte est donne dans la
Figure 1.
113
Exercice 6.15.
Dmontrer ce lemme.
On a alors
(b a)E (U [a, b]) |a| + sup E|Xn |
n
et donc P (U [a, b] = ) = 0.
Exercice 6.16.
Dmontrer ce lemme.
Puisque la suite (UN [a, b])N est positive et croissante vers U [a, b], le thorme de convergence
monotone nous donne :
(b a)E (U [a, b]) |a| + sup E|Xn |
n
c
Jean-Yves Dauxois,
Fvrier
2009
114
Chapitre 6. Martingales
Thorme 6.26. Une martingale, sousmartingale, surmartingale borne dans L1 est p.s.
convergente, i.e.
p.s. : lim Xn = X .
n+
Exercice 6.17.
Dmonstration de ce thorme.
1) Montrer dans un premier temps que
p.s. : lim Xn = X ,
n+
Preuve/Solution de lexercice.
(a,b)Q2 :a<b
Mais on a :
a,b { : U [a, b] = }
et on a vu dans le corollaire prcdent que la probabilit de ce dernier ensemble est nulle. Par
dnombrabilit des rationnels, lensemble est donc galement de probabilit nulle.
2) En utilisant le Lemme de Fatou, on peut crire :
E|X | = E(lim inf |Xn |) lim inf E|Xn | sup E|Xn |,
n
qui est fini puisque, par hypthse, la martingale (ou surmartingale ou sousmartingale) est
borne dans L1 . La v.a. X est donc bien p.s. fini.
2
Notons bien que lon na pas dit que la martingale (sousmartingale ou surmartingale) est
convergente dans L1 .
Corollaire 6.27. Une surmartingale (ou une martingale) positive est p.s. convergente.
Preuve. On a dj vu quune surmartingale (ou martingale) positive est borne dans L1 ,
do le rsultat grce au thorme prcdent.
2
c
Jean-Yves Dauxois,
Fvrier
2009
115
Xn dP.
P (Xn )
Xn
Exercice 6.18.
Dmonstration de ce thorme.
1) En considrant les t.d.a. T = inf{p : Xp } et S = T n, montrer
que lon a
XS 1l{T n} + Xn 1l{T >n} .
2) En appliquant convenablement un thorme darrt, en dduire le rsultat.
Preuve/Solution de lexercice.
1) On a, daprs la dfinition du t.d.a. T :
XS = XT 1l{T n} + Xn 1l{T >n} 1l{T n} + Xn 1l{T >n} .
2) En appliquant le thorme darrt au t.d.a. born S, il vient : EXS EXn . En prenant
lesprance de lingalit tablie la question prcdente, on obtient :
EXn P (T n) + E(Xn 1l{T >n} )
n
1 X
E(Xi2 ).
a2
i=1
Exercice 6.19.
Dmontrer ce Corollaire.
c
Jean-Yves Dauxois,
Fvrier
2009
116
Chapitre 6. Martingales
n
1 X
1
2
ES
=
EXi2 ,
a2 n a2
i=1
Corollaire 6.30.
= sup X est
1) Soit (Xn ) une sousmartingale positive et borne dans L1 . La v.a. X
n n
alors p.s. finie.
2) Soit (Xn ) une sousmartingale positive et dans Lp , pour un rel p > 1. On a alors :
||Xn ||Lp q||Xn ||Lp ,
o q est tel que : 1/q + 1/p = 1.
Exercice 6.20.
Dmonstration de ce Corollaire.
1) Montrer quen notant M = supn EXn qui est fini par hypothse, on a
pour tout > 0 :
M
P (X
)
.
Preuve/Solution de lexercice.
1) Lingalit de Doob nous donne, pour tout > 0 :
EXn
M
P (X
)
M
.
c
Jean-Yves Dauxois,
Fvrier
2009
117
Mais lgalit
{X
= } =
{X
n}
n
permet dobtenir
M
= 0.
n+ n
P (X
= ) = lim P (X
n) lim
n+
La v.a.
est donc bien p.s. finie. Autrement dit la suite (Xn ) est p.s. borne.
2) On peut crire :
!
Z +
Z Xn
p
p1
E 1l{Xn } p1 d
E(Xn ) = E
p d = p
0
E 1l{Xn } Xn
p2
Xn
d = pE Xn
p2
d .
De plus, on a :
Z
E Xn
Xn
!
p2 d
1
E Xn (Xn )p1 .
p1
E(Ynk )p .
p1
La convergence croissante de (Ynk ) vers Xn , quand k + et le Thorme de convergence
monotone, permet dachever la dmonstration.
2
c
Jean-Yves Dauxois,
Fvrier
2009
118
Chapitre 6. Martingales
Xn X , quand n +.
p.s.
De plus, on a :
Xn = E(X |Fn ) (resp. , ).
||X
||Lp q sup ||Xn ||Lp ,
n
Preuve/Solution de lexercice.
1) Puisque la martingale (Xn ) est borne dans Lp pour p > 1, elle est borne dans L1 et
donc p.s. convergente vers une v.a. X daprs un rsultat de la section prcdente.
2) Par lingalit de Jensen, on a dj vu que le processus |Xn | est une sousmartingale
positive. Le Corollaire 6.30 de lingalit de Doob, nous donne
||Xn ||Lp q ||Xn ||Lp q sup ||Xn ||Lp < +.
(Xn )
Comme la suite
converge en croissant vers
convergence monotone conduisent
n
,
X
||X
||Lp q sup ||Xn ||Lp .
n
|Xn X |p 0, quand n +.
montre que la suite (|X X |p ) est majore par
Par ailleurs, lingalit |Xn X | 2X
n
1
une v.a. dans L . Par le thorme de convergence domine, on a donc :
E|Xn X |p 0, quand n +.
4) Lingalit de Jensen conduit :
E (|E(Un U |B)|) E (E(|Un U | |B)) = ||Un U ||L1 .
La convergence dans L1 de (Un ) entrane donc celle (E(Un |B)), toujours dans L1 , vers E(U |B).
c
Jean-Yves Dauxois,
Fvrier
2009
119
E(X|Fn ) E(X|F ).
p.s.
Preuve/Solution de lexercice.
1) On sait que (Xn ) est une martingale. Par lingalit de Jensen pour les esprances
conditionnelles, on montre facilement quelle est borne dans Lp . Le thorme prcdent
assure alors sa convergence p.s. et dans Lp vers une v.a. terminale X .
2) Puisque A est dans n Fn , il existe un rang n0 tel que, pour tout n n0 , lvnement
A est dans Fn . Lgalit Xn = E(X|Fn ), permet alors dcrire pour tout n n0 :
E(Xn 1lA ) = E(X1lA ).
De plus la convergence dans L1 de (Xn ) vers X assure celle de (Xn 1lA ) vers X 1lA et donc
la convergence
E(Xn 1lA ) E(X 1lA ), quand n +.
De ces deux derniers rsultats, on tire lgalit
E(X1lA ) = E(X 1lA ),
pour tout A dans n Fn . Le thorme des classes monotones permet de terminer la dmonstration puisque lon sait que F est engendr par n Fn .
2
c
Jean-Yves Dauxois,
Fvrier
2009
120
Chapitre 6. Martingales
4.2. Le cas particuliers des martingales dans L2 . Considrons (Mn ) une martingale
dans L2 . Remarquons en premier lieu quune telle martingale est accroissements orthogonaux
dans L2 . En effet, pour des entiers s t u v, on peut crire :
hMv Mu , Mt Ms iL2
Ainsi lgalit
M n = M0 +
n
X
(Mk Mk1 )
k=1
exprime Mn comme une somme de termes orthogonaux dans L2 et, daprs le thorme de
Pythagorre, on a :
(3)
E(Mn2 )
EM02
n
X
E(Mk Mk1 )2 .
k=1
Mn M , quand n +.
Dans ce cas, la convergence est galement p.s.
Preuve.
En utilisant lgalit (3), il est vident que la martingale est borne dans L2 si, et seulement
si,
+
X
k=1
k2 < +.
k=1
c
Jean-Yves Dauxois,
Fvrier
2009
121
Preuve/Solution
P de lexercice. Soit (Fn ) la filtration naturelle associe la suite (Xn )
et dfinissons Mn = ni=1 Xi , pour tout n 1 et M0 = 0. On sait que (Mn ) est une martingale
et les hypothses du Corollaire assurent quelle est dans L2 . On a alors :
n
X
2
E(Mn ) =
E(Mk Mk1 )2 .
k=1
En remarquant que
E(Mk Mk1 )2 = E(Xk )2 = k2 ,
le Thorme 6.34 permet dobtenir le rsultat.
c
Jean-Yves Dauxois,
Fvrier
2009