Processus Discrets
Processus Discrets
Conditionnement
Martingales
Chaı̂nes de Markov
M1 Mathématiques fondamentales
Jean-Christophe Breton
Université de Rennes
Septembre–Décembre 2022
Rappels iv
0.1 Rappels de théorie de la mesure . . . . . . . . . . . . . . . . . . . . . . . iv
0.2 Rappels probabilistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi
I Conditionnement 1
1 Conditionnement discret 2
1.1 Probabilité conditionnelle discrète . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Espérance conditionnelle discrète . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Lois conditionnelles discrètes . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Espérance conditionnelle 12
2.1 Introduction et définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Exemples d’espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . 14
2.3 Propriétés de l’espérance conditionnelle . . . . . . . . . . . . . . . . . . . 17
2.4 Espérance conditionnelle dans le cas L2 . . . . . . . . . . . . . . . . . . . 25
2.5 Conditionnement gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
II Martingales 37
3 Martingales et filtrations 38
3.1 Filtration et mesurabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3 Martingales, sous-martingales et sur-martingales . . . . . . . . . . . . . . 44
3.4 Propriétés des martingales . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 Martingale arrêtée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.6 Décomposition de Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4 Convergences de martingales 57
4.1 Inégalités de martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.1.1 Inégalité maximale de Doob . . . . . . . . . . . . . . . . . . . . . 57
4.1.2 Inégalité de moments de Doob . . . . . . . . . . . . . . . . . . . . 59
i
Table des matières ii
Les suites de variables aléatoires indépendantes sont étudiées dans les cours de pro-
babilités de niveau L3, comme par exemple [Bre-proba], avec comme résultats phares la
loi des grands nombres (LGN) et le théorème central limite (TCL). Dans ces notes, on
étudie des suites de variables qui ont une forme de dépendance : les martingales et les
chaı̂nes de Markov.
Pour cela, la notion de conditionnement est d’abord étudiée dans la partie I avec une
approche élémentaire (Chapitre 1) et une approche plus générale fondée sur la notion
d’espérance conditionnelle (Chapitre 2).
Dans la partie II, on introduit les martingales dans le Chapitre 3 et on en étudie le
comportement asymptotique dans le Chapitre 4.
Les chaı̂nes de Markov sont l’objet de la partie III. Dans le chapitre 5, on définit
les chaı̂nes de Markov, et on présente la propriété de Markov. La classification des états
d’une chaı̂ne de Markov est détaillée en Chapitre 6 et le régime invariant est étudié en
Chapitre 7.
Ces notes ont de nombreuses sources d’inspiration, parmi lesquelles des notes de
cours de Jürgen Angst et d’autres de Mihai Gradinaru. Des références à la fois pour
les martingales et les chaı̂nes de Markov sont : [BL, Bei, BEL, BC, FF, Kal, Ouv].
Des références pour les martingales sont : [JP, Wil]. Des références pour les chaı̂nes de
Markov sont : [Gra, HPS, Nor, Pri].
iii
Rappels
Définition 0.1 (Classe monotone ou λ-système) Une famille M de parties de X est ap-
pelée classe monotone si
i) X ∈ M ;
ii) M est stable par différence propre : lorsque A, B ∈ M et B ⊂ A, alors A \ B ∈ M ;
iii) M
S est stable par réunion dénombrable croissante (Aj ∈ M, j ≥ 1, Aj ⊂ Aj+1 ⇒
j≥1 Aj ∈ M).
La classe monotone engendrée par une partie E est la plus petite classe monotone M(E)
contenant E.
Théorème 0.2 (des classes monotones) Soit E une famille de parties de X stable par
intersection finie (ie. E est un π-système). Alors M(E) = σ(E).
Corollaire 0.3 (Classes monotones) Soit M une classe monotone contenant la famille
de parties E, stable par intersection finie (ie. E est un π-système). Alors σ(E) ⊂ M.
Démonstration : Par le Th. 0.2, on a σ(E) = M(E). Mais comme M est une classe
monotone contenant E on a aussi M(E) ⊂ M par définition de M(E). Finalement,
iv
©JCB – M1math – Université de Rennes 1 v
σ(E) ⊂ M. □
Une application fréquente du théorème des classes monotones est pour constuire des
mesures par extension comme suit :
Théorème 0.4 (Dynkin) Soit deux mesures finies µ1 et µ2 sur (X, A) de même poids
(µ1 (X) = µ2 (X) < +∞), qui coı̈ncident sur C ⊂ A, sous-famille stable par intersections
finies (π-système) et qui engendre A. Alors µ1 et µ2 sont égales sur A.
Une version analogue du Théorème 0.4 existe pour les mesures σ-finies. Cette version
assure par exemple l’unicité de la mesure de Lebesgue en utilisant le π-système C donné
par l’ensemble des intervalles de R et en observant que σ(C) = B(R).
Théorèmes de Fubini
On considère deux espaces mesurables (X, A) et (Y, B) et des mesures σ-finies µ sur
(X, A) et ν sur (Y, B). On rappelle que µ ⊗ ν (mesure produit) désigne l’unique mesure
sur X × Y (espace produit) muni de A ⊗ B = σ(A × B : A ∈ A, B ∈ B) (tribu produit)
qui étend la définition suivante :
(µ ⊗ ν)(A × B) = µ(A)ν(B), A ∈ A, B ∈ B.
Comme M = {A × B : A ∈ A, B ∈ B} est stable par intersection finie (π-système), le
théorème de Dynkin (Th. 0.4), version σ-finie, assure l’unicité de la mesure µ ⊗ ν sur la
tribu produit A ⊗ B (pour l’existence, il y a plus de travail).
Théorème 0.5 (Fubini-Tonelli et Fubini) Si f est (A⊗B)-mesurable et positive (Fubini-
Tonelli) ou (µ ⊗ ν)-intégrable (Fubini) alors
Z Z Z Z Z
f (x, y) (µ⊗ν)(dx, dy) = f (x, y) ν(dy) µ(dx) = f (x, y) µ(dx) ν(dy).
X×Y X Y Y X
(F)
Théorème de Radon-Nikodym
On considère maintenant deux mesures µ, ν sur le même espace mesurable (X, A).
On rappelle que ν est absolument continue par rapport µ (ν ≪ µ) lorsque µ(A) = 0
entraı̂ne ν(A) = 0.
Théorème 0.6 (Radon-Nikodym) Si ν ≪ µ alors il existe une fonction mesurable f =
dν
dµ
appelée dérivée de Radon-Nikodym telle que
Z
ν(A) = f dµ, A ∈ A. (RN1)
A
Indépendances
Définition 0.8 (Indépendances)
— Deux évènements A et B sont indépendants si P(A ∩ B) = P(A)P(B). On note
A⊥ ⊥ B.
— Deux tribus A et B sont indépendantes si pour tout A ∈ A et B ∈ B on a
P(A ∩ B) = P(A)P(B). On note alors A ⊥ ⊥ B.
— Deux variables aléatoires X, Y sont indépendantes si les tribus qu’elles engendrent
le sont : σ(X) ⊥
⊥ σ(Y ).
— On dit que des variables aléatoires Xi , i ∈ I, sont mutuellement indépendantes si
pour tout k ≥ 1 et i1 , . . . , ik distincts dans I, Bi1 , . . . , Bik ∈ B(R) :
P Xi1 ∈ Bi1 , . . . , Xik ∈ Bik = P(Xi1 ∈ Bi1 ) . . . P(Xik ∈ Bik ).
©JCB – M1math – Université de Rennes 1 vii
De façon générale, si m ∈ R et σ 2 > 0, une variable aléatoire réelle X suit la loi normale
N (m, σ 2 ) si elle admet pour densité
(x − m)2
1
x 7→ √ exp − .
2πσ 2 2σ 2
X = m + σX0 .
Pour un vecteur gaussien X = (X1 , . . . , Xd )t , tous les moments sont définis et on appelle
t
— espérance de X le vecteur E[X] = E[X1 ], . . . , E[Xd ] ;
— matrice de covariance de X la matrice carrée symétrique, positive
K = Cov(Xi , Xj ) 1≤i,j≤d .
Conditionnement
1
Chapitre 1
Conditionnement discret
La notion de conditionnement est essentielle dans la suite du cours pour définir les
martingales (Chapitre 3) et les chaı̂nes de Markov (Chapitre 5). On introduit cette notion
dans ce chapitre dans un cadre élémentaire discret. L’approche plus générale sera l’objet
du Chapitre 2. On considère un espace de probabilité (Ω, F, P).
1. sic
2
Chapitre 1. ©JCB – M1math – Université de Rennes 3
+∞ +∞
X P Ai ∩ B X
= = P(Ai |B).
i=1
P(B) i=1
Il en résulte que P(∗|B) est bien une mesure. Il s’agit d’une probabilité puisque P(Ω|B) =
P(Ω ∩ B)/P(B) = P(B)/P(B) = 1. □
P(A1 ∩ A2 ∩ · · · ∩ An )
= P(A1 ) P(A2 |A1 ) P(A3 |A1 ∩ A2 ) × · · · × P(An |A1 ∩ A2 ∩ · · · ∩ An−1 ). (1.2)
Démonstration :
PC (A ∩ B) P(A ∩ B|C) P(A ∩ B ∩ C) P(C)
PC (A|B) = = =
PC (B) P(B|C) P(C) P(B ∩ C)
P(A ∩ (B ∩ C))
= = P(A|B ∩ C).
P(B ∩ C)
□
Définition 1.5 (Système complet) On appelle système complet d’évènements toute suite
dénombrable (Bi )i∈I d’évènements deux à deux disjoints et dont la somme des probabilités
vaut 1 : X
P(Bi ) = 1.
i∈I
Proposition 1.6 (Formule des probabilités totales) Étant donné (Bi )i∈I un système com-
plet dénombrable de Ω avec P(Bi ) > 0 pour tout i ∈ I, pour tout A ∈ F on a
X
P(A) = P(A|Bi ) P(Bi ). (1.3)
i∈I
F
P Ω0 = i∈I Bi . Comme les Bi , i ∈ I, forment un système
Démonstration : Notons
complet, on a P(Ω0 ) = i∈I P(Bi ) = 1. Dès lors comme les (A ∩ Bi ), i ∈ I, sont disjoints
[ X X
P(A) = P(A ∩ Ω0 ) = P (A ∩ Bi ) = P(A ∩ Bi ) = P(A|Bi ) P(Bi ).
i∈I i∈I i∈I
Lorsque l’on sait calculer les probabilités conditionnelles P(A|Bi ) pour tout un système
de partition (Bi )i∈I , on peut chercher les probabilités conditionnelles avec les condition-
nements inverses P(Bi |A). Elles sont données par :
Proposition 1.7 (Formule de Bayes 2 ) Étant donné (Bi )i∈I un système complet de Ω
avec P(Bi ) > 0 pour tout i ∈ I, pour tout évènement A de probabilité non nulle, on a :
P(A|Bj ) P(Bj )
∀j ∈ I, P(Bj |A) = P . (1.4)
i∈I P(A|Bi ) P(Bi )
Cette formule toute simple est à l’origine de tout un pan des statistiques qui consiste à
inverser des conditionnements en manipulant des probabilités dites a priori ou a poste-
riori, il s’agit des statistiques bayésiennes.
Définition 1.8 (Probabilité conditionnelle discrète) Étant donné une variable aléatoire
discrète Y de support S(Y ) = {yj : j ∈ J}, on appelle probabilité conditionnelle sachant
Y la fonction d’ensemble
Ω
F → [0, P 1]
P(∗|Y ) :
A 7→ j∈J P(A|Y = yj )1{Y =yj } .
Dans le cas général, par exemple lorsque Y est une variable aléatoire à densité, la défini-
tion de P(∗|Y ) est plus compliquée car les conditionnements par {Y = y} sont singuliers
(évènements négligeables) et la définition (1.1) ne s’applique pas.
On a
est une variable aléatoire réelle discrète de support S(X) = {xi : i ∈ I}, alors
Si X P
X = i∈I xi 1{X=xi } et avec (1.5) on a
X
E[X|B] = xi P(X = xi |B).
i∈I
Chapitre 1. ©JCB – M1math – Université de Rennes 6
Dans le cas où Y est une autre variable aléatoire discrète de support S(Y ) = {yj : j ∈ J}
(avec donc J ⊂ N), on définit de cette façon
X
E[X|Y = yj ] = xi P(X = xi |Y = yj ), (1.6)
i∈I
et comme on l’a fait en Déf. 1.8 pour une probabilité conditionnelle, on peut généraliser
l’espérance conditionnelle « sachant Y = yj » à « sachant Y » par :
Définition 1.11 (Espérance conditionnelle discrète) Soit X une variable aléatoire inté-
grable et Y une variable aléatoire discrète. L’espérance conditionnelle de X sachant Y
est définie par X
E[X|Y ] = E[X|Y = yj ] 1{Y =yj } , (1.7)
j∈J
Il faut bien comprendre que l’espérance conditionnelle E[X|Y = yj ] en (1.6) est un réel
alors que l’espérance conditionnelle E[X|Y ] en (1.7) est une variable aléatoire.
En combinant (1.6) et (1.7), on a aussi
X
E[X|Y ] = xi P(X = xi |Y = yj )1{Y =yj } . (1.8)
(i,j)∈I×J
Due à la Définition 1.9 qui assure E[1A |B] = P(A|B) pour un évènement B non-
négligeable, il est facile de vérifier, lorsque Y est discrète, que l’espérance conditionnelle
E[∗|Y ] en Définition 1.11 et la probabilité conditionnelle P(∗|Y ) en Définition 1.8 sont
naturellement liées par
E[1A |Y ] = P(A|Y ).
Exemple 1.12 — Lorsque Y est une variable constante (presque sûrement) alors
E[X|Y ] = E[X] ps. En effet en notant y l’unique atome de Y , comme {Y = y}
est un évènement presque sûr, P(X = xi |Y = y) = P(X = xi ) et 1{Y =y} = 1 ps si
bien que (1.8) se réduit à
X
E[X|Y ] = xi P(X = xi |Y = y)1{Y =y}
i∈I
X
= xi P(X = xi ) = E[X] ps.
i∈I
X est discrète avec pour valeursFh(yj ), j ∈ J (mais possiblement avec des répé-
titions). On Fa la partition I = i∈I Ji où Ji = {j ∈ J : h(yj ) = xi }, i ∈ I, et
{X = xi } = j∈Ji {Y = yj }. Par (1.8), on a :
X
E[X|Y ] = xi P(X = xi |Y = yj )1{Y =yj }
(i,j)∈I×J
X [
= xi P {Y = yj ′ }|Y = yj 1{Y =yj }
(i,j)∈I×J j ′ ∈Ji
X X
= xi P(Y = yj ′ |Y = yj ) 1{Y =yj }
| {z }
(i,j)∈I×J j ′ ∈J i =δj,j ′
X X X
= xi 1{Y =yj } = xi 1{Y =yj }
(i,j)∈I×Ji i∈I j∈Ji
| {z }
=1{X=xi }
X
= X1{X=xi } = X.
i∈I
Avec les définitions données, on vérifie sans difficulté que E E[X|Y ] = E[X]. En effet,
par linéarité de l’espérance et par (1.5), on a
X X
E E[X|Y ] = E[X|Y = yj ]P(Y = yj ) = E[X1{Y =yj } ]) = E[X]
j∈J j∈J
P
puisque j∈J 1{Y =yj } = 1 ps, {yj : j ∈ J} étant le support de Y . Plus généralement, on
a la propriété de conditionnements en cascade :
Démonstration : On note S(X) = {xi : i ∈ I}, S(Y ) = {yj : j ∈ J}, S(Z) = {zk : k ∈
K} les supports discrets de X, Y, Z. Comme (Y, Z) est un vecteur discret, l’expression
(1.8) s’écrit
X
E[X|Y, Z] = xi P(X = xi |Y = yj , Z = zk )1{Y =yj ,Z=zk } .
(i,j,k)∈I×J×K
P
La variable aléatoire U = E[X|Y, Z] prend les valeurs uj,k = i∈I xi P(X = xi |Y =
yj , Z = zk ), (j, k) ∈ J × K. Comme il y a possiblement des répétitions, on réindexe en
notant U = {uℓ : ℓ ∈ L} = {uj,k : (j, k) ∈ J × K} avecF L ⊂ N. Pour ℓ ∈ L, on note′
Aℓ = {(j, k) ∈ J × K : uj,k = uℓ }. On a J × K = ℓ∈L Aℓ car uℓ ̸= uℓ′ pour ℓ ̸= ℓ
Chapitre 1. ©JCB – M1math – Université de Rennes 8
entraı̂ne Aℓ ∩ Aℓ′ = ∅ et comme on a uj,k ∈ U pour tout (j, k), l’union fait bien J × K.
L’expression (1.8) donne encore
E E[X|Y, Z] |Y = E[U |Y ]
X
= uℓ P(U = uℓ |Y = yj )1{Y =yj } . (1.10)
ℓ∈L,j∈J
F
On note que K = ℓ∈L,j∈J K(ℓ, j). Il s’ensuit pour (1.10)
X G
E E[X|Y, Z] |Y = uℓ P {Z = zk }|Y = yj 1{Y =yj }
ℓ∈L,j∈J k∈K(ℓ,j)
X X X X
= xi P(X = xi |Y = yj , Z = zk ) P(Z = zk |Y = yj )1{Y =yj }
j∈J ℓ∈Lj i∈I
| {z } k∈K(ℓ,j)
=uj,k =uℓ lorsque k∈K(ℓ,j),ℓ∈Lj ,j∈J
XX X X
= xi P(X = xi |Y = yj , Z = zk ) P(Z = zk |Y = yj )1{Y =yj }
j∈J ℓ∈Lj k∈K(ℓ,j) i∈I
X X
= xi P(X = xi |Y = yj , Z = zk ) P(Z = zk |Y = yj )1{Y =yj }
(j,k)∈J×K i∈I
F
(car K = ℓ∈L,j∈J K(ℓ, j))
!
X X
= xi P(X = xi |Y = yj , Z = zk )P(Z = zk |Y = yj ) 1{Y =yj }
(i,j)∈I×J k∈K
(par la formule des probabilités totales (1.3) avec les conditionnements successifs, cf. Prop. 1.4)
X
= xi P(X = xi |Y = yj )1{Y =yj }
(i,j)∈I×J
Avec cette approche discrète des espérances conditionnelles, on observe les propriétés
qui serviront à définir l’espérance conditionnelle dans le cas général (Chap. 2).
Proposition 1.14 On a
Chapitre 1. ©JCB – M1math – Université de Rennes 9
et
E 1A E[X|Y ] = E E[X|Y = y]1{Y =y} = E[X|Y = y]P(Y = y) = E[X1{Y =y} ] = E[1A X].
Le point 3) se prouve de la même façon : d’après le Théorème de Doob-Dynkin (Th. 0.7,
Z = h(Y ) où h est une fonction mesurable. On a alors
X
ZE[X|Y ] = h(Y )E[X|Y ] = h(yj )E[X|Y = yj ]1{Y =yj }
j∈J
et
X X
E ZE[X|Y ] = h(yj )E[X|Y = yj ]P(Y = yj ) = h(yj )E[X1{Y =yj } ]
j∈J j∈J
h X i
= E X h(yj )1{Y =yj } = E[XZ].
j∈J
| {z }
=h(Y )=Z
Proposition 1.16 Si X ⊥
⊥ Y alors la loi conditionnelle de X sachant Y est la même que
celle de X :
Autrement dit : le conditionnement par une variable aléatoire indépendante est sans effet
sur la loi d’une variable aléatoire.
Dans cette situation, on a un analogue de (1.11) pour les densités avec la notion de
densité conditionnelle :
À nouveau, le conditionnement est sans effet car les variables aléatoires sont indépen-
dantes.
Espérance conditionnelle
Remarque 2.2 1. Attention, l’espérance conditionnelle E[X|G] est définie presque sû-
rement seulement.
2. L’espérance conditionnelle de X est définie dès que les espérances dans (2.1) sont
bien définies, typiquement pour X positive ou X intégrable.
3. Intuitivement, on interprète une tribu comme une quantité d’information. Ainsi
quand on dispose de l’information de G (ie. pour tout A ∈ G, on sait si A est réalisé
ou pas), l’espérance conditionnelle E[X|G] représente la « meilleure » estimation
de X compte tenu de l’information disponible sachant G.
12
Chapitre 2. ©JCB – M1math – Université de Rennes 13
Proposition 2.3 (Existence et unicité) Soit X une variable aléatoire positive ou inté-
grable.
1. Il existe une variable aléatoire Y vérifiant (i)-(ii) dans la Définition 2.1.
2. Si Y, Y ′ sont deux variables aléatoires vérifiant (i)-(ii) dans la Définition 2.1 alors
Y = Y ′ ps.
dQ
Y (ω) := (ω)
dPG
R
telle que Q(A) = A
Y dPG , c’est à dire (2.1).
Si X est intégrable, on écrit X = X + − X − et on applique le cas précédent aux variables
aléatoires X + et X − positives. On note alors Y1 = E[X + |G], Y2 = E[X − |G] et on pose
Y = Y1 − Y2 . La variable aléatoire Y est G-mesurable car différence de telles fonctions
et pour tout A ∈ G :
ce qui justifie que Y vérifie (i)–(ii) dans la Définition 2.1 et Y = E[X|G] ps. Noter que
l’intégrabilité de X assure celle de X + et de X − et donc la finitude de E[X + 1A ] et
E[X − 1A ] justifiant que la différence dans (2.2) a bien un sens.
(2) Soit Y, Y ′ deux variables aléatoires vérifiant la Définition 2.1. Pour tout A ∈ G, on a
E[Y 1A ] = E[Y ′ 1A ]. En particulier pour ε > 0, Aε = {Y − Y ′ ≥ ε} ∈ G et
Proposition 2.4 La condition (2.1) ((ii) dans la Définition 2.1) est équivalente à avoir
pour toute variable aléatoire G-mesurable Z telle que les espérances aient un sens :
Notations
— Lorsque G = σ(Y ), on note E[X|Y ] = E[X|σ(Y )]. Lorsque Y est une variable
discrète, la Prop. 1.14 assure que la définition E[X|Y ] du Chapitre 1 coı̈ncide
avec ce qui est définie en Déf. 2.1.
— On note P(A|G) = E[1A |G].
comme en plus une constante est bien G-mesurable, on a bien E[X|G] = E[X] ps.
Dans le cas indépendant la connaissance de G ne donne aucune information sur X
et la meilleure estimation de X (sachant G) est alors sa moyenne E[X].
4. Dans le cas G = {∅, Ω} (tribu grossière), on vérifie facilement que E[X|G] = E[X]
puisque les variables aléatoires {∅, Ω}-mesurables sont des constantes et (2.1) n’est
à vérifier que pour A = ∅ et A = Ω pour lesquels c’est immédiat.
Proposition 2.6 Soit X une variable aléatoire positive ou intégrable. Pour la tribu G =
σ(Ωi : i ∈ I) associée à un système complet dénombrable (Ωi )i∈I avec P(Ωi ) > 0, i ∈ I,
on a
X E[X1Ω ]
i
E[X |G] = 1Ωi ps. (2.4)
i∈I
P(Ω i )
E[X1Ωi ]
c’est à dire E[X|G] = P(Ωi )
sur Ωi .
E[X1B c ]
— Pour C = B c : Z1C = P(B c )
1B c et (2.6) s’écrit
h E[X1 c ] i
B
E[X1B c ] = E 1 B ,
c
P(B c )
ce qui est encore vraie.
— Pour C = ∅ : (2.6) se réduit à 0 = 0, vraie !
— Pour C = Ω : le membre de gauche de (2.6) s’écrit E[X1C ] = E[X] et celui de
droite
E[Z1C ] = E[Z]
h E[X1 ] E[X1B c ] i
B
= E 1B + 1B c
P(B) P(B c )
E[X1B ] E[X1B c ]
= P(B) + c
P(B c )
P(B) P(B )
= E[X1B ] + E[X1B ] = E[X],
c
X X E[X1Ω ] X X E[X1Ω ]
i i
= E[1Ωj 1Ωi ] = P(Ωi )δi,j
j∈J i∈I
P(Ωi ) i∈I j∈J
P(Ωi )
X
= E[X1Ωj ] = E[X1C ].
j∈J
Cela assure que Z satisfait bien la Définition 2.1 de E[X|G] et prouve la Prop. 2.6. □
L’égalité est valable dès que le terme aE[X |G] + bE[Y |G] a bien un sens.
Attention, le presque sûr ci-dessus dépend de a et b si bien qu’il est incorrect d’affirmer
que presque sûrement E[· |G] est linéaire.
Démonstration : Il est clair que aE[X |G] + bE[Y |G] est G-mesurable. Puis pour A ∈ G,
par linéarité de l’espérance, on a
E aE[X|G] + bE[Y |G] 1A = aE E[X|G]1A + bE E[Y |G]1A
= aE[X1A ] + bE[Y 1A ]
= E[(aX + bY )1A ]
d’où (ii) dans la Définition 2.1, ce qui assure E[aX + bY |G] = aE[X |G] + bE[Y |G] ps. □
[
Aε = E[Y |G] < 0 ,
ε∈Q∗+
□
Chapitre 2. ©JCB – M1math – Université de Rennes 18
et
E[1Ac (−Y )] = −E[1Ac X] = E[1Ac (−X)] ≤ E[1Ac |X|]
ce qui assure
E |Y | = E 1A Y + E 1Ac (−Y ) ≤ E 1A |X| + E 1Ac |X| ≤ E |X| .
Démonstration : Comme la variable aléatoire E[X|G1 ] est G1 -mesurable, elle est a fortiori
G2 -mesurable et (1) suit de l’exemple simple 1 en Section 2.2.
Pour (2), en prenant A ∈ G1 ⊂ G2 , on a
E 1A E[X |G1 ] = E 1A X = E 1A E[X|G2 ] ps
car A ∈ G1 (à gauche) et A ∈ G2 (à droite). D’où on déduit E E[X |G2 ] |G1 = E[X |G1 ]
ps. □
Chapitre 2. ©JCB – M1math – Université de Rennes 19
E[X1[0,1/2] ] E[X1]1/2,1] ]
E[X|G1 ] = 1[0,1/2] + 1]1/2,1]
P([0, 1/2]) P(]1/2, 1])
λ([1/4, 1/2]) λ(]1/2, 3/4])
= 1[0,1/2] + 1]1/2,1]
λ([0, 1/2]) λ(]1/2, 1])
1 1 1
= 1[0,1/2] + 1]1/2,1] = ,
2 2 2
1
et on a donc E E[X|G1 ]|G2 = 2 ps. Puis presque sûrement :
E[X1[0,1/3] ] E[X1]1/3,1] ]
E[X|G2 ] = 1[0,1/3] + 1]1/3,1]
P([0, 1/3]) P(]1/3, 1])
λ([1/4, 1/3]) λ(]1/3, 3/4])
= 1[0,1/3] + 1]1/3,1]
λ([0, 1/3]) λ(]1/3, 1])
1 5
= 1[0,1/3] + 1]1/3,1] ,
4 8
et on a donc ps :
h1 5 i
E E[X|G2 ]|G1 = E 1[0,1/3] + 1]1/3,1] G1
h 4 8 i h i
1 5
E 4 1[0,1/3] + 8 1]1/3,1] 1[0,1/2] E 41 1[0,1/3] + 58 1]1/3,1] 1]1/2,1]
= 1[0,1/2] + 1]1/2,1]
P([0, 1/2]) P(]1/2, 1])
1 1 5 1 1 5 1
= 2 × + × 1[0,1/2] + 2 ×0+ × 1[1/2,1]
4 3 8 6 4 8 2
3 5
= 1[0,1/2] + 1[1/2,1] ,
8 8
ce qui fournit bien un contre-exemple à (2.7).
Proposition 2.15 (Convergence monotone conditionnelle) Soit (Xn )n≥1 une suite de va-
riables aléatoires positives telles que Xn−1 ≤ Xn ↗ X. Alors
E Xn |G ↗ E X|G , n → +∞ ps.
Démonstration : Comme 0 ≤ Xn ↗ X, par la monotonie (Prop. 2.9), la suite E[Xn |G] n≥1
est croissante et admet donc une limite Z positive, G-mesurable car limite de variables
aléatoires G-mesurables. De plus, pour A ∈ G, on a
E[Z1A ] = lim E E[Xn |G]1A (par convergence monotone classique)
n→+∞
= lim E[Xn 1A ] (par la Définition 2.1)
n→+∞
= E[X1A ] (par convergence monotone classique).
L1
La convergence L1 est directe puisque par convergence dominée usuelle Xn −→ X et
donc
E E[Xn |G] − E[X |G] ≤ E E[|Xn − X| |G] = E[|Xn − X|] → 0, n → +∞.
E[XY |G]2 ≤ E X 2 |G E Y 2 |G
ps.
E Y 2 |G θ2 + 2E XY |G θ + E X 2 |G E Y 2 |G = E (X + θY )2 |G ≥ 0 ps.
Ci-dessous, on prend par exemple dy = (φ′g (y) + φ′d (y))/2. En appliquant cette inégalité
(2.11) avec y = E[X|G] et x = X(ω) on a
φ(X) ≥ φ E[X|G] + dE[X|G] (X − E[X|G]),
ce qui justifie (2.12) lorsque X = 1B , puis par linéarité pour X variable aléatoire simple.
Dans le cas 1), pour X variable aléatoire G-mesurable positive, il existe (Xn )n≥1 suite de
variables aléatoires G-mesurables positives telle que Xn ↗ X, n → +∞. Comme Y ≥ 0,
on a aussi Xn Y ↗ XY (Y ≥ 0), et le théorème de convergence mononotone conditionnel
(Prop. 2.15) assure alors
E[XY |G] = lim E[Xn Y |G] = lim Xn E[Y |G] = XE[Y |G].
n→+∞ n→+∞
Dans le cas 2), on peut de nouveau trouver des suites de variables aléatoires G-mesurables
simples positives croissantes (Xn′ )n≥1 et (Xn′′ )n≥1 qui convergent vers X + et X − et on
pose Xn = Xn′ − Xn′′ . Comme Xn est simple, le cas précédent assure
On conclut en passant à la limite dans cette égalité puisque limn→+∞ Xn = limn→+∞ Xn′ +
limn→+∞ Xn′′ = X ′ + X ′′ = X ps et comme |Xn | ≤ Xn′ + Xn′′ ≤ X + + X − = |X|, on a
|Xn Y | ≤ |XY | ∈ L1 et par convergence dominée conditionnelle (Prop. 2.17) :
3. Soit G, H des sous-tribus deF et X une variable aléatoire intégrable telles que
H⊥ ⊥ σ(X, G) := σ σ(X) ∪ G alors
Comme E[X] est bien G-mesurable car constante, E[X] vérifie la Définition 2.1 de E[X|G].
2) D’abord, on note que g est bien une fonction mesurable par le théorème de Fubini
(Th. 0.5). Ainsi g(Y ) est σ(Y )-mesurable, d’où (i) dans la Définition 2.1. Ensuite pour
(ii) dans la Définition 2.1, on considère A ∈ σ(Y ). Cet ensemble s’écrit A = Y −1 (C)
pour un certain C ∈ B(R) et on a alors
car B1 ∩ B2 ∈ G et C1 ∩ C2 ∈ H.
On a P ⊂ M, en effet pour A = B ∩ C ∈ P avec B ∈ G et C ∈ H par indépendance
H⊥⊥ σ(X, G), il vient :
σ(G, H) = σ G ∪ H) ⊂ σ(P)
E (X − Z)2 = E (X − Y + Y − Z)2
= E (X − Y )2 + E (Y − Z)2 ,
Ainsi 1/2
d X, L2 (G) = E (X − Z)2 = E (X − Y )2
inf2
Z∈L (G)
est atteint en Z = Y ∈ L2 (G). Cela justifie que Y est la projection PL2 (G) (X) de
X ∈ L2 (F) sur L2 (G). □
Variance conditionnelle
On définit de la même façon d’autres quantités conditionnelles telles que la variance
conditionnelle Var(X|G).
Définition 2.25 (Variance conditionnelle) La variance conditionnelle de X ∈ L2 (F) sa-
chant G est définie par
On verra qu’il s’agit de la variance par rapport à la loi conditionnelle P(·|G). Comme
dans le cas usuel, on a l’identité de König 1 :
Proposition 2.26 (König) Pour X variable aléatoire L2 et une sous-tribu G, on a :
Démonstration : En effet,
□
Par le théorème de Pythagore, on a la décomposition de la variance sous la forme :
1. Johann Samuel König (Allemand, 1712–1757)
Chapitre 2. ©JCB – M1math – Université de Rennes 27
E[X |Y ] = ⟨Σ−1 d, Y ⟩.
d’après le Th. 2.22 puisque X −cY ⊥⊥ Y . On a donc X −cY ⊥ Z pour tout Z ∈ L2 (σ(Y )),
ie. X − cY ⊥ L2 (σ(Y )). Comme cY ∈ L2 (σ(Y )), on a PL2 (σ(Y )) (X) = cY et d’après
l’interprétation projection (2.14) de l’espérance conditionnelle dans le cadre L2 , on a
bien
E[X |Y ] = PL2 (σ(Y )) (X) = cY.
2) Le cas non centré se déduit de 1) appliqué à X − mX et Y − mY .
3) En notant ⟨a, b⟩ = di=1 ai bi le produit scalaire euclidien, on a X = ⟨a, Z⟩ et Y =
P
⟨b, Z⟩. Le vecteur (X, Y ) est gaussien car image linéaire de Z. En notant Σ la matrice
de covariance de Z, on a
Cov(X, Y ) at Σb
E[X |Y ] = Y = t Y.
Var(Y ) b Σb
ses marginales en est une de celles de (X, Y ) donc de loi normale. Pour chaque 1 ≤ i ≤ d,
on a
h d d
X i X
E (X − ct Y )Yi = E X −
cj Yj Yi = E[XYi ] − cj E[Yi Yj ]
j=1 j=1
= Cov(X, Yi ) − (Σc)i = (d − Σc)i = 0,
E (X − ct Y )Z = E E[(X − ct Y )h(Y ) |Y ]
= E h(Y )E[(X − ct Y ) |Y ]
= E h(Y ) E[X − ct Y ] = 0
| {z }
=0
Chapitre 2. ©JCB – M1math – Université de Rennes 29
Définition 2.32 (Loi conditionnelle) Soit X, Y des variables aléatoires à valeurs respec-
tivement dans (S, A) et (T, B). On appelle loi conditionnelle de X sachant Y tout noyau
de probabilité ν : A × T → [0, 1] telle que pour toute fonction h mesurable positive sur
(S, A) on a Z
E h(X) |Y = h(x) ν(dx, Y ). (2.19)
Remarque 2.33 En utilisant la fonction φ donnée en (2.18), mesurable d’après la Prop. 2.31,
on a E[h(X) |Y ] = φ(Y ). La fonction φ est donc la fonction mesurable du théorème
de Doob-Dynkin (Th. 0.7) appliqué à la variable aléatoire E[h(X) |Y ] qui est σ(Y )-
mesurable.
ν(A, Y ) = P Y ∈ A |Y = ν ′ (A, Y ) ps
C’est le cas pour (S, A) = (Rd , B(Rd )) ; plus généralement, c’est encore le cas lorsque S
un espace polonais (métrique, complet, séparable) avec A = B(S) (tribu borélienne). En
ce sens, il y a unicité de la loi conditionnelle de X sachant Y .
Cadres usuels
On prolonge l’Exemple 2.30 avec les cas usuels discret et à densité. D’après le Théo-
rème de Jiřina (Th. 2.34), dans ces cas il y a existence et unicité de la loi conditionnelle.
On montre qu’alors les noyaux de probabilité sont donnés par (2.16) et (2.17).
Proposition 2.35 (Loi conditionnelle à densité) Soit (X, Y ) un couple aléatoire de den-
sité f . Alors la loi conditionnelle de X sachant Y est donnée par le noyau de densité
(2.16).
Proposition 2.36 (Loi conditionnelle discrète) Soit (X, Y ) un couple aléatoire discret.
Alors la loi conditionnelle de X sachant Y est donnée par le noyau discret (2.17).
=y)
Démonstration : On montre (2.19) avec ν(x, y) = P(X=x,Y P(Y =y)
lorsque P(Y = y) > 0
(probabilité quelconque sinon) en établissant que pour A ∈ σ(Y )
h Z i
E h(X)1A ] = E h(x) ν(dx, Y ) 1A .
Conditionnement par Y = y
On revient au conditionnement par un évènement comme dans le Chapitre 1 et on
donne un sens général à des probabilités conditionnelles du type P(X ∈ A|Y = y), même
lorsque P(Y = y) = 0.
Chapitre 2. ©JCB – M1math – Université de Rennes 33
Lorsque Y est une variable aléatoire discrète, on a commencé par voir au Chapitre 1
avec la Définition 1.11 que
X
P(X ∈ A|Y ) = E[1A (X)|Y ] = E[1A (X)|Y = y]1{Y =y}
y∈Y (Ω)
X
= P(X ∈ A|Y = y)1{Y =y} ,
y∈Y (Ω)
si bien que P(X ∈ A|Y ) = P(X ∈ A|Y = y) sur {Y = y}, ce qui se retrouve avec le
cadre plus général donné par (2.20) et (2.21) :
Dans le cas où P(Y = y) > 0, la définition de P(∗|Y = y) coı̈ncide donc avec la définition
élémentaire du Chapitre 1, cf. (2.17).
Lorsque P(Y = y) = 0, le conditionnement par {Y = y} n’est pas bien défini dans le
Chapitre 1 (cf. par exemple P(X ∈ A |Y = y) en (1.11)) et on parle de conditionnement
singulier.
Avec la Définition 2.37, on définit aussi :
alors
E h(X) |Y = φ(Y ).
Cette observation justifie que pour calculer E[h(X)|Y ], on peut faire le calcul comme si
Y était figé en y avec la loi conditionnelle de X sachant Y = y, une fois le résultat φ(y)
obtenu, on a le résultat final φ(Y ) en reprenant Y à la place de y.
Chapitre 2. ©JCB – M1math – Université de Rennes 34
ce qui justifie X ⊥
⊥Y. □
Démonstration : Pour A ∈ A et B ∈ B, on a
P(X ∈ A, Y ∈ B) = E[1A (X)1B (Y )] = E E[1A (X)1B (Y ) |Y ]
Z
= E[ν(A, Y )1B (Y )] = ν(A, y) PY (dy)
Z B
Théorème 2.41 (Fubini conditionnel) Soit (X, Y ) un couple aléatoire à valeurs dans
(S × T, A ⊗ B) telle que la loi conditionnelle P(X ∈ ∗|Y = ·) est bien définie comme en
Définition 2.32. Alors
R
(1) Pour f : (S × T, A ⊗ B) → R+ mesurable (positive), y 7→ S f (x, y) PX (dx |Y = y)
est mesurable et
Z Z Z
f (x, y) P(X,Y ) (dx, dy) = f (x, y) PX (dx |Y = y) PY (dy). (2.23)
S×T T S
En notant Z
φf (y) = f (x, y) PX (dx |Y = y),
S
−1
(2.23) assure que pour tout B = Y (C) ∈ σ(Y )
Z
E[1B f (X, Y )] = E[1C (Y )f (X, Y )] = 1C (y)φf (y) PY (dy)
T
= E[1C (Y )φf (Y )] = E[1B φf (Y )].
Comme φf (Y ) est σ(Y )-mesurable, on a
Z Z
E[f (X, Y ) |Y ] = φf (Y ) = f (x, y) PX (dx |Y = y) = f (x, Y ) ν(dx, Y ).
S y=Y
Proposition 2.42 (Transfert conditionnel) Sous les mêmes conditions que dans le Th. 2.41,
on a :
P f (X, Y ) ∈ ∗ |Y = y = P f (X, y) ∈ ∗ |Y = y)
ou
L f (X, Y ) |Y = y = L f (X, y) |Y = y .
Deuxième partie
Martingales
37
Chapitre 3
Martingales et filtrations
Définition 3.2 (Adapté) On dit qu’une suite (Xn )n≥0 est adaptée par rapport à une fil-
tration (Fn )n≥0 si pour tout n ≥ 0, Xn est Fn -mesurable.
Exemple 3.3 (Filtration canonique) Si (Xn )n≥1 est une suite de variables aléatoires, on
appelle filtration canonique ou naturelle la filtration (Fn )n≥1 des tribus engendrées par
ces variables aléatoires :
n
!
[
Fn = σ(X1 , . . . , Xn ) := σ σ(Xi ) , n ≥ 1.
i=1
38
Chapitre 3. ©JCB – M1math – Université de Rennes 39
Exemple 3.4 (Filtration dyadique) Soit (Ω, F, P) = ]0, 1[, B(]0, 1[), λ où λ est la me-
sure de Lebesgue sur ]0, 1[ (probabilité uniforme). On pose
h i − 1 i h
n
Fn = σ , : i = 1, . . . , 2 , n ≥ 0,
2n 2n
et (Fn )n≥0 s’appelle alors la filtration dyadique de [0, 1]. On a bien une filtration car
comme pour tout n ≥ 1 et 1 ≤ i ≤ 2n :
h i − 1 i h h 2i − 2 2i − 1 h h 2i − 1 2i h
, = , ∪ , ,
2n 2n 2n+1 2n+1 2n+1 2n+1
on a nh i − 1 i h o
n
Dn := , : i = 1, . . . , 2 ⊂ σ(Dn+1 ),
2n 2n
et donc Fn = σ(Dn ) ⊂ Fn+1 = σ(Dn+1 ).
Prévisibilité
Définition 3.5 (Prévisibilité) Une suite de variables aléatoires (Hn )n≥1 est dite prévi-
sible pour une filtration (Fn )n≥0 si, pour tout n ≥ 1, Hn est Fn−1 -mesurable.
Des exemples typiques de suites prévisibles sont donnés avec la notion de temps d’arrêt
qui suit, cf. (3.1).
Définition 3.7 (Temps d’arrêt) Une variable aléatoire T à valeurs dans N ∪ {+∞} est
un (Fn )-temps d’arrêt si pour tout n ≥ 0 on a {T ≤ n} ∈ Fn .
Remarque 3.8 À chaque date n ≥ 0, on sait si la date aléatoire T est échue ou pas.
puisque {Xk ∈ A} ∈ Fk ⊂ Fn , 0 ≤ k ≤ n.
— Attention, T = max i ≥ 0 : Xi ∈ A n’est pas un temps d’arrêt par rapport à
la filtration naturelle. Par exemple,
T = n = Xn ∈ A, Xn+1 ̸∈ A, Xn+2 ̸∈ A, . . . ̸∈ σ X1 , . . . , Xn = Fn .
Remarque 3.10 1. {T = n} = {T ≤ n} \ {T ≤ n − 1} ∈ Fn ;
2. {T ≥ n} = {T ≤ n − 1}c ∈ Fn−1 ;
3. Étant donné un (Fn )-temps d’arrêt T , on définit une suite prévisible par
car {T ≤ n} ∈ Fn , {S ≤ n} ∈ Fn , {T = k} ∈ Fk ⊂ Fn et {S = n − k} ∈ Fn−k ⊂ Fn
pour 0 ≤ k ≤ n et on utilise la caractérisation 1).
2) Cela découle de 3) avec le temps d’arrêt S = k (Exemple 3.9). Ou alors pour n ≥ k,
on {T ∧ k ≤ n} = Ω ∈ Fn et pour n < k, on a
{T ∧ k ≤ n} = {T ∧ k ≤ n} ∩ {T ≤ k} ∪ {T ∧ k ≤ n} ∩ {T > k}
= {T ≤ n} ∩ {T ≤ k} ∪ {k ≤ n} ∩ {T > k}
= {T ≤ k ∧ n} ∪ {T ≤ k}c ∩ ∅ = {T ≤ k ∧ n} ∈ Fn∧k ⊂ Fn .
puisque {Tp ≤ n} ∈ Fp (tribu) en utilisant dans la deuxième partie que les Tp sont à
valeurs entières.
5) découle des propriétés précédentes en écrivant
ou directement à partir de
n o [ n o \
inf Tp ≤ n = {Tp ≤ n}, sup Tp ≤ n = {Tp ≤ n},
p≥1 p≥1
p≥1 p≥1
n o +∞
[ \ n o +∞
\ [
lim inf Tp ≤ n = {Tp ≤ n}, lim sup Tp ≤ n = {Tp ≤ n}.
p→+∞ p→+∞
m=0 p≥m m=0 p≥m
Définition 3.12 (Tribu d’un temps d’arrêt) À un temps d’arrêt T , on associe la tribu
FT = A ∈ F : ∀n ∈ N, A ∩ {T ≤ n} ∈ Fn . (3.2)
Proposition 3.13 Lorsque T est un temps d’arrêt, FT en (3.2) est bien une tribu.
Chapitre 3. ©JCB – M1math – Université de Rennes 42
puisque Ai ∩ {T ≤ n} ∈ Fn (car Ai ∈ FT ).
Enfin, si A ∈ FT alors pour tout n ≥ 0, on a
Ac ∩ {T ≤ n} = {T ≤ n} \ A ∩ {T ≤ n} ∈ Fn
3) Soit A ∈ FT et n ≥ 0. Comme T ≤ S, on a
∈Fn ∈Fn
z }| { z }| {
A ∩ {S ≤ n} = A ∩ {T ≤ n} ∩ {S ≤ n} ∈ Fn .
On a donc bien A ∈ FS .
4) Comme les ensembles [0, t] engendrent la tribu B(R+ ), on montre que T est FT -
mesurable en prouvant que {T ≤ p} ∈ FT pour tout p ≥ 0. Pour cela, soit n ≥ 0,
on a
{T ≤ p} ∩ {T ≤ n} = T ≤ n ∧ p ∈ Fn∧p ⊂ Fn ,
ce qui justifie que {T ≤ p} ∈ FT .
5) D’après le 3) avec T ∧ S ≤ T et T ∧ S ≤ S, on a FT ∧S ⊂ FT ∩ FS . Puis si A ∈ FT ∩ FS
alors pour tout n ≥ 0, on a A ∩ {T ≤ n} ∈ Fn et A ∩ {S ≤ n} ∈ Fn donc
A ∩ {T ∧ S ≤ n} = A ∩ {T ≤ n} ∪ A ∩ {S ≤ n} ∈ Fn
ce qui assure A ∈ FT ∧S .
Compte tenu de la première partie, pour montrer {T ≤ S} ∈ FT ∧S = FT ∩ FS , il suffit
de montrer que {T ≤ S} ∈ FT et {T ≤ S} ∈ FS .
On a
{T ≤ S} ∩ {T ≤ n} = {T ∧ n ≤ S ∧ n} ∩ {T ≤ n}
avec {T ∧ n ≤ S ∧ n} ∈ Fn car T ∧ n et S ∧ n sont Fn -mesurables et {T ≤ n} ∈ Fn . On
montre que {T ≤ S} ∩ {S ≤ n} ∈ SF n en montrant que {T ≤ S} ∩ {S = n} ∈ Fn pour
n
chaque n ≥ 0 (écrire {S ≤ n} = k=0 {S = k}) : comme {T ≤ n}, {S = n} ∈ Fn , on a
bien
{T ≤ S} ∩ {S = n} = {T ≤ n} ∩ {S = n} ∈ Fn .
On a donc {T ≤ S} ∈ FT ∩ FS = FT ∧S .
De la même façon, on a {S ≤ T } ∈ FT ∧S et donc il vient
T = S = {T ≤ S} ∩ {S ≤ T } ∈ FT ∧S .
Proposition 3.16 Soit (Xn )n≥1 une suite (Fn )-adaptée et T un temps d’arrêt. Alors la
variable aléatoire
Xn si T = n
1{T <+∞} XT =
0 si T = +∞
est FT -mesurable. Lorsque T < +∞ ps, il n’y a pas d’ambiguı̈té de notation et on écrit
simplement XT .
Dans la suite, lorsque il n’y a pas d’ambiguı̈té, on pourra omettre d’indiquer la filtration
(Fn )n≥0 et on parlera simplement de martingales plutôt que de (Fn )-martingale. Idem
pour les sous ou sur-martingales.
Exemple 3.20 (Marche aléatoire) Soit (Xn )n≥1 une suite de variables aléatoires inté-
grables indépendantes centrées alors
Sn = X1 + · · · + Xn , n ≥ 1, et S0 = 0,
dans le cas centré (on adapte facilement aux cas E[X1 ] > 0 et E[X1 ] < 0).
Dans cet exemple, on a
Xn = Sn − Sn−1 = Sn − E Sn |Fn−1 .
Ainsi la suite (Xn )n≥1 n’est pas un‘e martingale mais une différence de martingale.
De façon générale, une suite de variables aléatoires indépendantes est une différence
de martingale. Le comportement asymptotique de martingales généralise ainsi celui de
sommes de variables aléatoires indépendantes, cf. Section 4.2.
Exemple 3.21 (Modèle auto-régressif ) Soit (εn )n≥1 une suite de variables aléatoires iid
intégrables centrées et a ∈ R∗ . On pose
Exemple 3.22 (Galton-Watson) Soit (Xi,j )i,j≥1 une famille de variables aléatoires en-
tières iid de loi µ (sur N) admettant pour moyenne m. On pose Z0 = 1 et pour n ≥ 1
Zn
X
Zn+1 = Xn+1,j . (3.5)
j=1
Chapitre 3. ©JCB – M1math – Université de Rennes 46
Alors (Zn /mn )n≥0 est une martingale par rapport à la filtration donnée par Fn = σ(Xi,j :
i ≤ n, j ≥ 1) : d’abord, on observe par récurrence que Zn est Fn -mesurable. En effet, si
Zn l’est alors pour tout A ∈ N, on a
+∞ +∞
( p ) !
[ [ X
{Zn+1 ∈ A} = {Zn+1 ∈ A, Zn = p} = Xn+1,j ∈ A ∩ {Zn = p} ∈ Fn+1
p=0 p=0 j=1
Pp
puisque j=1 Xn+1,j est Fn+1 -mesurable et Zn aussi par hypothèse de récurrence. Puis
la propriété de martingale est bien satisfaite :
Zn
X XZn
E[Zn+1 |Fn ] = E Xn+1,j |Fn = E[Xn+1,j |Fn = Zn E Xn+1,j = Zn m
j=1 j=1
À noter que les espérances conditionnelles sont bien définies puisque les variables aléa-
toires sont positives. A posteriori, on observe par récurrence que Zn est bien intégrable
puisque
E[|Zn |] = E[Zn ] = E E[Zn+1 |Fn ] = m E[Zn ] < +∞.
Cette martingale modélise l’évolution d’une population avec loi de reproduction µ. Dans
cette interprétation, N représente les numéros des générations successives, Xn+1,j est le
nombre d’enfants de l’individu j de la génération n pour former la génération n + 1 et
Zn désigne la taille de la population à la génération n.
En effet, il est clair que Yn est Fn -mesurable et intégrable puisque par indépendance des
Xi :
hYn i Y n
E |Yn | = E |Xi | = E |Xi | < +∞.
i=1 i=1
Lorsque les variables aléatoires Xi sont toutes positives, on a des résultats analogues
pour des sous-martingales quand E[Xi ] ≥ 1 pour tout i ≥ 1 ou des sur-martingales
quand E[Xi ] ≤ 1 pour tout i ≥ 1.
Proposition 3.27 Soit (Xn )n≥0 une martingale (resp. sous-martingale, sur-martingale).
Alors E[Xn+1 ] = E[Xn ](= E[X0 ]) (resp. E[Xn+1 ] ≥ E[Xn ], E[Xn+1 ] ≤ E[Xn ]).
Chapitre 3. ©JCB – M1math – Université de Rennes 48
Remarque 3.28 En quelque sorte, il faut retenir que les sous-martingales sont des ana-
logues aléatoires des suites numériques croissantes (E[Xn ] ≤ E[Xn+1 ] pour tout n ≥ 0).
p
Corollaire 3.30
Soit (X n ) n≥0 une (F n )-martingale avec E |X n | < +∞ pour tout n ≥ 0.
Alors |Xn |p n≥1 est une (Fn )-sous-martingale.
Proposition 3.32 Soit (Xn )n≥0 une (Fn )-sous-martingale. Si (Hn )n≥1 est une suite pré-
visible positive avec chaque Hn bornée alors (H · X) définie par (H · X)0 = 0 et
n
X
(H · X)n = Hk (Xk − Xk−1 ), n ≥ 1,
k=1
forme une (Fn )-sous-martingale. La même affirmation est vraie pour une sur-martingale
ou pour une martingale sans la restriction de positivité Hn ≥ 0 dans le cas d’une mar-
tingale.
Démonstration : On observe sans difficulté que (H · X)n est Fn -mesurable pour tout
n ≥ 1 : comme
(H · X)n = (H · X)n−1 + Hn (Xn − Xn−1 ), (3.7)
un argument par récurrence ramène à voir que Hn (Xn −Xn−1 ) est Fn -mesurable ce qui est
bien le cas puisque Hn , Xn , Xn−1 le sont. Puis (H · X) ∈ L1 car chaque Hk (Xk − Xk−1 ) ∈
L1 puisque X ∈ L1 et H est bornée.
Ensuite, en utilisant (3.7) et la prévisibilité de Hn , on a :
E (H · X)n+1 |Fn = (H · X)n + E Hn+1 (Xn+1 − Xn ) |Fn
= (H · X)n + Hn+1 E Xn+1 − Xn |Fn .
On conclut en observant que E Xn+1 − Xn|Fn ≥ 0 si (Xn)n≥1 est une sous-martingale
avec Hn ≥ 0. On conclut
de même avec E Xn+1 − Xn |Fn ≤ 0 si (Xn )n≥1 est une sur-
martingale et avec E Xn+1 − Xn |Fn = 0 si c’est une martingale (sans condition sur le
signe de H). □
En effet (H · X)n est la valeur (H · X)n−1 à la date n − 1 plus la valeur du nouvel actif
Hn Xn moins le coût de l’achat Hn Xn−1 .
On interprète également (H ·X)n comme une intégrale stochastique (discrète) de (Hn )n≥1
contre la suite (Xn )n≥1 .
La prévisibilité de H s’interprète alors de la façon suivante : chaque jour, les ordres
d’achat sont passés le matin et les prix re-actualisés au cours de la journée. Ainsi, le jour
n, la quantité Hn d’actif risqué est achetée à la valeur Xn−1 du (n − 1)-ième jour. La
décision d’acheter est donc prise avec l’information dont on dispose à la date n − 1, ie.
les Xi , i ≤ n − 1 (il n’y a pas de délit d’initié). Cela justifie que la variable aléatoire Hn
doit être Fn−1 -mesurable.
Définition 3.35 (Martingale arrêtée) Si (Xn )n≥0 est une (Fn )-martingale
et T est un
(Fn )-temps d’arrêt. On appelle martingale arrêtée la suite Xn n≥0 avec XnT = XT ∧n .
T
Démonstration : On a vu en (3.1) que la suite (Hn )n≥0 donnée par Hn = 1{T ≥n} est
(Fn )-prévisible. Dès lors, d’après la Prop. 3.32, on a :
n
X n∧T
X
(H · X)n = 1{T ≥k} (Xk − Xk−1 ) = (Xk − Xk−1 ) = XT ∧n − X0 , n ≥ 0,
k=1 k=1
est une (Fn )-martingale, sur ou sous-martingale selon ce qu’est X, ce qui établit le ré-
sultat puisque la somme de martingale, sur ou sous-martingales est de même nature. □
De plus,
— il y a égalité dans (3.8) si (Xn )n≥0 est une martingale ;
— Pour une sur-martingale, (3.8) est valable avec des bornes inversées.
Exemple
Pn3.38 (Contre-exemple au Th. 3.37) Soit (Sn )n≥0 la marche aléatoire simple :
1
Sn = i=1 Xi avec Xi iid de loi de Rademacher P(X1 = 1) = P(X1 = −1) = 2 et
S0 = 0. Il s’agit d’une martingale pour la filtration des Fn = σ(X1 , . . . , Xn ), n ≥ 1.
On note T = inf n ≥ 0 : Sn = −1 . Il s’agit d’un temps d’arrêt par 2) dans Exemple 3.9.
Alors E[S0 ] = 0 > −1 = E[ST ]. On note que T n’est pas borné puisque
{T ≥ n} ⊃ {X1 = 1, X2 = 1, . . . , Xn = 1}
et donc
1
P(T ≥ n) ≥ P(X1 = 1, X2 = 1, . . . , Xn = 1) = .
2n
Ainsi la première inégalité dans le Th. 3.37 n’est pas automatique si T n’est pas bornée.
Chapitre 3. ©JCB – M1math – Université de Rennes 52
Par la Prop. 3.36, (XT ∧n )n≥0 est une sous-martingale. Ainsi comme 0 ≤ T ≤ k ps, en
utilisant la croissance des espérances pour la sous-martingale arrêtée X T (Prop. 3.27),
on a :
E[X0 ] = E XT ∧0 ≤ E XT ∧k = E[XT ]
ce qui prouve la première inégalité de (3.8). Pour prouver la deuxième inégalité de (3.8),
la propriété de sous-martingale donne pour tout 0 ≤ i ≤ k : Xi ≤ E[Xk |Fi ] ps et comme
{T = i} ∈ Fi :
E Xi 1{T =i} ≤ E E[Xk |Fi ]1{T =i} = E Xk 1{T =i} ,
et donc
k
hX i k
X k
X
E[XT ] = E XT 1{T =i} = E Xi 1{T =i} ≤ E Xk 1{T =i} = E[Xk ].
i=0 i=0 i=0
Théorème 3.39 Soit (Xn )n≥0 une sous-martingale et T un temps d’arrêt. Sous chacune
des conditions suivantes, on a XT ∈ L1 et
E[XT ] = E[X0 ].
Enfin si (Xn )n≥0 est une sur-martingale, on a E[X0 ] ≥ E[XT ] sous (1), (2), (3) ou encore
sous
(4) Xn ≥ 0 et T est fini ps.
Xn = Mn + An (3.11)
où (Mn )n≥0 est une (Fn )-martingale et (An )n≥0 est une suite croissante (Fn )-prévisible
avec A0 = 0 et donnée par
n
X
An = E Xk |Fk−1 − Xk−1 . (3.12)
k=1
car (Mn )n≥1 est une martingale et An est Fn−1 -mesurable. On pose donc
An − An−1 := E Xn |Fn−1 − Xn−1 (3.13)
Mn := Xn − An ,
ce qui définit les deux suites (Mn )n≥0 et (An )n≥0 en prenant en plus A0 = 0 et M0 = X0 .
Il s’agit de vérifier que pour ce choix, (Mn )n≥0 est bien une martingale et (An )n≥0 est
croissante, prévisible, la décomposition (3.11) étant satisfaite par construction.
Comme (Xn )n≥1 est une sous-martingale, (3.13) assure
An − An−1 = E Xn |Fn−1 − Xn−1 ≥ 0, (3.14)
et An = (An − An−1 ) + An−1 est bien Fn−1 -mesurable pour tout n ≥ 0 par récurrence
puisque An − An−1 l’est par (3.14). On note que An ∈ L1 pour tout n ≥ 1 puisque
E |An − An−1 | = E E Xn |Fn−1 − Xn−1 ≤ E[|Xn |] + E[|Xn−1 |] < +∞.
Pour montrer que (Mn )n≥0 est une martingale, on observe d’abord que Mn = Xn − An
est Fn -mesurable puis Mn ∈ L1 car Xn ∈ L1 ((Xn )n≥0 sous-martingale) et An ∈ L1 .
Pour la propriété de martingale (3.3), on utilise (3.13) et la Fn−1 -mesurabilité de An :
E Mn |Fn−1 = E Xn − An |Fn−1
= E Xn |Fn−1 − E An |Fn−1
= An − An−1 + Xn−1 − An
= Xn−1 − An−1 = Mn−1 .
Chapitre 3. ©JCB – M1math – Université de Rennes 55
L’unicité est assurée par le raisonnement par condition nécessaire en début de démons-
tration. On peut aussi la vérifier directement en supposant qu’on a deux décompositions
Xn = Mn + An = Mn′ + A′n
avec (Mn )n≥0 , (An )n≥0 et (Mn′ )n≥0 , (A′n )n≥0 vérifiant les hypothèses du Th. 3.40. Alors
Un = An − A′n = Mn − Mn′ définit une suite constante puisque
′
= E Mn − Mn′ |Fn−1 ((Mn )n≥0 , (Mn′ )n≥0 martingales)
Un−1 = Mn−1 − Mn−1
= E An − A′n |Fn−1 = An − A′n = Un (An , A′n sont Fn−1 -mesurables).
Remarque 3.41 La décomposition (3.11) est vraie pour toute suite (Xn )n≥1 adaptée et
L1 avec (Mn )n≥0 martingale et (An )n≥0 prévisible partant de A0 = 0. En fait (Xn )n≥0
est une sous-martingale si et seulement si (An )n≥0 est croissante, cf. (3.14).
Soit (Xn )n≥0 une martingale de carré intégrable et nulle en 0. Comme (Xn2 )n≥0 est une
sous-martingale (Prop. 3.29), le Th. 3.40 donne la décomposition de Doob (3.11) sui-
vante :
Xn2 = Mn + An , n ≥ 0, (3.15)
où M = (Mn )n≥0 est une martingale et A = (An )n≥0 est une suite prévisible croissante.
Lemme 3.43 (Formule de la variance conditionnelle) Soit (Xn )n≥1 une martingale telle
que E[Xn2 ] < +∞ pour tout n ≥ 1. Alors pour n ≥ k, on a
Démonstration : Pour n ≥ k, on a :
E (Xn − Xk )2 |Fk = E Xn2 − 2Xn Xk + Xk2 |Fk
Dans l’expression (3.16), ⟨X, X⟩n apparaı̂t comme la variance jusqu’à la date n et
⟨X, X⟩∞ (qui par croissance existe toujours quitte à avoir +∞) est la variance totale de
toute la suite (Xn )n≥0 .
Le comportement L2 d’une martingale (Xn )n≥0 de carré intégrable peut se lire sur son
compensateur :
Proposition 3.44 (Martingale bornée dans L2 et compensateur) Soit (Xn )n≥0 une mar-
tingale carré intégrable. Alors elle est bornée dans L2 si et seulement si son compensateur
vérifie E[⟨X, X⟩∞ ] < +∞.
Démonstration : Comme Xn2 − ⟨X, X⟩n ) n≥0 est une martingale, la propriété de mar-
tingale donne E Xn2 − ⟨X, X⟩n ] = E[X02 − ⟨X, X⟩] = E[X02 , c’est à dire
E ⟨X, X⟩n = E[Xn2 ] − E[X02 ],
pour tout n ≥ 0. Comme ⟨X, X⟩ est une suite croissante, le théorème de convergence
monotone donne alors
E ⟨X, X⟩∞ = lim E ⟨X, X⟩n = sup E ⟨X, X⟩n = sup E[Xn2 ] − E[X02 ],
n→+∞ n≥0 n≥0
prouvant l’équivalence. □
Proposition 3.45 Soit (Xn )n≥0 une martingale de carré intégrable, nulle en 0 et T un
temps d’arrêt. Alors
⟨X T , X T ⟩ = ⟨X, X⟩T ps,
ie. le crochet de la martingale arrêtée est le crochet arrêté de la martingale.
Démonstration : Par la Prop. 3.36, (X T )2 = M T + ⟨X, X⟩T est une sous-martingale,
M T est une martingale, et, par la Prop. 3.34, ⟨X, X⟩T est une suite croissante et
prévisible. L’unicité (presque sûre) de la décomposition de Doob (3.15) de X T exige
⟨X T , X T ⟩ = ⟨X, X⟩T ps. □
Exemple 3.46 (Somme de variables aléatoires iid) Soit (Xn )n≥1 une suite de P variables
aléatoires iid centrées, de carrés intégrables avec Var(X1 ) = σ 2 . Alors Sn = nk=1 Xk ,
n ≥ 1, (avec S0 = 0) est une martingale L2 de compensateur ⟨S, S⟩n = nσ 2 :
En effet, d’après (3.16), en utilisant Xk ⊥
⊥ Fk−1 = σ(X1 , X2 , . . . , Xk−1 ), on a
Xn n n
2
X 2 X
E[Xk2 ] = nσ 2 .
⟨S, S⟩n = E (Sk − Sk−1 ) |Fk−1 = E Xk |Fk−1 =
k=1 k=1 k=1
Chapitre 4
Convergences de martingales
Dans ce chapitre, on étudie les limites de martingales. On commence par les outils
clef que sont les inégalités pour martingales en Section 4.1. On donne ensuite des ré-
sultats de convergence presque sûre en Section 4.2 puis en norme L1 en Section 4.4 et
en norme Lp en Section 4.5. On donne ensuite en Section 4.7 un résultat fondamental
(théorème d’arrêt) qui généralise la propriété de martingale aux dates données par des
temps d’arrêt.
Dans la suite, on considère un espace de probabilité filtré (Ω, F, (Fn )n≥0 , P). Par
défaut, les (sur/sous)-martingales et temps d’arrêt sont par rapport à cette filtration
(Fn )n≥0 .
57
Chapitre 4. ©JCB – M1math – Université de Rennes 58
Comme précédemment, on a E[XT 1Ac ] = E[Xn 1Ac ] et E[XT 1A ] ≥ xP(A) et (4.7) donne
E[|X0 |] + E[|Xn |] en général, d’où (4.2),
xP(A) ≤ E[X0 ] − E[Xn 1Ac ] ≤
E[X0 ] si Xn ≥ 0, d’où (4.3).
et (Xn )n≥0 , (−Xn )n≥0 sont des sous-martingales et sur-martingales (ou l’inverse) et on
majore chaque terme de (4.8) par (4.1) et (4.2) pour avoir la conclusion (4.4).
5) Lorsque (Xn )n≥0 est une martingale, on peut appliquer (4.1) à la sous-martingale
positive (|Xn |)n≥0 et avoir (4.5). □
Chapitre 4. ©JCB – M1math – Université de Rennes 59
Corollaire 4.2 (Inégalité maximale de Kolmogorov) Soit (Xn )n≥1 des variables aléatoi-
res indépendantes centrées et de variances finies. On pose Sn = X1 + · · · + Xn . Alors
pour x > 0, on a :
Var(S )
n
P max |Sk | ≥ x ≤ . (4.9)
1≤k≤n x2
Démonstration : Dans l’Exemple 3.20, on a vu que que (Sn )n≥1 est une martingale pour
la filtration canonique engendrée par la suite (Xn )n≥1 . Par le Corollaire 3.30, Yn = Sn2 ,
n ≥ 1, définit une sous-martingale à laquelle on applique l’inégalité maximale de Doob
(4.1) avec u = x2 (Th. 4.1). On obtient alors l’inégalité maximale de Kolmogorov (4.9)
puisque E[Sn2 ] = Var(Sn ). □
Remarque 4.3 (Comparaison avec Tchebychev) Dans le contexte du Corollaire 4.2, l’in-
égalité de Tchebychev donne pour tout 1 ≤ k ≤ n :
Var(Sk ) Var(Sn )
P(|Sk | ≥ x) ≤ 2
≤
x x2
Pk Pn
car Var(Sk ) = i=1 E[Xi2 ] ≤ i=1 E[Xi2 ] = Var(Sn ). On a donc
Var(Sn )
max P(|Sk | ≥ x) ≤ . (4.10)
1≤k≤n x2
Comme n
[
max P(|Sk | ≥ x) ≤ P {|Sk | ≥ x} = P max |Sk | ≥ x ,
1≤k≤n 1≤k≤n
k=1
Z M
pxp−1 P X n ≥ x dx (Fubini-Tonelli)
=
0
Z M
pxp−1 x−1 E Xn+ 1{X n ≥x} dx (Th. 4.1-1)
≤
0
" #
Z X n ∧M
= pE Xn+ xp−2 dx (Fubini-Tonelli)
0
p p−1
E Xn+ X n ∧ M
=
p−1
p p (p−1)/p + p 1/p
≤ E Xn ∧ M E (Xn ) (Hölder).
p−1
En simplifiant la borne précédente, il vient
p
p p + p
E (X n ∧ M ) ≤ E (Xn ) .
p−1
Noter que pour simplifier la borne comme ci-dessus, il est nécessaire que E (X n ∧ M )p
soit fini et non nul, d’où l’importance de tronquer par M , assez grand. Finalement, on
obtient (4.11) en faisant M → +∞ avec le théorème de convergence monotone. □
Remarque 4.5 Attention, l’inégalité maximale Lp (Th. 4.4) est fausse pour p = 1 même
avec une autre constante.
Pour des martingales, on spécialise le Th. 4.4 comme suit :
Corollaire 4.6 (Inégalité de moments pour martingale)
(1) Pour une martingale (Xn )n≥0 , on a :
h p i p p
E |Xn |p .
E max |Xk | ≤ (4.12)
1≤k≤n p−1
(2) Pour une martingale (Xn )n≥0 nulle en 0 (donc centrée) de carré intégrable, on a :
h 2 i
≤ 4E ⟨X, X⟩2n
E max |Xk | (4.13)
1≤k≤n
h 2 i
E sup |Xn | ≤ 4E ⟨X, X⟩∞ . (4.14)
n≥1
□
Chapitre 4. ©JCB – M1math – Université de Rennes 61
n−1 n−1
!
[ \
= {N2k−1 = j} ∩ {Xk < b} ∩ {Xn ≥ b} ∈ Fn
j=1 k=j+1
Comme
XN2k−1 ≤ a et XN2k ≥ b,
entre les dates N2k−1 et N2k , (Xn )n≥1 monte d’au dessous de a à au dessus de b (exacte-
ment une fois). Notons Un ([a, b]) le nombre de telles montées le long de l’intervalle [a, b]
de la suite (Xn )n≥1 jusqu’à la date n, c’est à dire
Un ([a, b]) = sup k ∈ N : N2k ≤ n .
Comme Un ([a, b]) est le nombre de montées de X1 , . . . , Xn le long de [a, b], on a immé-
diatement Un ([a, b]) ≤ [n/2]. En observant que N2k ≤ n < N2k+2 signifie qu’il y a eu
exactement k montées réalisées jusqu’à la date n, on peut écrire
[n/2]
X
Un ([a, b]) = k 1{N2k ≤n<N2k+2 } .
k=1
Ainsi chaque Un ([a, b]) est positive, bornée par [n/2] et donc intégrable. La suite (Un ([a, b]))n≥1
est croissante. Le nombre de montées d’une sous-martingale est contrôlé (en moyenne)
par l’inégalité suivante due à Doob :
Théorème 4.8 (Nombre de montées) Soit (Xn )n≥0 une sous-martingale. Alors pour tout
a < b, on a :
E[(Xn − a)+ ]
E Un ([a, b]) ≤ . (4.15)
b−a
Remarque : Le Th. 4.8 s’applique pour une suite finie (Xk )k=0,...,n qui forme une mar-
tingale : E[Xk+1 |Fk ] = Xk pour tout 0 ≤ k < n.
Comme les Nk , k ≥ 1, sont des temps d’arrêt, on a
c
N2k+1 < j ≤ N2k+2 = N2k+1 ≤ j − 1 ∩ N2k+2 ≤ j − 1 ∈ Fj−1 ,
de sorte que
1 si pour un k ∈ N, on a N2k < j ≤ N2k+1
Yj =
0 sinon, ie. pour un k, on a N2k+1 < j ≤ N2k+2 ,
Cas 2 : Un ([a, b]) > 0, ie. il y a au moins 1 montée avant la date n donc en particulier
N1 < N2 ≤ n.
Pour N0 = 0 < 1 ≤ k ≤ N1 , on a Yk = 1, et pour N1 < k ≤ N2 , on a Yk = 0. Ainsi
≤0
n
X z }| { n
X
Yk (Xk − Xk−1 ) = (XN1 − X1 ) + Yk (Xk − Xk−1 )
k=2 k=N2 +1
n
X
≤ Yk (Xk − Xk−1 ), (4.17)
k=N2 +1
(a) soit la date n correspond à une phase de montée : pour un ℓ ∈ N, on a N2ℓ+1 < n ≤
N2ℓ+2 et Un ([a, b]) = ℓ ;
(b) soit la date n correspond à une phase de descente : pour un ℓ′ ∈ N, on a N2ℓ′ < n ≤
N2ℓ′ +1 et Un ([a, b]) = ℓ′ .
Dans le sous-cas (a) (phase de montée), on a
Démonstration :[Th. 4.8] Comme (Xn )n≥1 est une sous-martingale et comme on a vu
que Yk est Fk−1 -mesurable positive, on a
E Yk (Xk − Xk−1 ) = E E[Yk (Xk − Xk−1 ) |Fk−1 ]
= E Yk E[Xk − Xk−1 |Fk−1 ] ≥ 0,
| {z }
≥0
Démonstration : Soit (Xn )n≥0 une suite de variables aléatoires. D’après le Lemme 4.12,
(Xn )n≥0 converge vers une limite (finie ou pas) si et seulement si U∞ ([a, b]) < +∞. Pour
voir cela, on utilise le Th. 4.8 sur le nombre de montées.
Soit a < b. Comme le nombre de montées Un ([a, b]) le long de [a, b] est une suite crois-
sante, on note U∞ ([a, b]) := limn→+∞ Un ([a, b]) pour le nombre total de montées le long
de [a, b]. Avec le théorème de convergence monotone, l’inégalité sur le nombre de montées
(Th. 4.8) donne
E U∞ ([a, b]) = lim E Un ([a, b]) = sup E Un ([a, b])
n→+∞ n≥0
|a| + supn≥0 E[Xn+ ]
≤ < +∞
(b − a)
en utilisant (Xn −a)+ ≤ Xn+ +|a| et l’hypothèse d’intégrabilité. On a donc E[U∞ ([a, b])] <
+∞ et U∞ ([a, b]) < +∞ ps. Comme pour tout a < b on a
n o
lim inf Xn < a < b < lim sup Xn ⊂ {U∞ ([a, b]) = +∞},
n→+∞ n→+∞
ce qui assure X < +∞ ps. Pour s’assurer aussi de X > −∞ ps, on utilise Xn = Xn+ −Xn−
et la propriété de sous-martingale pour (Xn )n≥0 :
Remarque 4.13 Dans la preuve, on a établi que si le nombre de montées de (Xn )n≥1 sur
]a, b[ est fini pour tout a, b ∈ Q alors la limite de Xn existe ps.
Corollaire 4.14 (Convergence ps de martingale bornée dans L1 ) Soit (Xn )n≥0 une mar-
tingale ou sous/sur-martingale bornée dans L1 (supn≥0 E[|Xn |] < +∞). Alors (Xn )n≥0
converge presque sûrement.
Démonstration : Il suffit de considérer le cas de (Xn )n≥0 sous-martingale, les autres s’en
déduisent facilement. Comme E[Xn+ ] ≤ E[|Xn |], on a supn≥0 E[Xn+ ] ≤ supn≥0 E[|Xn |] et
la condition du Th. 4.10 est satisfaite lorsque la sous-martingale est bornée dans L1 ,
justifiant la convergence presque sûre. □
La convergence presque sûre du Corollaire 4.15 peut ne pas être L1 comme le montre
l’exemple qui suit :
Chapitre 4. ©JCB – M1math – Université de Rennes 67
Proposition 4.19 Soit (Xn )n≥1 une suite de variables aléatoires dans L1 telle que pour
δ > 0 la suite est bornée dans L1+δ . Alors la suite (Xn )n≥0 est uniformément intégrable.
Démonstration : On a :
sup E |Xn |1{|Xn |>c} = sup E |Xn | × 1 × 1{|Xn |/c>1}
n≥1 n≥1
|Xn |δ
≤ sup E |Xn | × δ × 1{|Xn |/c>1}
n≥1 c
1
≤ δ sup E |Xn |1+δ = O c−δ → 0,
c → +∞.
c n≥1
□
En appliquant le (i) pour chaque n ≥ 0 avec A = {|Xn | > c}, on a E |Xn |1{|Xn |>c} ≤ ε.
□
Proposition 4.22 Soit X ∈ L1 (F). Alors la famille (a priori non dénombrable) de va-
riables aléatoires E[X|G] : G ⊂ F sous-tribu de F est uniformément intégrable.
Démonstration : Pour cela, notons ZG = E[|X| |G]. Comme {ZG > c} est G-mesurable,
par définition de l’espérance conditionnelle ZG = E[|X| |G], on a :
Théorème 4.23 (Vitali) Soit (Xn )n≥0 une suite de variables aléatoires intégrables. Il y
a équivalence entre
(1) (Xn )n≥0 converge dans L1 ;
(2) (Xn )n≥0 est uniformément intégrable et (Xn )n≥0 converge en probabilité.
On a donc
sup E[|Xn |1A ] ≤ ε/2 + E[|X|1A ].
n≥n0
Avec A = Ω, on déduit supn≥n0 E[|Xn |] < +∞. Puis comme X est intégrable, par le
Lemme 4.20, il existe δ > 0 tel que P(A) < δ implique E[|X|1A ] ≤ ε/2. On a donc
Chapitre 4. ©JCB – M1math – Université de Rennes 70
supn≥n0 E[|Xn |1A ] ≤ ε pour un tel A. Comme la suite finie (Xn )n<n0 est uniformément
intégrable, il existe aussi δ ′ > 0 tel que P(A) < δ ′ implique E[|Xk |1A ] ≤ ε pour k < n0 .
Finalement lorsque P(A) ≤ min(δ, δ ′ ), on a supn≥0 E[|Xn |1A ] ≤ ε. La Prop. 4.21 assure
alors que (Xn )n≥0 est uniformément intégrable.
(2)⇒(1). Comme (Xn )n≥0 converge en probabilité vers X, presque sûrement, on peut
ps
extraire une sous-suite (nk )k≥1 telle que Xnk −→ X, k → +∞. Le lemme de Fatou, avec
l’uniforme intégrabilité, garantit X ∈ L1 :
h i
E[|X|] = E lim inf |Xnk | ≤ lim inf E |Xnk | ≤ sup E[|Xn |] < +∞
k→+∞ k→+∞ n≥0
d’après l’uniforme intégrabilité (critère de la Prop. 4.21). Puis pour tout ε > 0, on a
E[|Xn − X|] ≤ E |Xn − X|1{|Xn −X|≤ε/3} + E |Xn − X|1{|Xn −X|>ε/3}
≤ E |Xn − X|1{|Xn −X|≤ε/3} + E |Xn |1{|Xn −X|>ε/3}
+E |X|1{|Xn −X|>ε/3}
≤ ε/3 + E |Xn |1{|Xn −X|>ε/3} + E |X|1{|Xn −X|>ε/3} . (4.19)
Finalement pour n assez grand, (4.19) assure E[|Xn − X|] < ε, ce qui prouve le 1). □
Théorème 4.25 (Sous-martingales UI) Soit (Xn )n≥0 une sous-martingale. Alors les as-
sertions suivantes sont équivalentes :
(1) (Xn )n≥0 est uniformément intégrable ;
(2) (Xn )n≥0 converge ps et dans L1 ;
L’énoncé s’applique aussi aux sur-martingales et aux martingales.
Chapitre 4. ©JCB – M1math – Université de Rennes 71
Pour des martingales, on peut compléter le Th. 4.25 avec la représentation des martin-
gales avec le (3) ci-dessous :
Théorème 4.26 (Martingales UI et fermées) Pour une martingale (Xn )n≥0 , les asser-
tions suivantes sont équivalentes :
(1) (Xn )n≥0 est uniformément intégrable ;
(2) (Xn )n≥0 converge presque sûrement et dans L1 ;
(3) (Xn )n≥0 est une martingale fermée, ie. il existe une variable aléatoire X ∈ L1 (F)
telle que Xn = E[X|Fn ] ∀n ≥ 0.
Dans ce cas, on a E[Xn ] = E[X] pour tout n ≥ 0.
Démonstration : Il reste à montrer que (3) est équivalente aux deux premiers points.
L1
On a (3)⇒(1) par la Prop. 4.22. Puis en supposant (2), c’est à dire notamment Xn −→
X ∈ L1 , comme (Xn )n≥0 est une martingale, pour k ≥ n et A ∈ Fn on a :
E[Xk 1A ] = E[Xn 1A ].
Mais limk→+∞ E[Xk 1A ] = E[X1A ] car E[Xk 1A ] − E[X1A ] ≤ E[|Xk − X|] et donc pour
tout A ∈ Fn :
E[Xn 1A ] = E[X1A ]
c’est à dire Xn = E[X |Fn ] par définition de l’espérance conditionnelle, on a donc
(2)⇒(1).
Lorsque ces conditions sont remplies, il y a convergence L1 donc convergence des es-
pérances E[Xn ], n ≥ 0, vers E[X]. Comme pour une martingale les espérances sont
constantes, la conclusion s’ensuit. □
Démonstration : On note WN = sup |Xn − Xm | : n, m ≥ N . Comme on observe que
WN ≤ 2Z, on a E[WN ] < +∞ pour tout N ≥ 1. Pour n ≥ N , on a |Xn − X| ≤ WN et
avec le Th. 4.27, il vient presque sûrement
lim sup E |Xn − X| |Fn ≤ lim E[WN |Fn ] = E[WN |F∞ ]. (4.21)
n→+∞ n→+∞
Comme WN ↘ 0 ps avec WN ≤2Z ∈ L1 , la Prop. 2.17 assure limN →+∞ E[WN |F∞ ] = 0
ps, soit avec (4.21) : limn→+∞ E |Xn − X| |Fn = 0 ps.
Par l’inégalité de Jensen conditionnelle, on a :
ps
E[Xn |Fn ] − E[X |Fn ] ≤ E |Xn − X| Fn −→ 0, n → +∞.
ps
Par ailleurs toujours avec le Th. 4.27, on a E[X |Fn ] −→ E[X |F∞ ], n → +∞. Finale-
ment,
E[Xn |Fn ] − E[X |F∞ ] = E[Xn |Fn ] − E[X |Fn ] + E[X |Fn ] − E[X |F∞ ]
ps
≤ E[Xn |Fn ] − E[X |Fn ] + E[X |Fn ] − E[X |F∞ ] −→ 0, n → +∞.
Pour la convergence L1 , on a
L1
— E[X|Fn ] −→ E[X|F∞ ] par la Prop. 4.27 et
L1
— comme par convergence dominée usuelle Xn −→ X :
E E[Xn |Fn ] − E[X |Fn ] ≤ E E[|Xn − X| |Fn ] = E[|Xn − X|] → 0, n → +∞,
L1
on a aussi E[Xn |Fn ] − E[X |Fn ] −→ 0.
L1
Il suit donc E[Xn |Fn ] −→ E[X |F∞ ], n → +∞. □
Théorème 4.30 (Loi du 0/1 de Kolmogorov) Lorsque les variables aléatoires (Xn )n≥0
sont indépendantes, la tribu asymptotique F (∞) se réduit, aux négligeables près, à {∅, Ω},
ie. ∀A ∈ F (∞) , P(A) ∈ {0, 1}.
Chapitre 4. ©JCB – M1math – Université de Rennes 74
E (X Sk )2n = E ASnk ≤ k
En notant Tc = inf(n ≥ 0 : |Xn | > c), on a {Tc = +∞} = {supn≥0 |Xn | ≤ c} et par
convergence monotone
P A∞ = +∞ et Tc = +∞
Chapitre 4. ©JCB – M1math – Université de Rennes 76
= P A∞ = +∞, sup |Xn | ≤ c ↗ P A∞ = +∞, sup |Xn | < +∞ .
n≥0 n≥0
D’après le théorème d’arrêt borné (Th. 3.37) avec le temps d’arrêt borné Tc ∧ n et la
martingale X 2 − A, on a
E[XT2c ∧n ] − E[ATc ∧n ] = 0.
Mais XT2c ∧n est bornée par (c+K)2 : en effet, à la date (Tc ∧n)−1 < Tc , on a X(Tc ∧n)−1 ≤ c
et comme un accroissement (de la date (Tc ∧ n) − 1 à la date (Tc ∧ n)) est borné par K,
on a
E[ATc ∧n ] = E[XT2c ∧n ] ≤ (c + K)2 .
En faisant n → +∞ par le théorème de convergence monotone, on a
E[ATc ] ≤ (c + K)2 ,
ce qui est en contradiction avec (4.24) et donc (4.23) car en notant B = {A∞ =
+∞ et Tc = +∞}, on a
Corollaire 4.33 (Convergence de martingale bornée dans L2 ) Soit (Xn )n≥0 une mar-
tingale bornée dans L2 (ou de façon équivalente, de compensateur ⟨X, X⟩ intégrable
ps
en +∞). Alors Xn −→ X ps et dans L2 . De plus, E[X0 ] = E[Xn ] = E[X].
Le résultat suivant est une LGN presque sûre pour les martingales. Il complète le
Th. 4.32.
Théorème 4.34 (LGN pour martingale) Soit (Xn )n≥0 une (Fn )-martingale de carré in-
tégrable avec X0 = 0. Alors sur {⟨X, X⟩∞ = +∞}, on a
Xn ps
−→ 0, n → +∞. (4.25)
⟨X, X⟩n
Chapitre 4. ©JCB – M1math – Université de Rennes 77
Remarque 4.35 (Cas iid) Lorsque (Xn )n≥1 est une suite de variables Pn aléatoires iid cen-
2
trées de carrés intégrables, on retrouve la LGN forte L : Sn = k=1 Xk est une mar-
tingale L2 de compensateur ⟨S, S⟩n = nσ 2 (où σ 2 = E[X12 ], voir Exemple 3.46) et (4.25)
se réécrit
Sn ps
−→ 0, n → +∞.
n
donnée par W0 = 0 et
n
X Xk − Xk−1
Wn = , n ≥ 1.
k=1
1 + ⟨X, X⟩k
Comme H est bornée par 1, la Prop. 3.32 assure que W = (Wn )n≥0 définit une martin-
gale. En utilisant l’expression (3.16) du compensateur, celui de W est donné par
⟨W, W ⟩n − ⟨W, W ⟩n−1 = E (Wn − Wn−1 )2 |Fn−1
" 2 #
Xn − Xn−1
= E Fn−1
1 + ⟨X, X⟩n
1
E (Xn − Xn−1 )2 |Fn−1
= 2
(1 + ⟨X, X⟩n )
⟨X, X⟩n − ⟨X, X⟩n−1
=
(1 + ⟨X, X⟩n )2
⟨X, X⟩n − ⟨X, X⟩n−1
≤
(1 + ⟨X, X⟩n )(1 + ⟨X, X⟩n−1 )
1 1
= − .
1 + ⟨X, X⟩n−1 1 + ⟨X, X⟩n
On en déduit
n
X 1
⟨W, W ⟩n = ⟨W, W ⟩k − ⟨W, W ⟩k−1 ≤ 1 − ≤1 ps.
k=1
1 + ⟨X, X⟩n
On prouve ci-dessous les lemmes de Césaro (Lemme 4.36) et de Kronecker (Lemme 4.37)
pour la convergence de séries numériques.
Chapitre 4. ©JCB – M1math – Université de Rennes 78
Lemme 4.36 (Césaro) Soit (un )n≥1 une suite d’un espace vectoriel
Pn normé E qui converge
vers ℓ et (αn )n≥1 une suite positive, de sommes partielles an = k=1 αn qui tendent vers
+∞. Alors on a
n
1 X
lim αk uk = ℓ.
n→+∞ an
k=1
soit n
1 X
lim αn uk − ℓ = 0.
n→+∞ an k=1
□
Lemme 4.37 (Kronecker) Soit (xn )n≥1 une suite dans un espace vectoriel normé P+∞ etxn
(an )n≥1 une suite croissante strictement positive convergeant vers +∞. Si la série n=1 an
converge alors
n
1 X
lim xk = 0.
n→+∞ an
k=1
Pk xn
Démonstration : On note Sk = n=1 an . En écrivant xk /ak = Sk − Sk−1 , on a par une
transformation d’Abel :
n
X n
X n−1
X
xk = ak (Sk − Sk−1 ) = (ak − ak+1 )Sk + an Sn ,
k=1 k=1 k=1
Chapitre 4. ©JCB – M1math – Université de Rennes 79
ce qui conclut le Lemme 4.37 (Kronecker) quand on passe à la limite dans (4.26). □
En effet, comme φ(x) = x+ est croissante et convexe, (Xn+ )n≥0 est aussi une sous-
martingale (Prop. 3.29). En appliquant le Th. 3.37 à la sous-martingale (Xn+ )n≥0 et au
temps d’arrêt T ∧ n borné, on a
Par 1), limn→+∞ E[XT ∧n ] = E[XT ] et par le le Th. 4.25 limn→+∞ E[Xn ] = E[X∞ ]. On
obtient donc 3) en faisant n → +∞. □
Corollaire 4.39 Soit (Xn )n≥0 une sous-martingale. Si E[|XT |] < +∞ et (Xn 1{T >n} )n≥0
est uniformément intégrable. Alors X T = (XT ∧n )n≥0 est uniformément intégrable.
Théorème 4.40 (Arrêt de Doob) Soit S ≤ T des temps d’arrêt et (Xn )n≥0 une sous-
martingale uniformément intégrable. Alors E[XS ] ≤ E[XT ] et
et Xn 1{T >n} est uniformément intégrable puisque la famille est finie (pour n > k,
Xn 1{T >n} = 0). D’après le Corollaire 4.39, X T = (XT ∧n )n≥0 est uniformément inté-
grable et le théorème d’arrêt (Th. 4.40) s’applique à X T = (XT ∧n )n≥0 quand T est
borné : on retrouve bien l’exemple introductif de la section dans ce théorème général.
U = S1A + T 1Ac .
{U ≤ n} ∩ A ∪ {U ≤ n} ∩ Ac
{U ≤ n} =
{S ≤ n} ∩ A ∪ {T ≤ n} ∩ Ac .
=
Proposition 4.42 Soit (Xn )n≥1 une sur-martingale positive et T un temps d’arrêt. Alors
E[XT ] ≤ E[X0 ] + E[X∞ ] où la limite X∞ = limn→+∞ Xn existe par le Corollaire 4.15.
□
Troisième partie
Chaı̂nes de Markov
83
Chapitre 5
Dynamique markovienne
Introduction
On considère un système qui peut être dans un nombre fini ou infini dénombrable
d’états. L’ensemble des états, noté E, est appelé espace d’états et on supposera dans
ce cours que E est dénombrable (souvent, E sera N ou une partie de N). On suppose le
système observé en des temps discrets n = 0, 1, 2, . . . et l’état du système à la date n est
noté Xn .
Comme on s’intéresse aux systèmes non déterministes, on considère des suites de
variables aléatoires (Xn )n≥0 . Pour étudier de tels systèmes aléatoires (Xn )n≥0 , on suppose
que le système –ou son évolution– satisfait certaines propriétés.
La propriété la plus simple est de supposer que les variables aléatoires Xn , n ≥ 0, sont
(mutuellement) indépendantes, c’est à dire de supposer que les états du système sont
tous indépendants. En pratique, une telle hypothèse est trop restrictive pour modéliser
nombre de phénomènes intéressants.
En fait, de nombreux systèmes ont la propriété –plus générale– suivante : l’état pré-
sent du système étant connu, les états passés n’ont pas d’influence sur les états futurs.
Autrement dit le système n’évolue pas indépendamment dans le temps mais évolue sans
mémoire (seul le présent, et non le passé, influe sur le futur). Cette propriété est dite
propriété de Markov et les systèmes qui la vérifient sont des chaı̂nes de Markov (Défi-
nition 5.5).
Pour formaliser ce type de propriété, on commence par un exemple très simple de
système markovien ne pouvant prendre que deux valeurs.
Exemple 5.1 (Chaı̂nes de Markov à deux états) Considérons une machine qui au début
de chaque jour est soit en état de fonctionnement (état 1) soit en panne (état 0). On
note alors Xn = 1 si la machine fonctionne au début du n-ème jour, Xn = 0 sinon. On
suppose que si la machine est en panne le n-ème jour, la probabilité qu’elle soit réparée et
fonctionne au début du (n + 1)-ème jour est p ∈]0, 1[. On suppose aussi que si la machine
fonctionne le n-ème jour, la probabilité qu’un problème survienne et qu’elle soit en panne
au début du (n + 1)-ème jour est q ∈]0, 1[. (Attention, avec ces notations, il n’y a pas de
raison que p + q = 1 comme c’est souvent le cas.) Enfin, on décrit par µ0 = (µ0 (0), µ0 (1))
84
Chapitre 5. ©JCB – M1math – Université de Rennes 85
l’état initial de la machine, ie. µ0 (0) est la probabilité que la machine soit en panne au
début du 0-ème jour et µ0 (1) la probabilité qu’elle fonctionne (ou encore : X0 ∼ µ0 ). Le
modèle se réécrit
1−p 0 1 1−q
q
Si p = q = 1, alors il est facile de voir que le système est périodique de période 2 avec
ie. X2n ∼ µ0 et X2n+1 ∼ 1 − µ0 . Dans ce cas, (Xn )n≥0 ne converge pas en loi.
Enfin, si p = q = 0 et on a facilement P(Xn = 0) = µ0 (0) et P(Xn = 1) = µ0 (1) et le
système n’évolue donc pas, la loi reste donnée en tout temps par µ0 et donc à la limite
aussi : Xn ∼ µ0 pour tout n ≥ 0.
Observons qu’on peut aussi obtenir les probabilités limites p/(p + q) et q/(p + q) autre-
ment : si on choisit µ0 (0) et µ0 (1) de façon que P(Xn = 0) et P(Xn = 1) ne dépendent
pas de n alors on constate dans les expressions de P(Xn = 0) en (5.1) et P(Xn = 1) en
(5.2) que nécessairement
q p
µ0 (0) = , µ0 (1) = (5.3)
p+q p+q
et dans ce cas si la chaı̂ne (Xn )n≥0 démarre avec la distribution donnée par (5.3), on a
pour tout n ≥ 0 :
q p
P(Xn = 0) = , P(Xn = 1) = .
p+q p+q
La distribution (5.3) s’interprète comme une distribution stationnaire (ou invariante) et
on constate donc que les distributions limite et stationnaire coı̈ncident.
Approche matricielle
Le modèle se représente aussi matriciellement en notant µn = P(Xn = 0), P(Xn = 1)
et
1−p p
P = .
q 1−q
La formule des probabilités totales (1.3) s’écrit
Pour calculer P n , on observe que le spectre de P est Sp(P ) = {1, 1 − p − q} avec les
espaces propres R2 = Vect (1, 1)t ⊗ Vect (p, −q)t . On en déduit la matrice de passage
A et son inverse
1 p −1 1 q p
A= et A = .
1 −q p + q 1 −1
On a donc
1 0
P =A A−1
0 1−p−q
et
1 0
P n
= A A−1
0 (1 − p − q)n
Chapitre 5. ©JCB – M1math – Université de Rennes 87
(1 − p − q)n
1 q p p −p
= + .
p+q q p p+q −q q
Définition 5.2 (Noyau de transition) Étant donné deux espaces mesurables (E, E) et
(F, F), on appelle noyau de transition (ou noyau de probabilité ou noyau markovien)
de E dans F toute application ν : E × F → [0, 1] qui vérifie
(i) ∀x ∈ E, ν(x, ·) est une probabilité sur (F, F) ;
(ii) ∀A ∈ F, ν(·, A) est E-mesurable.
Remarque 5.4
— Dire qu’une matrice P (à coefficients positifs) est stochastique, c’est dire que
(1, . . . , 1)t est vecteur propre de P associé à la valeur propre 1.
— Si l’espace E est fini de cardinal d, on peut supposer sans perte de généralité que
E = {1, . . . , d} et alors (P (x, y))x,y∈E = (Px,y )x,y∈E est une « vraie » matrice de
taille d × d, à coefficients positifs dont les sommes des lignes valent toutes 1.
— Dans le cas où l’ensemble E est dénombrable les notions de noyau de transition
et de matrice stochastique sont équivalentes. Ainsi :
P
(i) Si P est une matrice stochastique, ν(x, A) = y∈A P (x, y) définit un noyau
de transition ;
(ii) Si ν est un noyau de transition, P (x, y) = ν x, {y} définit une matrice sto-
chastique.
En particulier, noter que pour chaque x ∈ E : P (x, •) est une loi de probabilité.
Chapitre 5. ©JCB – M1math – Université de Rennes 88
Quelques notations :
— Si f : E → R+ , on note P f la fonction de E dans R+ donnée par
X
P f (x) = P (x, y)f (y), x ∈ E.
y∈E
On voit facilement que P Q est une matrice stochastique puisque pour tout x ∈ E :
X XX XX
(P Q)(x, y) = P (x, z)Q(z, y) = P (x, z)Q(z, y)
y∈E y∈E z∈E z∈E y∈E
X X
= P (x, z) Q(z, y) = 1.
z∈E y∈E
| {z }
=1
Définition 5.5 (Chaı̂ne de Markov) On appelle chaı̂ne de Markov sur un espace d’états
E dénombrable toute suite de variables aléatoires (Xn )n∈N à valeurs dans E telle que les
lois conditionnelles vérifient pour tout n ≥ 0
On dit que la chaı̂ne de Markov est homogène s’il existe une matrice stochastique P telle
que L(Xn+1 |Xn ) = P (Xn , •) ou P Xn+1 = y |Xn = xn ) = P (xn , y), dans ce cas, (5.7) et
(5.8) se réécrivent
présent
z}|{
X0 , . . . , Xn−1 , Xn , Xn+1 , Xn+2 , . . .
| {z } | {z }
passé futur
c’est à dire avec un noyau de transition P (n) qui dépend de n ; on parlerait alors
de chaı̂ne de Markov inhomogène.
puisque {Xn+1 = y} ⊥
⊥ {X0 = x0 , . . . , Xn = x} et de même
...
...
... µ(y)
µ(x)
µ(y)
x y
µ(x)
Exemple 5.8 (Marche aléatoire sur Zd ) Soit (Xn )n≥0 une suite de variables aléatoires
indépendantes et identiquement distribuées à valeurs entières de distribution f (ie.
P(X1 = x) = f (x)). On considère une variable aléatoire X0 de loi µ0 indépendante
de la suite (Xn )n≥0 et on note Sn = X0 + X1 + · · · + Xn . La suite (Sn )n≥0 est appelée
une marche aléatoire : S0 = X0 est la position initiale d’un marcheur et Xn est le pas
effectué à la date n qui l’amène à sa position Sn à la date n. C’est une chaı̂ne de Markov
d’espace d’états E = N et de noyau de transition P (x, y) = f (y − x) car
P(Sn+1 = y|S0 = x0 , S1 = x1 , . . . , Sn = x) = P(Xn+1 = y − x|S0 = x0 , S1 = x1 , . . . , Sn = x)
= P(Xn+1 = y − x) = f (y − x).
De même
P(Sn+1 = y|Sn = x) = P(Xn+1 = y − x|Sn = x) = P(Xn+1 = y − x) = f (y − x).
On a aussi la probabilité d’une trajectoire jusqu’à la date n :
P(S0 = x0 , . . . , Sn = xn ) = P(X0 = x0 , X1 = x1 − x0 , . . . , Xn = xn − xn−1 )
= P(X0 = x0 )P(X1 = x1 − x0 ) . . . P(Xn = xn − xn−1 )
= µ0 (x0 )f (x1 − x0 ) . . . f (xn − xn−1 ).
f (y − x)
... x y ...
f (x − y)
On peut considérer le cas spécial d’une marche simple sur Z avec f (1) = p, f (−1) = q
et f (0) = r avec p + q + r = 1 (le marcheur fait un pas sur la droite (+1) ou sur la
gauche (−1) ou reste sur place (0) avec probabilités respectives p, q, r). Dans ce cas, les
transitions sont gouvernées par
p si y = x + 1
q si y = x − 1
P (x, y) =
r si y = x
0 sinon.
Chapitre 5. ©JCB – M1math – Université de Rennes 91
p p p p p p
r 0 1 ... x−1 x x+1 ...
q
q r q q q q r
r r
r r
Exemple 5.9 (Marche aléatoire sur un graphe) On se donne un graphe au plus dénom-
brable (E, A) où E désigne l’ensemble des sommets et A celui des arêtes. On note Ax
l’ensemble des arêtes issues de x ∈ E. On suppose que pour tout x ∈ E, Ax est fini et
non vide. On pose alors
1/card(Ax ) si (x, y) ∈ A
P (x, y) =
0 sinon.
Une chaı̂ne de Markov de transition P est appelée marche aléatoire simple sur le graphe
(E, A).
Noter qu’en une étape la chaı̂ne d’Ehrenfest ne peut passer de l’état x ̸∈ {0, d} qu’à
l’état x − 1 ou x + 1 tandis que 0 mène à 1, d à d − 1.
1 (d − 1)/d (d − x + 1)/d (d − x)/d 1/d
Exemple 5.11 (Ruine du joueur) On considère un joueur qui commence une partie avec
un capital en euro (=C) et fait une série de paris de 1 =
C. On suppose qu’il a une probabilité
p de gagner chaque pari, q = 1 − p de le perdre et que si son capital atteint 0 alors il
est ruiné et doit arrêter. On note Xn son capital après le n-ème pari. C’est une chaı̂ne
de Markov avec 0 comme état absorbant, d’espace d’états E = N et de fonction de
transition donnée par P (0, 0) = 1 (et P (0, y) = 0 pour y > 0) et si x > 0
q si y = x − 1
P (x, y) = P(Xn+1 = y|Xn = x) = p si y = x + 1
0 sinon.
p p p p p
q
1 0 1 ... x−1 x x+1 ...
q q q q q
Démonstration :[Prop. 5.13] Si (Xn )n≥0 est une chaı̂ne de Markov de noyau de transi-
tion P alors l’identité (5.9) s’obtient par une récurrence immédiate : en effet, la récurrence
est automatiquement initialisée pour n = 0 ; puis si (5.9) est vraie pour le rang n alors
d’abord lorsque P X0 = x0 , X1 = x1 , . . . , Xn = xn ̸= 0 on a :
P(X0 = x0 , X1 = x1 , . . . , Xn = xn , Xn+1 = xn+1 )
Chapitre 5. ©JCB – M1math – Université de Rennes 93
= P X0 = x0 , X1 = x1 , . . . , Xn = xn P Xn+1 = xn+1 |X0 = x0 , X1 = x1 , . . . , Xn = xn
= P X0 = x0 , X1 = x1 , . . . , Xn = xn P (xn , xn+1 )
= P(X0 = x0 )P (x0 , x1 ) . . . P (xn+1 , xn )P (xn , xn+1 ) (hyp. récurrence (5.9) pour n).
Puis lorsque P X0 = x0 , X1 = x1 , . . . , Xn = xn ) = 0 alors d’une part
P(X0 = x0 )P (x0 , x1 ) . . . P (xn+1 , xn ) = 0
donc P(X0 = x0 )P (x0 , x1 ) . . . P (xn+1 , xn )P (xn , xn+1 ) = 0 et d’autre part
P X0 = x0 , X1 = x1 , . . . , Xn = xn , Xn+1 = xn+1 = 0,
si bien que (5.9) reste vraie, ce qui achève d’établir complètement (5.9) par récurrence.
Réciproquement, si (5.9) est vraie pour tout n ≥ 0 alors pour x0 , x1 , . . . , xn ∈ E tels que
P(X0 = x0 , X1 = x1 , . . . , Xn = xn ) ̸= 0, on a
P Xn+1 = xn+1 |X0 = x0 , X1 = x1 , . . . , Xn = xn
P X0 = x0 , X1 = x1 , . . . , Xn = xn , Xn+1 = xn+1
=
P X0 = x0 , X1 = x1 , . . . , Xn = xn
P(X0 = x0 )P (x0 , x1 ) . . . P (xn−1 , xn )P (xn , xn+1 )
=
P(X0 = x0 )P (x0 , x1 ) . . . P (xn−1 , xn )
= P (xn , xn+1 )
et donc la Définition 5.5 d’une chaı̂ne de Markov est bien satisfaite. □
Proposition 5.15 (1) Soit (Xn )n≥0 une chaı̂ne de Markov sur E de noyau de transi-
tion P . Alors, pour tout n ≥ 0 et f : E → R, on a
E f (Xn+1 ) |X0 , . . . , Xn = E f (Xn+1 )|Xn = P f (Xn ).
(2) Plus généralement, pour tout i1 , . . . , ik ∈ {0, . . . , n − 1}, on a
E f (Xn+1 )|Xi1 , . . . , Xik , Xn = E f (Xn+1 ) |Xn = P f (Xn ).
Démonstration : (1) Comme l’espérance conditionnelle est l’espérance par rapport à la
conditionnelle (cf. (1.13)), d’après la Définition 5.5, on a
X
E f (Xn+1 )|X0 , . . . , Xn = E f (Xn+1 )|Xn = P (Xn , y)f (y) = P f (Xn ).
y∈E
Transition en n étapes
Le noyau de transition en n étapes donne, pour tout x, y ∈ E, la probabilité d’aller
de x en y en n étapes ie. Pn (x, y) = P(Xn = y|X0 = x). Il est donné par
Pn = P n (5.10)
où pour rappel P n est la puissance n-ème de P , dans le sens du produit matriciel (5.4),
cf. (5.6)).
En effet P0 (x, y) = δx (y), P1 (x, y) = P (x, y) et pour n ≥ 2, avec la partition
G
{Xn = y} = X1 = x1 , X2 = x2 , . . . , Xn−1 = xn−1 , Xn = y ,
x1 ∈E,...,xn−1 ∈E
□
Remarque 5.17 (Semi-groupe) — La formule de Chapman-Kolmogorov (5.12) montre
que Pn est la puissance n-ème de P en terme de produit matriciel : Pn = P n . On
utilise indifféremment l’une ou l’autre notation dans la suite.
— Dans le cas E espace d’états fini, il s’agit de vraies matrices et de vrais produits
matriciels. Dans le cas E dénombrable, il s’agit d’une généralisation naturelle aux
matrices infinies.
Expressions explicites
La proposition suivante donne des expressions explicites pour les calculs de lois jointes
conditionnelles :
Proposition 5.18 (Lois jointes d’une chaı̂ne de Markov) Pour une chaı̂ne de Markov (Xn )n≥0
d’espace d’états E (dénombrable) et de noyau de transition P , en supposant les probabi-
lités conditionnelles bien définies, on a
(1) Pour x0 , . . . , xn−1 , xn et y1 , . . . , ym dans E on a :
P(Xn+1 = y1 , . . . , Xn+m = ym |X0 = x0 , . . . , Xn−1 = xn−1 , Xn = xn )
= P (xn , y1 )P (y1 , y2 ) . . . P (ym−1 , ym ); (5.13)
En particulier, on a
P Xn+m = ym |X0 = x0 , . . . , Xn = xn = P Xn+m = ym |Xn = xn = Pm (xn , ym );
(5.14)
Chapitre 5. ©JCB – M1math – Université de Rennes 96
Lorsque P(A|Bi) = α pour tout i ∈ I, la formule des probabilités totales (1.3) avec
F
PB ig(· i∈I Bi = P i∈I Bi , on a
F
G X
P A Bi = PFi∈I Bi (A|Bi )PFi∈I Bi (Bi )
i∈I i∈I
X G
= P(A|Bi )P Bi Bi
i∈I i∈I
X G
= α P Bi | Bi = α.
i∈I i∈I
| {z }
=1
Démonstration :[Prop. 5.18] (1) Les lois jointes conditionnelles sont données par :
qu’on peut réécrire sous la forme (5.13). Le cas particulier (5.14) s’obtient alors en faisant
la somme sur y1 , . . . , yp−1 ∈ E et avec la définition (5.11) de Pm et la définition (5.8)
d’une chaı̂ne de Markov.
(2) On écrit la partition
G
X0 ∈ A0 , . . . , Xn−1 ∈ An−1 , Xn = xn } = X0 = x0 , . . . , Xn−1 = xn−1 , Xn = xn .
xi ∈Ai
0≤i≤n−1
Approche récursive
Pour montrer qu’une suite de variables aléatoires à valeurs dans E est une chaı̂ne de
Markov, la proposition suivante est souvent plus pratique que de revenir à la Défini-
tion 5.5.
Proposition 5.20 (Suite récursive et Markov) Soit X0 une variable aléatoire à valeurs
dans E de loi ν. Soit (Un )n≥0 une suite de variables aléatoires indépendantes et identi-
quement distribuées de loi µ à valeurs dans F , indépendantes de X0 . Pour une fonction
f : E × F → E mesurable, on définit par récurrence
Xn+1 = f Xn , Un+1 , n ≥ 0. (5.18)
Chapitre 5. ©JCB – M1math – Université de Rennes 98
où U ∼ µ.
En fait, la forme récursive (5.18) de la Prop. 5.20 est la forme typique d’une chaı̂ne de
Markov comme le justifie le résultat suivant :
Proposition 5.22 (Markov et suite récursive) Une chaı̂ne de Markov homogène à va-
leurs réelles peut être vue (en loi) comme une suite récurrente définie comme dans
(5.18).
La preuve de cette proposition repose sur le lemme suivant sur lequel se fonde la méthode
dite d’inversion (voir [Bre-proba]) :
Lemme 5.23 (Méthode d’inversion) Soit µ une loi de probabilité de fonction de ré-
partition F . On pose F −1 (u) = inf(x ∈ R : F (x) > u) pour u ∈]0, 1[. Alors pour
U ∼ U(]0, 1[), on a F −1 (U ) ∼ µ.
Chapitre 5. ©JCB – M1math – Université de Rennes 99
Démonstration :[Proposition 5.22] Soit (Xn )n≥0 une chaı̂ne de Markov homogène de
transition P . Il s’agit de trouver f et U1 telles que X1 = f (x, U1 ) si X0 = x. La loi de X1
est P (x, ·). Soit U1 une variable aléatoire de loi uniforme sur ]0, 1[ indépendante de X0
et f (x, ·) l’inverse généralisé de la fonction de répartition de X1 sachant X0 = x donnée
par
f (x, u) = inf y ∈ R : P (x, ] − ∞, y]) > u , u ∈]0, 1[.
Alors f (x, U1 ) a la même loi que L(X1 |X0 = x) (par la méthode d’inversion du Lemme 5.23).
Considérons (Ui )i≥1 des variables aléatoires indépendantes et identiquement distribuées
de loi uniforme sur ]0, 1[ et indépendantes de X0 . On définit la chaı̂ne (X en )n≥0 par la
récurrence (5.18) : X en+1 = f X en , Un+1 avec f comme ci-dessus et avec X e0 ∼ µ0 . Soit
Pe sa matrice stochastique. Par la Prop. 5.20, on a
Pe(x, y) = P f (x, U1 ) = y = P (x, y).
Exemple 5.24 (Urne de Ehrenfest) On reprend l’Exemple 5.10 pour lequel on a Xn+1 =
Xn + Yn+1 où
X
dn si x = −1
d−Xn Xn d − Xn
P(Yn+1 = x|Xn ) = d
si x = +1 ⇐⇒ L(Yn+1 |Xn ) = δ−1 + δ1 .
d d
0 sinon
Temps d’atteinte
Une notion utile dans les calculs de loi pour les chaı̂nes de Markov est celle de temps
d’atteinte :
Définition 5.25 (Temps d’atteinte) Soit A ⊂ E. Le temps d’atteinte de A est TA =
min(n ≥ 0 : Xn ∈ A) avec par convention min ∅ = +∞.
Le temps d’atteinte TA est la première date où la chaı̂ne atteint A. En particulier,
pour un état y, on définit Ty = min(n ≥ 0 : Xn = y) le temps d’atteinte de y et
Tey = min(n > 0 : Xn = y) le temps d’atteinte de y après le départ. Sous Px pour x ̸= y
(ie. lorsque la chaı̂ne part de x ̸= y), on a Tey = Ty . Sous Py , Ty = 0 et Tey désigne le
temps de premier retour pour la chaı̂ne qui part de y.
La proposition suivante donne une équation utile reliant les temps d’atteinte aux proba-
bilités de transition.
Chapitre 5. ©JCB – M1math – Université de Rennes 100
□
Noter encore la relation Px (Ty = 1) = Px (X1 = y) = P (x, y) et
X X
Px (Ty = 2) = Px (X1 = z, X2 = y) = P (x, z)P (z, y).
z̸=y z̸=y
Lemme 5.28 (Poisson/Bernoulli) Soit X une variable aléatoire à valeurs dans [0, 1] avec
la décomposition (5.22). Alors X est de loi uniforme U[0, 1] si et seulement si les va-
riables aléatoires εn := εn (X), n ≥ 1, sont indépendantes et identiquement distribuées
de loi de Bernoulli b(1/2).
où [x] désigne la partie entière de x. On suppose que les εk sont indépendantes et iden-
tiquement distribuées de loi de Bernoulli b(1/2) et on calcule la fonction caractéristique
de X :
" +∞
# " n
# " n
#
X εk X εk X εk
φ(t) = E exp i k
t = E lim exp i k
t = lim E exp i t
k=1
2 n→+∞
k=1
2 n→+∞
k=1
2k
(convergence dominée)
n n k n
Y t Y 1 + eit/2 Y k+1
t
= lim φε1 k = lim = lim eit/2 cos k+1
n→+∞
k=1
2 n→+∞
k=1
2 n→+∞
k=1
2
+∞ +∞ +∞
X it Y t
it/2
Y t
= exp k+1
cos k+1
= e cos k+1
.
k=1
2 k=1
2 k=1
2
Qn
Mais de sin t = 2 cos(t/2) sin(t/2), on déduit sin(t/2) = 2n k=1 cos t/2k+1
×sin t/2n+1
et donc
+∞
Y t sin(t/2) 2 sin(t/2) eit/2 − e−it/2
cos = lim = = .
k=1
2k+1 n→+∞ 2n sin t/2n+1 t it
On a alors
eit/2 − e−it/2 eit − 1
φX (t) = eit/2 = ,
it it
Chapitre 5. ©JCB – M1math – Université de Rennes 102
Lemme 5.29 (Suite de variables uniformes iid) L’espace de probabilité ([0, 1[, B([0, 1[), λ),
où λ est la mesure de Lebesgue sur [0, 1[, supporte une suite (Un )n≥0 de variables aléa-
toires uniformes indépendantes et identiquement distribuées.
Démonstration : Par le Lemme 5.28, ω ∈ [0, 1[ s’écrit en base 2 sous la forme (5.22) avec
εn := εn (ω) ∈ {0, 1}, n ≥ 1, indépendantes et de loi b(1/2).
On considère une injection φ de N × N dans N et on pose ηi,j = εφ(i,j) . Les variables aléa-
toires P
ηi,j restent indépendantes et identiquement distribuées de loi b(1/2). On pose alors
Ui = +∞ j=1 ηi,j 2
−j
et on observe par le théorème des coalitions ([Bre-proba, Th. 5.1.1])
que les variables aléatoires U0 , U1 , . . . sont (mutuellement) indépendantes, de loi uni-
forme sur [0, 1[ (Lemme 5.28). □
Proposition 5.30 (Construction d’une chaı̂ne de Markov) Soit E un espace au plus dé-
nombrable et P = (P (x, y))x,y∈E une matrice stochastique. On peut trouver un espace de
e F,
probabilité Ω, e sur lequel il existe pour tout x ∈ E une suite X ex
n n≥0 qui est une
e P
chaı̂ne de Markov de transition P et qui est issue de Xe x = x (ie. µ0 = δx ).
0
Démonstration : On considère l’espace de probabilité Ω, e F,
e Pe = ([0, 1[, B([0, 1[), λ) et
la suite de variables aléatoires (Ui )i≥1 indépendantes et de loi U[0, 1] construites dans le
Lemme 5.29. Soit (yn )n≥1 une énumération des éléments de E (supposé dénombrable).
On pose X e0x = x puis
X X
Xe x = yk si P (x, yj ) < U1 ≤ P (x, yj )
1
1≤j<k 1≤j≤k
.. ..
. .
X X
e x = yk
X si e x , yj ) < Un+1 ≤
P (X e x , yj ).
P (X
n+1 n n
1≤j<k 1≤j≤k
Chapitre 5. ©JCB – M1math – Université de Rennes 103
Par construction, on a P enx = y X
e X x
en−1 = z = P (z, y) pour chaque n ≥ 1.
e x = x est sûr
En effet, pour n = 1 : comme X 0
e x = yk |X
e X
P e x = x) = P e x = yk )
e X
1 0 1
!
X X
= P P (x, yj ) < U1 ≤ P (x, yj )
1≤j<k 1≤j≤k
X X
= P (x, yj ) − P (x, yj ) = P (x, yk ).
1≤j≤k 1≤j<k
x
en utilisant X e1x = x1 , . . . , X
e 0 = x0 , X enx = xn ∈ σ(U1 , . . . , Un ) ⊥
⊥ Un+1 pour se débar-
rasser du conditionnement en (5.23). Ainsi par la Définition 5.5, X enx est bien une
n≥0
chaı̂ne de Markov issue de x et de matrice stochastique P . □
Dans la Prop. 5.30, le choix de l’espace de probabilité ([0, 1[, B([0, 1[), λ) fait dans sa
preuve est un peu arbitraire. On considère un espace vraiment canonique en prenant :
— Ω = E N,
— F est la tribu cylindrique σ(Cyl) engendrée par la famille Cyl des cylindres
C = ω ∈ E N : ωi1 = xi1 , . . . , ωin = xin (5.24)
Lemme 5.31 La tribu cylindrique σ(Cyl) est la plus petite tribu rendant mesurables les
applications coordonnées Xn , n ≥ 0.
Tn
— Soit C ∈ Cyl comme en (5.24). Comme C = p=1 Xi−1
p
({xip }), on a C ∈ G et
donc Cyl ⊂ G et σ(Cyl) ⊂ G.
□
La suite s’applique avec tout espace de probabilité Ω, e F, e vérifiant la Prop. 5.30.
e P
D’après la preuve de cette proposition, ([0, 1[, B([0, 1[), λ) convient mais tout autre es-
pace vérifiant la proposition ferait l’affaire. On rappelle que, ci-dessous, (Ω, F) désigne
(E N , σ(Cyl)).
Lemme 5.32 Soit ψ : Ω, e Fe → (Ω, F). Alors ψ est mesurable si et seulement si Xn ◦ ψ
est mesurable pour tout n ≥ 0.
Par la première construction de la Prop. 5.30, pour chaque n ≥ 0, Xn ◦ ψx = Xnx est une
variable aléatoire. Le Lemme 5.32 assure alors que ψx est une application mesurable. On
définit alors
Px = Pe ◦ ψ −1 (5.25)
x
Chapitre 5. ©JCB – M1math – Université de Rennes 105
e ψ −1 (C0 ) = P e X x = x = 1.
e (X x )n≥0 ∈ C0 = P
Px (X0 = x) = Px (C0 ) = P x n 0
e ψ −1 (Cn ) = P e (X x )n≥0 ∈ Cn
P x X 0 = x0 , . . . , X n = xn = Px (Cn ) = P x n
e X x = x0 , X x = x1 , · · · , X x = xn
= P 0 1 n
e X x = x0 P (x0 , x1 ) . . . P (xn−1 , xn )
= P 0 (5.26)
= δx,x0 P (x0 , x1 )P (x1 , x2 ) . . . P (xn−1 , xn ) (5.27)
en utilisant la Prop. 5.13 pour la chaı̂ne de Markov (Xnx )n≥0 en (5.26). D’après cette
même Prop. 5.13, (5.27) assure que sous Px , (Xn )n≥0 est une chaı̂ne de Markov de
matrice stochastique P , et par construction, elle part de x.
Existence dans le cas général. Étant donné une loi ν sur E, on considère
X
Pν = ν(x) Px . (5.28)
x∈E
P
Comme x∈E ν(x) = 1, Pν définit bien une probabilité sur (Ω, F) = (E N , σ(Cyl)). De
plus d’après (5.27), on a
X
P ν X 0 = x0 , . . . , X n = xn = ν(x)Px X0 = x0 , . . . , Xn = xn
x∈E
X
= ν(x)δx,x0 P (x0 , x1 )P (x1 , x2 ) . . . P (xn−1 , xn )
x∈E
= ν(x0 ) P (x0 , x1 )P (x1 , x2 ) . . . P (xn−1 , xn ), (5.29)
Définition 5.34 (Loi d’une chaı̂ne de Markov) La loi d’une chaı̂ne de Markov homogène
sur E de matrice de stochastique P et de loi initiale ν est l’unique probabilité Pν sur
(E N , σ(Cyl)) du Th. 5.33.
Chapitre 5. ©JCB – M1math – Université de Rennes 106
Remarque 5.35 Si (Xn′ )n≥0 est une chaı̂ne de Markov de loi initiale ν, de matrice sto-
′
chastique P alors pour tout B ∈ F = σ(Cyl) : P (Xn )n≥0 ∈ B = Pν (B). Les résultats
en loi obtenus pour la chaı̂ne canonique se transposent donc à toute chaı̂ne de Markov
de même matrice de stochastique P et de même loi initiale ν.
Prop. 2.4. Pour prouver (5.31), on commence par observer que EXn [G] est σ(Xn ) donc
Fn -mesurable en tant que composée de Xn et de x ∈ E 7→ Ex [G]. Ensuite, on établit
E 1A G ◦ Θn = E 1A EXn [G] , ∀A ∈ Fn . (5.33)
pour p ∈ N, y0 , . . . , yp ∈ E. Pour y ∈ E, on a
Ey [G] = Ey 1{X0 =y0 ,...,Xp =yp }
= Py (X0 = y0 , . . . , Xp = yp )
= 1{y0 =y} P (y0 , y1 ) . . . P (yp−1 , yp ). (5.35)
A = {X0 = x0 , . . . , Xn = xn } (5.36)
ce qui prouve bien (5.33) pour G = 1B avec (5.34) et A ∈ Fn donné par (5.36).
Comme la famille des cylindres Cyl est un π-système, par un argument de classe mono-
tone (Th. 0.2), on étend (5.32) de A comme en (5.36) à A ∈ Fn . En effet,
M1 = A ∈ F : Ex [1A (1B ◦ Θn )] = Ex 1A EXn [1B ]
est une classe monotone (linéarité de E et convergence monotone). Comme (5.33) est
vraie pour A, B ∈ Cyl en (5.34) alors Cyl∩Fn ⊂ M1 . Puis comme Cyl∩Fn est stable par
intersection, le théorème de classes monotones (Th. 0.2) assure Fn = σ(Cyl ∩ Fn ) ⊂ M1 .
On a alors (5.33) pour tout A ∈ Fn et cela prouve (5.31) pour G = 1B , B ∈ Cyl.
Étape 2. On montre que (5.31) reste vraie pour G = 1B avec B ∈ F. On pose
M2 = B ∈ F : Ex [1A (1B ◦ Θn )] = Ex 1A EXn [1B ] ∀A ∈ Fn .
Chapitre 5. ©JCB – M1math – Université de Rennes 108
Il s’agit de nouveau d’une classe monotone, et, qui contient Cyl, par l’Étape 1. Comme
Cyl est stable par intersection, le théorème de classes monotones (Th. 0.2) assure encore
F = σ(Cyl) ⊂ M2 et on a alors (5.33) pour tout A ∈ Fn et G = 1B , B ∈ F, ce qui
prouve (5.31) pour G = 1B , B ∈ F.
Étape 3. Enfin, par les arguments usuels de théorie de la mesure (linéarité pour passer
aux fonctions simples, convergence monotone pour passer aux fonctions mesurables posi-
tives, parties positive et négative pour traiter le cas de fonctions de signes quelconques),
on étend encore (5.31) aux fonctions F-mesurables G pour lesquelles les espérances sont
bien définies.
Finallement, lorsque (5.31) est vraie pour Ex , on la déduit immédiatement pour Eν par
sommation à partir de (5.30) :
X X
Eν G ◦ Θn |Fn = ν(x)Ex G ◦ Θn |Fn = ν(x)EXn [G] = EXn [G].
x∈E x∈E
Théorème 5.37 (Markov fort) Soit T un temps d’arrêt de la filtration naturelle (Fn )n≥0
de la chaı̂ne de Markov (Xn )n≥0 . Alors pour toute fonction mesurable G : Ω → R positive
ou bornée, on a :
Ex 1{T <+∞} G ◦ ΘT |FT = 1{T <+∞} EXT [G]. (5.37)
De manière équivalente, pour toute fonction FT -mesurable F : Ω → R positive ou bornée,
on a :
Ex 1{T <+∞} F × (G ◦ ΘT ) = Ex 1{T <+∞} F EXT [G] . (5.38)
De nouveau, (5.37) et (5.38) restent vrais si on y remplace Ex par Eν , pour toute loi ν
sur E.
Démonstration : D’abord, on observe que 1{T <+∞} EXT [G] est FT -mesurable. En effet
pour tout borélien B
[
1{T <+∞} EXT [G] ∈ B ∩ {T ≤ n} = {EXk [G] ∈ B} ∩ {T = k} ∈ Fn
k≤n
La situation la plus intéressante du Th. 5.37 est lorsqu’on sait que T est fini p.s. :
Corollaire 5.38 Soit T un temps d’arrêt tel que Px (T < +∞) = 1. On suppose qu’il
existe y ∈ E tel que Px (XT = y) = 1. Alors sous Px , ΘT est indépendante de FT et a
pour loi Py , ce qu’on peut écrire :
FT ⊥
⊥Px ΘT ∼ Py .
soit FT ⊥
⊥Px ΘT . □
Remarque 5.39 (Propriétés de Markov sous Pν ) Les propriétés de Markov faibles (5.31),
(5.32) du Théorème 5.36 et fortes (5.37), (5.38) du Théorème 5.37 restentPvraies si on
remplacePEx par Eν pour toute loi initiale ν. En effet, on rappelle que Pν = x∈E ν(x)Px
et Eν = x∈E ν(x)Ex , cf. 5.28). Ainsi en sommant convenablement par exemple l’égalité
(5.38) on obtient
Eν F × (G ◦ ΘT ) = Eν F EXT [G] . (5.41)
De même pour (5.31), (5.32) et (5.37) et pour le Corollaire 5.38 qui restent vrais pour
Pν à la place de Px .
Chapitre 5. ©JCB – M1math – Université de Rennes 110
La propriété de Markov justifie également que, pour une chaı̂ne de Markov, passé et
futur sont indépendants sachant le présent :
Corollaire 5.41 (Passé, présent, futur) Soit n ≥ 1 et A ∈ Fn et B ∈ σ(Xk : k ≥ n)
alors
P(A ∩ B |Xn ) = P(A |Xn ) P(B |Xn ).
De la même façon, si T est un temps d’arrêt Px -ps fini. Alors pour A ∈ FT et B ∈
{Θ−1
T (A) : A ∈ F}, on a
Remarque 5.42 Comme ΘT est mesurable, {Θ−1 T (A) : A ∈ F} est une tribu qui contient
les évènements réalisés après T . C’est la façon correcte d’écrire σ(Xk : k ≥ T ) puisque
les évènements typiques en sont {(X1 , . . . , Xn ) ◦ ΘT ∈ B} = {(XT +1 , . . . , XT +n ) ∈ B}
pour tout B ∈ σ(Cyl).
Px (A ∩ B|Xn ) = Px (A ∩ Θ−1 ′
n (B )|Xn ) = Ex 1A 1B ′ ◦ Θn |Xn
= Ex Ex [1A 1B ′ ◦ Θn |Fn ] |Xn
(conditionnement en cascade du Th. 2.12)
= Ex 1A Ex [1B ′ ◦ Θn |Fn ] |Xn
= Ex Ex [1A EXn [1B ′ ] |Fn ] |Xn
(par la propriété de Markov (5.31))
= Ex [1A |Xn ] EXn [1B ′ ]
= Px (A|Xn ) PXn (B ′ ). (5.43)
Avec A = Ω, (5.43) donne P(B|Xn ) = PXn (B ′ ), ce qu’en ré-injectant dans (5.43) donne
Récurrence et transience
Introduction et notations
Exemple 6.1 Sur l’espace E = {1, 2, 3, 4, 5, 6}, on considère une chaı̂ne de Markov de
matrice de transition
1/2 1/2 0 0 0 0
0 0 1 0 0 0
1/3 0 0 1/3 1/3 0
P =
0 1/2 1/4 0
.
0 1/4
0 0 0 0 0 1
0 0 0 0 1 0
Le graphe associé est alors
1/3 1/3
1/2 1 3 5
2 4 6
1/2 1/4
Les états {1, 2, 3, 4} semblent visités un nombre fini de fois P1 -ps. Au contraire, {5, 6}
sont visités une infinité de fois P1 -ps.
Exemple 6.2 Sur l’espace E = {1, 2, 3, 4, 5}, on considère maintenant une chaı̂ne de
Markov de matrice de transition
1/2 0 0 0 1/2
0 1/2 0 1/2 0
P = 0 0 1 0 0 .
0 1/4 1/4 1/4 1/4
1/2 0 0 0 1/2
112
Chapitre 6. ©JCB – M1math – Université de Rennes 113
1/2 1 2
3 1
1/2 1/4
5 4
1/4
1/4
Cette fois, P2 -ps les états 2 et 4 semblent visités un nombre finis de fois, alors que {1, 5}
et {3} sont visités une infinité de fois mais ne communiquent pas.
Notations
On considère (Xn )n≥0 une chaı̂ne de Markov d’espace d’états E et de matrice sto-
chastique P . Si nécessaire, on travaille avec la chaı̂ne canonique construite dans le Théo-
rème 5.33. Dans la suite, on note Ex l’espérance par rapport à Px , c’est à dire on suppose
que la chaı̂ne part de x (ie. µ0 = δx ). Pour y ∈ E, avec la convention min ∅ = +∞, on
note
Ty = min n ≥ 0 : Xn = y (temps d’atteinte de y)
+∞
X
N (y) = 1{Xk =y} (nombre de visites en y).
k=0
On note également
Tey = min n > 0 : Xn = y (temps d’atteinte de y)
+∞
X
N (y) =
e 1{Xk =y} (nombre de visites de y après le départ).
k=1
Chapitre 6. ©JCB – M1math – Université de Rennes 114
Les variables aléatoires Ty et Tey sont des temps d’arrêt pour la filtration canonique
associée à la chaı̂ne de Markov (Xn )n≥0 , cf. 2 dans l’Exemple 3.9.
On a les liens suivants selon le point de départ de la chaı̂ne :
— sous Px , avec x ̸= y : Tey = Ty est le temps d’atteinte de y et N e (y) = N (y) ;
— sous Py : Tey > 0 = T (y) est le temps de retour de la chaı̂ne en y et N e (y) =
N (y) − 1 ;
On note également ρx,y = Px Tey < +∞ la probabilité que partant de x ∈ E la chaı̂ne
puisse arriver en temps fini en y ∈ E. En particulier, ρx,x est la probabilité que la chaı̂ne
partant de x finisse par y revenir.
(0)
Enfin, par récurrence, on définit les temps de retours successifs en y ∈ E avec Ty = 0
(convention) et pour k ≥ 1 :
(k−1) (k)
— Observer que, par (6.1) ou par (6.2), lorsque Ty = +∞ alors Ty = +∞ aussi.
(k−1) (k)
— Lorsqu’ il est fini, l’intervalle de temps [Ty , Ty ] s’appelle une excursion de la
chaı̂ne entre deux visites en y.
(k)
— Les variables aléatoires Ty sont des temps d’arrêt puisque pour tout p ≥ 0 :
Définition 6.3 (Récurrence et transience) Soit (Xn )n≥0 une chaı̂ne de Markov.
— Un état x ∈ E est dit récurrent si ρx,x = Px Tex < +∞ = 1.
— Un état x ∈ E est dit transitoire (transient) si ρx,x = Px Tex < +∞ < 1.
En particulier, on appelle état absorbant tout étatx ∈ E tel que P (x, x) = 1 (Déf. ??).
Un tel état est récurrent puisque ρx,x = Px Tex = 1 = P (x, x) = 1.
Chapitre 6. ©JCB – M1math – Université de Rennes 115
Nombre de passages
Pour un état transitoire x, une chaı̂ne partant de x a une probabilité non nulle de
ne jamais y revenir alors que si l’état est récurrent, elle y reviendra une fois et donc par
récurrence, avec la propriété de Markov forte, une infinité de fois. On formalise cette
intuition dans la proposition suivante qui montre que le nombre de passages en un état
x dépend fondamentalement de sa nature récurrente ou transitoire.
Pour k ≥ 1, on a donc 1{N (x)≥k+1} = 1{Tex <+∞} 1{N (x)≥k} ◦ ΘTex Px -ps, et :
Px (N (x) ≥ k + 1) = Ex 1{N (x)≥k+1} = Ex 1{Tex <+∞} 1{N (x)≥k} ◦ ΘTex
= Ex 1{Tex <+∞} EXTex [1{N (x)≥k} ] = Px Tex < +∞ Ex 1{N (x)≥k}
(propriété de Markov forte sous la forme du Corollaire 5.38)
= ρx,x Px (N (x) ≥ k).
Px (N (x) ≥ k) = ρk−1
x,x . (6.5)
Dès lors,
— (1) lorsque x est récurrent alors ρx,x = 1 et en faisant k → +∞ par convergence
monotone, on obtient
— (2) lorsque x est transitoire alors ρx,x < 1 et (6.5) donne pour tout k ≥ 0
Lorsque la chaı̂ne part d’un état x différent de l’état y où on considère les visites de la
chaı̂ne, la Prop. 6.4 prend la forme suivante :
Proposition 6.5 (Nombre de passages en y partant de x ̸= y) Soit x, y deux états avec
x ̸= y. Sous Px (ie. lorsque la chaı̂ne part de x),
(1) Si y est récurrent (ρy,y = 1) alors partant de x, soit la chaı̂ne ne rejoint pas y
(N (y) = 0) soit elle le rejoint une fois puis alors une infinité de fois (N (y) = +∞) :
P
N (y) ∼x (1 − ρx,y )δ0 + ρx,y δ+∞ , (6.7)
Px Ty(1) = m1 , Ty(2) = m1 + m2
= Ex 1{Ty(1) =m1 } 1{Ty(2) =m1 +m2 }
h i
(2) (1) (1)
= Ex 1{Ty(1) =m1 } 1 (1) (car par (6.2) : Ty = Ty + Ty ◦ ΘTy(1) )
Ty ◦Θ (1) =m2
Ty
h i
= Ex 1{Ty(1) =m1 } EX (1) 1{Ty(1) =m2 } (par Markov fort avec le Corollaire 5.38)
Ty
= Px Tey = m1 Py Tey = m2 (car XTy(1) = y et donc EX (1) = Ey ).
Ty
On a donc
Px (N (y) ≥ 2)
Chapitre 6. ©JCB – M1math – Université de Rennes 117
+∞
X
= Px X visite y la première fois à la date m1 et n’y revient qu’en date m1 + m2
m1 ,m2 =1
+∞
X +∞ X
X +∞
Px Ty(1) m1 , Ty(2)
= = = m1 + m2 ) = Px Tey = m1 Py Tey = m2
m1 ,m2 =1 m1 =1 m2 =1
+∞
! +∞
!
X X
= Px Tey = m1 Py Tey = m2
m1 =1 m2 =1
= Px Tey < +∞ Py Tey < +∞ = ρx,y ρy,y .
En effet, pour m1 , . . . , mk ≥ 1, on a
" k
#
\ Y
Px {Ty(j) = m1 + · · · + mj } = Ex 1{Ty(j) =m1 +···+mj }
1≤j≤k j=1
" k−1
! #
Y
= Ex 1{Ty(j) =m1 +···+mj } 1{Ty(k) =m1 +···+m
k}
j=1
" k−1
! #
Y
= Ex 1{Ty(j) =m1 +···+mj } 1{Ty(1) =m ◦ ΘTy(k−1)
k}
j=1
(k) (k−1) (1)
(car par (6.2) : Ty + Ty ◦ ΘTy(k−1) )
= Ty
!
h k−1
Y i
= Ex 1{Ty(j) =m1 +···+mj } Ex 1{Ty(1) =m } ◦ ΘTy(k−1) FTy(k−1)
k
j=1
| {z }
FTy(k−1) -mesurable
(j)
(car, pour j ≤ k − 1, Ty est FTy(k−1) -mesurable)
" k−1 ! #
Y
= Ex 1{Ty(j) =m1 +···+mj } EX (k−1) 1{Ty(1) =m }
Ty k
j=1
k
Y
= Px (Ty(1) = m1 ) Py (Ty(1) = mj )
j=2
T
(j)
par hypothèse de récurrence pour Px 1≤j≤k−1 {Ty = m1 + · · · + mj } . On a alors
Px (N (y) ≥ k)
X
= Px X visite y la j-ème fois à la date m1 + · · · + mj , ∀j ∈ J1, kK
mj ≥1
1≤j≤k
X \
= Px {Ty(j) = m1 + · · · + mj }
mj ≥1 1≤j≤k
1≤j≤k
X k
Y
= Px (Ty(1) = m1 ) Py (Ty(1) = mj )
mj ≥1 j=2
1≤j≤k
!
X k
Y X
= Px (Ty(1) = m1 ) Py (Ty(1) = mj )
m1 ≥1 j=2 mj ≥1
k
Y
= Px (Ty(1) < +∞) Py (Ty(1) < +∞) = ρx,y ρy,y
k−1
,
j=2
Remarque 6.6 — Attention, dans le cas x = y, les formules (6.10) et (6.11) sont
remplacées par (6.6) dans la Proposition 6.4. La différence vient du fait que sous
Px , on a N (x) ≥ 1 puisque la chaı̂ne part de x. Il y a donc un décalage dans le
compte des passages en x dû au point de départ.
— En fait, ces formules (6.10) et (6.11) sont intuitivement claires avec la description
heuristique suivante : pour que partant de x la chaı̂ne visite m fois y, elle com-
mence à aller de x à y (facteur ρx,y ) puis visite y m − 1 fois (facteur ρy,y pour
chaque visite donc globalement ρm−1
y,y ) et n’y retourne plus (facteur 1 − ρy,y ).
Chapitre 6. ©JCB – M1math – Université de Rennes 119
(Les égalités
P ci-dessus viennent du théorème de convergence monotone et de l’expression
N (y) = k≥0 1{Xk =y} .)
La preuve du Corollaire 6.10 s’obtient des expressions explicites de G(x, y) dans le Théo-
rème 6.8. On peut aussi le prouver directement à partir de la propriété de Markov forte :
Démonstration : Soit x ̸= y. Sous Px , lorsque Ty = +∞ on a N (y) = 0 et lorsque
Ty < +∞
On a donc N (y) = N (y) ◦ ΘTy Px -ps et par la propriété de Markov forte (5.38) (sous la
forme du Corollaire 5.38), on a alors
Ex [N (y)] = Ex 1{Ty <+∞} (N (y) ◦ ΘTy ) = Ex 1{Ty <+∞} Ex (N (y) ◦ ΘTy ) FΘTy
= Ex 1{Ty <+∞} EXTy [N (y)] = Ex 1{Ty <+∞} Ey [N (y)]
= Px (Ty < +∞) Ey [N (y)]
On précise la notion de récurrence d’un état selon la durée moyenne d’un retour en cet
état.
Définition 6.11 (Récurrence
nulle et positive) Un état x récurrent
est dit récurrent po-
sitif si mx = Ex Tx < +∞. Il est dit récurrent nul si mx = Ex Tex = +∞.
e
Ainsi
— si x est récurrent positif : Tex < +∞ Px -ps et mx = Ex Tex < +∞ ;
— si x est récurrent nul : Tex < +∞ Px -ps mais mx = Ex Tex = +∞ ;
— si x
est
transitoire : Tx = +∞ avec probabilité Px positive et a fortiori mx =
e
Ex Tex = +∞.
Excursions
(k)
On rappelle que les Ty , k ≥ 0, désignent les dates de retours successifs de la chaı̂ne en
y et qu’ils sont définis en (6.1) et satisfont (6.2).
(n)
Proposition 6.14 (Indépendance des excursions) Sachant Ty < +∞ (qu’on suppose
(k) (k) (k−1)
non négligeable), les variables aléatoires ∆y = Ty − Ty , 1 ≤ k ≤ n, sont iid sous
Py .
Démonstration : Il s’agit de montrer pour des fonctions gi , 1 ≤ i ≤ n, mesurables
bornées sur R+ , on a :
" n # n
Y Y h i
(i) (n) (1)
(n)
Ey gi ∆y Ty < +∞ = Ey gi ∆y Ty < +∞ . (6.13)
i=1 i=1
(n) Pn (i)
Comme Ty = i=1 ∆y , on a
n
\
{Ty(n) < +∞} = {∆(i)
y < +∞}, (6.14)
i=1
(1) (n−1)
— les variables aléatoires ∆y , . . . , ∆y sont FTy(n−1) -mesurables,
— ΘTy(n−1) est indépendante de FTy(n−1) et de loi Py (propriété de Markov forte, Co-
rollaire 5.38),
(n) (1) (n) (n−1) (1)
— ∆y = ∆y ◦ ΘTy(n−1) ; en effet par (6.2), on a Ty = Ty + Ty ◦ ΘTy(n−1) et on
a donc
∆(n)
y = Ty
(n)
− Ty(n−1) = Ty(1) ◦ ΘTy(n−1) = ∆(1)
y ◦ ΘTy(n−1) .
Théorème 6.15 (Proportion du temps de visite) Pour tout état y ∈ E et toute loi ini-
tiale ν, on a
Nn (y) 1{Tey <+∞}
lim = Pν -ps. (6.20)
n→+∞ n my
De plus, pour tout x ∈ E, on a
Gn (x, y) ρx,y
lim = . (6.21)
n→+∞ n my
Remarque 6.16 Ces résultats se justifient heuristiquement : dès que la chaı̂ne atteint
un état y récurrent, elle revient en y en moyenne en my étapes. Donc si Tey < +∞,
et n est grand, la proportion d’étapes parmi les n premières où la chaı̂ne est en y est
d’ordre 1/my . Le résultat (6.21) vient de (6.20) en prenant l’espérance. Par ailleurs si y
est transitoire, il y a un nombre fini de visite en y donc la proportion du temps passé en
y est asymptotiquement nulle, ce qu’on retrouve avec my = +∞ dans ce cas.
Démonstration : a) On commence par considérer le cas y récurrent et une chaı̂ne de
Markov qui démarre de ce y. Avec probabilité 1, la chaı̂ne revient en y une infinité
(n)
de fois (Proposition 6.4). Comme y est récurrent, Ty est fini Py -ps pour tout n ≥ 0
(n) (k) (k) (k−1)
(Ty = 0), et la Proposition 6.14 donne que les variables aléatoires ∆y = Ty − Ty ,
k ≥ 1, (durée entre la (k − 1)-ème visite et la k-ème visite en y) sont iid. Comme
(n) (1) (n)
Ty = ∆y + · · · + ∆y , la loi des grands nombres (LGN) donne alors, Py -ps
(n) (1) (n)
Ty ∆y + · · · + ∆y
lim = lim = my . (6.22)
n→+∞ n n→+∞ n
En effet,
(1)
— si my < +∞, alors ∆y ∈ L1 et (6.22) s’obtient directement par la LGN ;
— si my = +∞, on commence par appliquer la LGN aux variables aléatoires iid
(i)
∆y ∧ a ∈ L1 où a > 0 quelconque est préalablement fixé :
(1) (n)
∆y ∧ a + · · · + ∆y ∧ a
= Ey ∆(1)
lim y ∧a .
n→+∞ n
(1) (1)
Comme ∆y ≥ ∆y ∧ a, on a
(1) (n)
∆y + · · · + ∆y
lim inf
n→+∞ n
(1) (n)
∆y ∧ a + · · · + ∆y ∧ a
≥ lim inf
n→+∞ n
(1)
= Ey [∆y ∧ a].
(1) (1)
Mais comme par convergence monotone Ey [∆y ∧ a] ↗ Ey [∆y ] = my = +∞
quand a → +∞, on a
(1) (n)
∆y + · · · + ∆y
lim = +∞,
n→+∞ n
ce qui correspond à (6.22) avec my = +∞.
Chapitre 6. ©JCB – M1math – Université de Rennes 125
(k)
Par définition de Ty et N
en (y), on a
en (y) ≥ 1)
et donc pour n assez grand (pour assurer N
(N
e (y)) (N
e (y)+1)
Ty n n Ty n
≤ < . (6.23)
N
en (y) Nen (y) N
en (y)
Mais comme N en (y) → +∞ Py -ps et (N
en (y) + 1)/Nen (y) → 1 quand n → +∞, la LGN
(6.22) donne aussi :
(N
e (y)) (N
en (y)+1)
Ty n Py −ps Ty Py −ps
−−−−→ my et −−−−→ my . (6.24)
en (y) n→+∞
N Nen (y) n→+∞
Le théorème des gendarmes, (6.23) et (6.24) assurent alors que Py -ps :
n
lim = my ,
n→+∞ N en (y)
en (y)/Nn (y) →
ce qui prouve (6.20) dans ce cas (départ de la chaı̂ne de y, récurrent) puisque N
1 quand n → +∞.
b) On suppose maintenant que la chaı̂ne part de x ̸= y. Dans ce cas, la chaı̂ne peut
ne jamais rejoindre y. Cependant si elle rejoint y, l’argument précédent s’applique et se
réécrit alors
Nn (y) 1{Tey <+∞}
lim = Px -ps.
n→+∞ n my
On a donc (6.20) Px -presque sûrement pour tout x ∈ E lorsque y est récurrent.
c) On considère y transitoire et la chaı̂ne part d’un état x quelconque. Par la Prop. 6.4 et
la Prop. 6.5, on a limn→+∞ Nn (y) = N (y) < +∞ Px -presque sûrement pour tout x ∈ E,
et donc
Nn (y)
lim =0
n→+∞ n
ce qui correspond à (6.20) dans ce cas puisque my = 0. On a donc établi (6.20) Px -ps
pour tout x ∈ E.
d) En notant que si Px (A) = 1 pour tout x ∈ E alors par la définition de Pν en (5.28),
on a : X X
Pν (A) = ν(x) Px (A) = ν(x) = 1,
x∈E x∈E
on a encore (6.20) Pν -presque sûrement pour toute loi initiale ν.
e) Pour prouver (6.21), on observe que 0 ≤ Nn (y)/n ≤ 1 puisque 0 ≤ Nn (y) ≤ n. Dés
lors, le théorème de convergence dominée permet d’obtenir (6.21) de (6.20) :
1{Tey <+∞}
Nn (y) Nn (y) Px Tey < +∞ ρx,y
lim Ex = Ex lim = Ex = = .
n→+∞ n n→+∞ n my my my
□
Chapitre 6. ©JCB – M1math – Université de Rennes 126
Définition 6.17 Étant donné deux états x, y ∈ E, on dit que x peut mener à y et on note
x ⇝ y si ρx,y = Px Tey < +∞ > 0.
Théorème 6.20 Soit x ∈ ER et y ∈ E tel que x ⇝ y (ie. G(x, y) > 0). Alors y ∈ ER
et ρy,x = Py (Tex < +∞) = 1. En particulier, y ⇝ x (ie. G(y, x) > 0) et on a même
ρx,y = 1.
Démonstration : Pour y = x, l’énoncé est immédiat (ρx,x = 1 car x ∈ ER ). On suppose
donc y ̸= x et on dispose de la Proposition 6.18.
On commence par montrer que Py (Tex < +∞) = 1. Lorsque Tey < +∞ et Tex ◦ ΘTey = +∞,
on a nécessairement N (x) ≤ Tey (puisque après Tey , il n’y a plus de visite en x), on a donc
Tey < +∞ et Tex ◦ ΘTey = +∞ ⊂ {N (x) < +∞}.
Comme x est récurrent, on a
0 = Px (N (x) < +∞) ≥ Px Tey < +∞ et Tex ◦ ΘTey = +∞
= Ex 1{Tey <+∞} (1{Tex =+∞} ◦ ΘTey ) = Ex 1{Tey <+∞} Ex (1{Tex =+∞} ◦ ΘTey )|FTey
= Ex 1{Tey <+∞} EXTey [1{Tex =+∞} ] = Ex 1{Tey <+∞} Ey 1{Tex =+∞}
(propriété de Markov forte (5.38) sous la forme du Corollaire 5.38)
= Px Tey < +∞ Py Tex = +∞ .
Comme x ⇝ y, on a ρx,y = Px Tey < +∞ > 0, et cela exige Py Tex = +∞ = 0 et donc
ρy,x = Py Tex < +∞ = 1, c’est à dire y ⇝ x.
On termine en montrant que y ∈ ER . Comme par définition (Déf. 6.7) du potentiel G :
X X
G(x, y) = P k (x, y) > 0, G(y, x) = P k (y, x) > 0,
k≥0 k≥0
Théorème 6.22 Soit x un état récurrent positif (resp. nul). Si x ⇝ y alors y est récurrent
positif (resp. nul).
Ensemble clos
Définition 6.23 (Ensemble clos) Un ensemble d’états C ⊂ E est dit clos si aucun état
de C ne peut mener à l’extérieur de C, ie. ρx,y = 0, ∀x ∈ C, y ̸∈ C ou encore pour tout
n ≥ 1, x ∈ C, y ̸∈ C, P n (x, y) = 0.
Exemple 6.24 Un état absorbant (Déf. 5.12) est un cas (très) particulier d’ensemble clos.
En fait, par récurrence on montre qu’il suffit de voir la propriété de la Définition 6.23
pour n = 1 :
Irréductibilité
Définition 6.26 (Irréductibilité) Un ensemble C clos est dit irréductible si pour tout
x, y ∈ C alors x peut mener à y (et y à x). Une chaı̂ne est dite irréductible si l’espace
d’états E entier l’est.
Proposition 6.28 Dans un ensemble clos irréductible, tous les états sont de même na-
ture : tous transitoires ou tous récurrents positifs ou tous récurrents nuls.
Démonstration : S’il existe x ∈ C récurrent positif (resp. récurrent nul) alors par le
Théorème 6.22, tous les autres états de C sont récurrents positifs (resp. récurrents nuls).
Sinon c’est que tous les états de C sont transitoires. □
En fait, on a :
(1) Soit C un ensemble clos irréductible d’états récurrents. Alors pour tout x, y ∈ C
on a ρx,y = 1, Px (N (y) = +∞) = 1 et G(x, y) = +∞.
(2) Soit C un ensemble fini d’états, clos irréductible. Alors tous les états de C sont
récurrents positifs.
(3) En particulier, une chaı̂ne irréductible sur un espace d’états fini est nécéssairement
récurrente positive.
et pour tout x ∈ C :
" # X
X Nn (y) X Nn (y) Gn (x, y)
1 = Ex = Ex = .
y∈C
n y∈C
n y∈C
n
Il existe donc y ∈ C avec my < +∞, c’est à dire y ∈ C est récurrent positif. Puis comme
y mène à tout x ∈ C (par la Déf. 6.23 de C clos), on a aussi x récurrent positif par le
Théorème 6.22.
3) Appliquer 1) avec C = E. □
Corollaire 6.30 (Irréductibilité, récurrence et transience) Si (Xn )n≥0 est une chaı̂ne
de Markov irréductible partant de x ∈ E, on a l’alternative :
(1) ou bien la chaı̂ne est récurrente : tous les états sont récurrents
Px N (y) = +∞ ∀y ∈ E = 1.
Chapitre 6. ©JCB – M1math – Université de Rennes 131
(2) ou bien la chaı̂ne est transitoire : tous les éléments sont transitoires
Px N (y) < +∞ ∀y ∈ E = 1.
Une chaı̂ne de Markov irréductible est donc soit transitoire soit récurrente positive soit
récurrente nulle.
Démonstration : S’il existe un état x récurrent, le Théorème 6.20 montre que tous les
états sont récurrents puisque par irréductibilité, x mène à tous les états y. De plus,
puisque G(x, y) > 0 pour tout x, y ∈ E, il n’y a qu’une seule classe de récurrence. Le
reste découle du Théorème 6.29. □
Exemple 6.32 Classifier les états de la chaı̂ne de Markov sur un espace d’états fini avec
pour matrice stochastique
1 0 0 0 0 0
1 1 1
0 0 0
4 2
1
4
2 1
0
5 5 5
0 15
P = .
0
0 0 16 31 12
0 0 0 12 0 12
0 0 0 14 0 34
1/2 3/4
2 6
1/2
1/4
1/5
1 1 1/5 1/4 1/2 1/4 5
1/3
1/2
On observe que 3 4
1/5
— 1 est absorbant
2/5 1/6
— 2 est transitoire car 2 ⇝ 1,
— 3 est transitoire car 3 ⇝ 2 ⇝ 1,
— {4, 5, 6} forme une classe close irréductible qui est donc récurrente (positive).
On en déduit la classification :
Proposition 6.34 Sur ER la relation ∼ définit bien une relation d’équivalence. De plus
on a :
Les ensembles ERi , i ∈ I, sont appelés les classes de récurrence de la chaı̂ne. Une classe
de récurrence est close et irréductible et, d’après le Théorème 6.22, elle est soit récurrente
positive (lorsque i ∈ I + ) soit récurrente nulle (lorsque i ∈ I0 ). Les partitions (6.25) et
(6.30) se combinent en la partition globale de l’espace d’états qu’on appelle classification
des états de la chaı̂ne de Markov
G G
E = ET ⊔ ERi ⊔ E Ri (6.31)
i∈I+ i∈I0
où ET est l’ensemble (a priori non clos, non irréductible) des états transitoires, les classes
ERi sont récurrentes positives pour i ∈ I+ et récurrentes nulles pour i ∈ I0 . Et les classes
de récurrence sont closes irréductibles.
Théorème 6.35 (Classes de récurrence) Les classes de récurrence ERi , i ∈ I, de la par-
tition (6.30) de l’ensemble des états récurrents ER vérifient
(1) Si x ∈ ERi alors Px -ps
— N (y) = +∞ pour tout y ∈ ERi ;
— N (y) = 0 pour tout y ̸∈ ERi .
Chapitre 6. ©JCB – M1math – Université de Rennes 133
(2) Si x ∈ ET et TER = inf n ≥ 0 : Xn ∈ ER alors
— ou bien TER = +∞ et Px -ps : N (y) < +∞ pour tout y ∈ E ;
— ou bien TER < +∞ et Px -ps : ∃j ∈ I (aléatoire) tel que pour tout n ≥ TER on a
Xn ∈ E R j .
Démonstration : 1) Soit x ∈ ERi . On a G(x, y) = 0 pour tout y ∈ E \ ERi . En effet,
— si y ∈ ERj , j ̸= i, la partition garantit que x et y ne communiquent pas et donc
G(x, y) = 0 et N (y) = 0 Px -ps ;
— puis si y ∈ ET , le Théorème 6.20 assure encore G(x, y) = 0. En particulier,
N (y) = 0 Px -ps.
En revanche si y ∈ ERi , on a ρx,y = Px (Tey < +∞) = 1 d’après le Théorème 6.20 et par
la Prop. 6.5, on a Px (N (y) = +∞) = 1.
2) Soit maintenant x ∈ ET . F
— Si TER < +∞ : la chaı̂ne rentre dans ER = j∈I Ej donc dans une des classes ERj
(pour un j aléatoire). D’après la propriété de Markov (5.38) (Théorème 5.37) et
la première partie de l’énoncé, on a Xn ∈ ERj pour tout n ≥ TERj = TER .
— Si TER = +∞, alors N (y) = 0 pour y ∈ ER (puisque TER = +∞) et Px (N (y) <
+∞) = 1 par la Prop. 6.5. □
1/2 1 2
3 1
1/2 1/4
5 4
1/4
1/4
Chapitre 6. ©JCB – M1math – Université de Rennes 134
ie. P1 Te1 < +∞ = 1 et 1 est donc récurrent.
De la même façon P5 Te5 < +∞ = 1 ie. 5 est récurrent et P3 Te3 < +∞ = 1 = P (3, 3)
donc 3 est récurrent.
L’état {2} est transitoire car P2 Te2 < +∞ < 1, ie. P2 Te2 = +∞ > 0. En effet,
1 1 1
P2 Te2 = +∞ ≥ P2 (X1 = 4 et X2 = 3) = P (2, 4)P (4, 3) = × = .
3 4 12
L’état {4} est transitoire car
1
P4 Te4 = +∞ ≥ P4 (X1 = 3) = > 0.
4
On a alors la décomposition de l’espace d’états
E = 1, 2, 3, 4, 5 = {2, 4} ⊔ {1, 5} ⊔ {3} .
| {z } | {z } |{z}
ET ER1 ER2
| {z }
ER
Exemple 6.38 (Marche aléatoire simple sur Z) On considère Sn = ni=1 Xi avec Xi iid
P
de loi de Rademacher (1 − p)δ−1 + pδ1 . La chaı̂ne (Sn )n≥0 a pour espace d’états Z et
matrice stochastique P (x, y) = (1 − p)1{y=x−1} + p1{y=x+1} .
Chapitre 6. ©JCB – M1math – Université de Rennes 135
p p p p
... x−1 x x+1 ...
q q q q
(4p(1 − p))n
2n n (2n)! n
P2n (0, 0) = p (1 − p)n = p (1 − p)n
∼ √
n (n!)2 πn
√
en utilisant la formule de Stirling n! ∼ (n/e)n 2πn. Ainsi, P+∞
— si p ̸= 1/2, alors (4p(1 − p)) < 1 et G(0, 0) = n=0 P2n (0, 0) < +∞ : 0 est
transitoire (et tous les états le sont !) ; P+∞ √
— si p = 1/2, alors (4p(1 − p)) = 1 et G(0, 0) ∼ n=0 (1/ πn) = +∞ : 0 est
récurrent (et tous les états le sont !).
Pour décider si la chaı̂ne est récurrente positive ou nulle, voir le Chapitre 7 (Exemple 7.5
et Th. 7.25).
ce qui prouve le système (6.35). Puis pour les temps moyens d’absorption (tronqués), on
a par un raisonnement analogue :
τi (x) = Ex Si 1{Si <+∞} = Ex (1 + Si ◦ Θ1 )1{(1+Si ◦Θ1 )<+∞}
= Ex Ex (1 + Si ◦ Θ1 )1{(1+Si ◦Θ1 )<+∞} |F1
= Ex EX1 (1 + Si )1{Si <+∞}
(propriété de Markov faible (5.32) à la date p = 1)
h i
= Ex EX1 Si 1{Si <+∞} + EX1 1{Si <+∞}
Chapitre 6. ©JCB – M1math – Université de Rennes 137
= Ex τi (X1 ) + Ex ρi (X1 )
X X
= P (x, y)τi (y) + P (x, y)ρi (y)
y∈E y∈E
X
= P (x, y)τi (y) + ρi (x),
y∈E
en utilisant (6.35) déjà prouvée, ce qui prouve le système (6.36). Puis (6.37) découle de
(6.36) avec (6.34) :
τi (x) X τi (y) X ρi (y)
ti (x) = =1+ P (x, y) =1+ P (x, y) ti (y).
ρi (x) y∈E
ρi (x) y∈E
ρi (x)
Exemple 6.40 Retour sur l’Exemple 6.2 avec le calcul des probabilités d’absorption. On
calcule ρi (x) pour i ∈ {1, 5}, {3} et x ∈ {2, 4}.
Comme ρ1 (1) = ρ1 (5) = 1 et ρ1 (3) = 0, on a :
ρ1 (2) = 21 ρ1 (2) + 12 ρ1 (4)
ρ1 (2) = ρ1 (4)
1 1 1 1 ⇐⇒
ρ1 (4) = 4 ρ1 (2) + 4 ρ1 (3) + 4 ρ1 (4) + 4 ρ1 (5) 3ρ1 (4) = ρ1 (2) + 1
1
⇐⇒ ρ1 (2) = ρ1 (4) =
2
Comme ρ2 (1) = ρ2 (5) = 0 et ρ1 (3) = 1, on a :
ρ2 (2) = 21 ρ2 (2) + 12 ρ2 (4)
ρ2 (2) = ρ2 (4)
⇐⇒
ρ2 (4) = 41 ρ2 (2) + 14 ρ2 (3) + 41 ρ2 (4) + 41 ρ2 (5) 3ρ2 (4) = ρ2 (2) + 1
1
⇐⇒ ρ2 (2) = ρ2 (4) =
2
Puis avec le calcul des temps moyens d’absorption : comme τ1 (1) = τ1 (3) = τ1 (5) = 0,
on a :
τ1 (2) = 21 τ1 (2) + 21 τ1 (4) + ρ1 (2)
τ1 (2) = τ1 (4) + 1
⇐⇒
τ1 (4) = 14 τ1 (2) + 41 τ1 (3) + 14 τ1 (4) + 41 τ1 (5) + ρ1 (4) 3τ1 (4) = τ1 (2) + 2
5 3 5 1 3 1
⇐⇒ τ1 (2) = , τ1 (4) = et τ1 (2) = / = 5, τ1 (4) = / = 3
2 2 2 2 2 2
Comme τ2 (1) = τ2 (3) = τ2 (5) = 0, on a :
τ2 (2) = 12 τ2 (2) + 21 τ2 (4) + ρ2 (2)
τ2 (2) = τ2 (4) + 1
1 1 1 1 ⇐⇒
τ2 (4) = 4 τ2 (2) + 4 τ2 (3) + 4 τ2 (4) + 4 τ2 (5) + ρ2 (4) 3τ2 (4) = τ2 (2) + 2
5 3 5 1 3 1
⇐⇒ τ2 (2) = , τ2 (4) = et τ2 (2) = / = 5, τ2 (4) = / = 3
2 2 2 2 2 2
Chapitre 7
Invariance et équilibre
Dans ce chapitre, on étudie les mesures qui sont invariantes pour une chaı̂ne de
Markov. On fait le lien entre ces mesures, les états récurrents (positifs) et leur temps de
retour. On étudie le comportement en temps long des chaı̂nes de Markov et la convergence
vers un régime d’équilibre, en lien avec le théorème ergodique.
Génériquement, on considère dans ce chapitre une chaı̂ne de Markov (Xn )n≥0 sur un es-
pace d’états au plus dénombrable E et avec une matrice stochastique P = (P (x, y))x,y∈E .
138
Chapitre 7. ©JCB – M1math – Université de Rennes 139
Exemple 7.4 (Mesures invariantes de la chaı̂ne à deux états) Pour la chaı̂ne de Mar-
1−p p
kov à deux états de l’Exemple 5.1 avec la matrice P = , on a vu
q 1−q
que les mesures invariantes sont proportionnelles à (q, p) et il y a une seule probabilité
invariante donnée par :
q p
π= , .
p+q p+q
Exemple 7.5 (Marche aléatoire symétrique sur Z) La mesure uniforme est l’unique me-
sure invariante pour la marche aléatoire simple sur Z mais il n’existe pas de probabilité
invariante.
Supposons que π est invariante pour la marche aléatoire simple sur Z. Alors pour tout
n ∈ Z, on a :
X 1 1
π(n) = P (k, n)π(k) = π(n − 1) + π(n + 1).
k∈Z
2 2
D’où
π(n + 1) − π(n) = π(n) − π(n − 1) = π(1) − π(0) := α.
On déduit alors π(n) = π(0) + nα pour tout n ∈ Z. Si α ̸= 0, c’est absurde pour n
grand ou −n grand car π(n) devient négatif. Cela exige α = 0 et π(1) = π(0) = π(n)
pour tout n ∈ Z, ie. π est une mesure uniforme. Réciproquement, la mesure uniforme
est bien solution de π = πP donc invariante. À facteur multiplicatif près, il s’agit donc
de l’unique mesure invariante de cette chaı̂ne. De plus, il est impossible de normaliser la
mesure uniforme sur Z en une mesure de probabilité : il n’existe donc pas de probabilité
invariante pour la marche aléatoire simple symétrique.
Exemple 7.6 On considère une chaı̂ne de Markov sur E = {0, 1, 2} de matrice stochas-
tique
1/3 1/3 1/3
1/4 1/2 1/4 .
1/6 1/3 1/2
Le graphe de transitions est :
Chapitre 7. ©JCB – M1math – Université de Rennes 140
1/3
0
1/4 1/3
1/3 1/6
1/4
1/2 1 2 1/2
1/3
où la dernière équation est donnée par le fait que π est une probabilité. On en déduit
facilement
6 2 9
π(0) = , π(1) = , π(2) = .
25 5 25
On s’assure facilement que cette probabilité π est bien solution de (7.1), on a donc
existence et unicité de la probabilité invariante.
Exemple 7.7 (Matrice bistochastique) Une matrice est dite bistochastique lorsque P t
est stochastique, ie. en plus de ses lignes, la somme de chacune de ses colonnes fait 1.
Pour une telle matrice P , on observe que
(1, 1, . . . )P = (1, 1, . . . )
ie. (1, 1, . . . ) est vecteur propre à gauche de P pour la valeur propre 1. Comme ce vecteur
correspond à la mesure uniforme sur E, cela signifie que la mesure uniforme est invariante
pour une matrice bistochastique.
De plus, si E est fini de cardinal d alors on peut normaliser le vecteur (1, 1, . . . ) en
(1/d, . . . , 1/d) et dans ce cas, la probabilité uniforme sur E est invariante pour P bisto-
chastique.
Proposition 7.8 L’ensemble des mesures invariantes d’un noyau de transition est fermé
et stable par combinaison linéaire à coefficients positifs. L’ensemble des probabilités in-
variantes est convexe, fermé et, si E est fini, il s’agit d’un compact.
Chapitre 7. ©JCB – M1math – Université de Rennes 141
(µ1 , . . . , µd ) ∈ Rd+ : µ1 + · · · + µd = 1 .
(7.2)
Comme en dimension finie, la compacité est équivalente à être fermé et borné, l’ensemble
(7.2) est clairement compact. Dès lors, la condition (7.1) définissant les mesures inva-
riantes étant fermée, la compacité de l’ensemble des mesures invariantes suit. □
Il n’existe pas toujours de mesure invariante pour une chaı̂ne de Markov comme on le
voit dans les exemples suivants :
Exemple 7.9 (Chaı̂ne de Markov sans mesure invariante) Soit (Xn )n≥0 une chaı̂ne de
Markov sur E = N avec P (i, i + 1) = 1 pour tout i ≥ 0.
1 1 ... 1 1 ...
0 1 x x+1
P (i, i + 1) = pi , P (i, 0) = qi , ∀i ≥ 1.
1 p1 pi
0 1 ... i i+1 ...
q1
qi
qi+1
Chapitre 7. ©JCB – M1math – Université de Rennes 142
X Y i−1 i−1
XY i
Y n
Y
π(0) = π(0) qi pj = π(0) pj − pj = π(0) 1 − lim pj .
n→+∞
i≥1 j=0 i≥1 j=0 j=0 j=0
P Q
Comme j≥1 qj < +∞ implique j≥1 pj > 0, on doit avoir π(0) = 0 (sinon on aurait
π(0) < π(0)) et donc par (7.4), il suit π = 0 et il n’y a pas de mesure invariante pour
cette chaı̂ne.
Réversibilité
Définition 7.11 (Réversibilité) Une mesure π (positive) non nulle sur E telle que π(x) <
+∞ pour tout x ∈ E est dite réversible pour le noyau P si pour tout x, y ∈ E :
Par une récurrence simple, la définition (7.5) est équivalente à avoir pour toute suite
x0 , . . . , x n ∈ E :
Démonstration : Pour le sens direct, cela vient de (7.6) puisque pour tout x0 , . . . , xn ∈ E,
on a
Pπ Xn = x0 , Xn−1 = x1 , . . . X0 = xn ) = Pπ X0 = xn , X1 = xn−1 , . . . Xn = x0 )
= π(xn )P (xn , xn−1 ) · · · P (x1 , x0 ).
Pour le sens indirect, L(X0 , X1 ) = L(X1 , X0 ) donne pour tout x0 , x1 ∈ E :
Pπ X0 = x0 , X1 = x1 ) = Pπ X1 = x0 , X0 = x1 ) = Pπ X0 = x1 , X1 = x0 ),
soit π(x0 )P (x0 , x1 ) = π(x1 )P (x1 , x0 ). □
Proposition 7.13 (Réversibilité et invariance) Une mesure réversible pour un noyau mar-
kovien est invariante pour ce noyau.
Démonstration : On vérifie immédiatement l’équation de Chapman-Kolmogorov (7.1)
en utilisant la réversibilité (7.5) : pour une mesure π réversible, on a
X X X
(πP )(y) = π(x)P (x, y) = π(y)P (y, x) = π(y) P (y, x) = π(y),
x∈E x∈E x∈E
Remarque 7.15 Pour trouver des mesures invariantes, il faut résoudre le système linéaire
donné par l’équation de Chapman-Kolmogorov (7.1). En pratique, ce système peut être
compliqué à résoudre (il est même infini si E l’est). Dans ce cas, il est intéressant de
rechercher mieux en cherchant des mesures réversibles car l’équation (7.5) est en pratique
plus simple à résoudre. On est alors assuré par la Proposition 7.13 qu’une solution serait
aussi invariante.
2) Comme π ̸= 0, il existe x ∈ E tel que π(x) > 0 et comme par irréductibilité, x mène
à tout y, on a aussi π(y) > 0 pour tout y ∈ E.
3) On supposeque π est une probabilité invariante. Si x est transitoire ou récurrent nul
alors mx = Ex Tex = +∞ et la Proposition 6.15 donne pour tout z ∈ E :
Gn (z, x) ρz,x
lim = = 0. (7.7)
n→+∞ n mx
Chapitre 7. ©JCB – M1math – Université de Rennes 145
Comme π est une probabilité, le Lemme 7.16 s’applique et il permet de passer à la limite
avec (7.7) pour obtenir lorsque x est transitoire ou récurrent nul :
!
X Gn (z, x) X Gn (z, x)
π(x) = lim π(z) = π(z) lim = 0.
n→+∞
z∈E
n + 1 z∈E
n→+∞ n + 1
La probabilité π ne charge que des états récurrents positifs et comme d’après le 1), son
support contient les classes de récurrence de ses éléments, le support est donc exactement
une union de classes de récurrence positive. □
Remarque
P 7.18 — L’utilisation du Lemme 7.16 dans la preuve précédente exige que
x∈E π(x) < +∞ et, à normalisation près, que π soit une probabilité. Le 3)
dans la Prop. 7.17 ne concerne donc que les probabilités invariantes (ou mesures
invariantes finies mais pas les mesures invariantes de poids infinis !).
— Par conséquent, une chaı̂ne qui n’a pas d’états récurrents positifs n’a pas de
probabilité invariante (une probabilité ne peut pas être concentrée sur des points
qu’elle ne charge pas !).
Démonstration : Si π est une mesure invariante de poids π(E) < +∞, alors π e = π/π(E)
serait une probabilité. D’après 3) dans la Prop. 7.17, π
e ne charge pas les états transi-
toires ou récurrents nuls, ce qui est absurde puisqu’il n’y a que de tels états. On doit
donc avoir π(E) = +∞. Le reste en découle facilement. □
On montre maintenant qu’on peut associer une mesure invariante à tout état x récurrent
en calculant pour chaque état y le nombre moyen de visite de cet état dans l’excursion
de la chaı̂ne entre deux visites de x. Il s’agit d’une construction trajectorielle de mesures
invariantes. On rappelle que Tex = inf(n > 0 : Xn = x) (date de premier retour en x sous
Px ) et on pose pour y ∈ E :
x −1
TeX
νx (y) = Ex 1{Xk =y} (7.8)
k=0
Tex
X
= Ex 1{Xk =y} . (7.9)
k=1
On a alors
(p+1)∧(Tex −1) (p+1)∧Tex
X X
Ex 1{Xk =y} = Ex 1{Xk =y} + 1{Tex >p+1} δx,y
k=0 k=1
p∧(Tex −1)
X
= Ex 1{Xk+1 =y} + Px (Tex > p + 1) δx,y . (7.11)
k=0
p h i
XX
= Ex 1{Xk =z} 1{Tex −1≥k} Ex [1{Xk+1 =y} |Fk ]
z∈E k=0 | {z }
Fk -mesurable
p h i
XX
= Ex 1{Xk =z} 1{Tex −1≥k} EXk [1{X1 =y} ]
z∈E k=0
| {z }
Ez [1{X1 =y} ]=P (z,y)
p h i
XX
= Ex 1{Xk =z} 1{Tex −1≥k} P (z, y)
z∈E k=0
p∧(Tex −1)
X X
= Ex 1{Xk =z} P (z, y). (7.12)
z∈E k=0
Proposition 7.22 (Mesure invariante d’un état récurrent) On considère une chaı̂ne de
Markov (Xn )n≥0 et x un état récurrent de la chaı̂ne (s’il y en a !).
(1) La mesure νx est invariante et νx (x) = 1.
(2) La mesure νx a pour support la classe de récurrence de x : νx (y) > 0 si et seulement
si y appartient à la même classe de récurrence que x.
Démonstration : D’abord puisque sous Px , X0 = x et Xk ̸= x pour 1 ≤ k ≤ Tex − 1, on a
PTex −1
k=0 1{Xk =x} = 1 et donc νx (x) = 1 par la définition (7.8). Ensuite, si y n’est pas dans
la classe de récurrence de x, alors x et y ne communiquent pas et G(x, y) = 0, d’où il
vient :
" +∞ #
X x −1
TeX
0 = G(x, y) = Ex Ny = Ex 1{Xk =y} ≥ Ex 1{Xk =y} = νx (y)
k=0 k=0
On achève de montrer que νx est une mesure invariante en montrant que νx (y) < +∞
pour tout y ∈ E :
— si y n’est pas dans la classe de x alors on a vu que νx (y) = 0 ;
— si y ∼ x alors il existe m ≥ 1 tel que P m (y, x) > 0 et en itérant pour ce m la
relation νx = νx P obtenue précédemment, on a νx = νx P m et
X
νx (x) = νx (z)P m (z, x) ≥ νx (y)P m (y, x);
z∈E
Chapitre 7. ©JCB – M1math – Université de Rennes 148
Cela exige l’égalité ci-dessus dans (7.15) et donc dans (7.14) dès que P n (z, x) > 0. Ainsi
pour y ⇝ x, il existe un tel n avec P n (y, x) > 0, ce qui assure π(y) = π(x)νx (y) dès que
P n (y, x) > 0. □
(2) Si ces mesures sont de poids infinis, il n’y a pas de probabilité invariante sur la classe
de récurrence et elle est récurrente nulle.
P
puisque y∈E 1{Xk =y} = 1. On a donc Ex Tex < +∞ et x est récurrent positif et donc
la classe de récurrence est récurrente positive.
2) Dans le cas alternatif où toute
les mesures invariantes sont de poids infinis, alors νx
est de poids infini et donc Ex Tex = +∞ par le même calcul (7.18) que juste précédem-
ment : x est récurrent nul, et sa classe est donc une classe de récurrente nulle. □
est récurrente nulle (tous les états sont récurrents nuls : pour tout x ∈ E,
(2) La chaı̂ne
Ex Tex = +∞) : les mesures invariantes sont toutes proportionnelles et de poids
infinis (π(E) = +∞) ; il n’existe alors pas de probabilité invariante ;
(3) La chaı̂ne est
récurrente
positive (tous les états sont récurrents positifs : pour tout
x ∈ E, Ex Tex < +∞) : les mesures invariantes sont toutes proportionnelles et
de poids finis (π(E) < +∞), il existe une unique probabilité invariante et elle est
donnée par
1
∀x ∈ E, π(x) = .
Ex Tex
Exemple 7.28 (Marche aléatoire simple sur Z) On considère la marche aléatoire sur Z
aux plus proches voisins avec P (x, x+1) = 1−P (x, x−1) = p et P (x, y) = 0 si y ̸= x±1.
p p p p
... x−1 x x+1 ...
q q q q
1 p p p
... x−1 1−p x ...
0 1−p 1 1−p 1−p x+1
p
k
On vérifie que la mesure π = 1−p k≥0
est réversible donc invariante.
— Si p < 1/2 alors π est de poids fini et la chaı̂ne est récurrente positive par le
Théorème 7.25. La probabilité invariante correspondante, obtenue en normalisant
π, est la loi géométrique G(p/(1 − p)) sur N.
— Si p ≥ 1/2 alors π est de poids infini et la chaı̂ne est récurrente nulle ou transitoire.
Pour trancher, il faut par exemple étudier en détails la probabilité de retour en 0
et on montre que
— pour p = 1/2 : la chaı̂ne est récurrente nulle ;
— pour p > 1/2 : la chaı̂ne est transitoire.
Chapitre 7. ©JCB – M1math – Université de Rennes 152
Théorème 7.30 (Mesures invariantes pour les chaı̂nes non irréductibles) Soit (Xn )n≥0
une chaı̂ne de Markov non irréductible.
(1) Sur chaque classe de récurrence, il existe une mesure invariante (unique à facteur
multiplicatif près).
(2) Il existe une probabilité invariante sur cette classe si et seulement
si la classe est
récurrente positive et elle est alors donnée par π(x) = 1/Ex Tx pour tout état x de
e
la classe.
(3) L’ensemble des probabilités invariantes est donné par les combinaisons convexes des
probabilités invariantes de chaque classe de récurrence positive.
Démonstration : (1) Toute mesure νx associée à un x de la classe par (7.8) est invariante
sur la classe par la Proposition 7.22. Puis par le 1) dans le Théorème 7.24, toutes les
mesures invariantes concentrées sur une classe de récurrence sont proportionnelles et
s’écrivent π = π(x)νx , pour tout état x de la classe.
(2) Cela découle de l’alternative du Théorème 7.24.
(3) Il est immédiat que toute combinaison convexe de probabilités invariantes est une
probabilité invariante (l’équation de Chapman-Kolmogorov (7.1) et être une probabilité
sont des notions stables par combinaison convexe).
Par le Théorème 7.24, il existe une probabilité invariante sur chaque classe de récur-
rence positive. Si π est une probabilité invariante arbitraire, il existe x, nécessairement
récurrent positif par la Prop. 7.17 tel que π(x) > 0. On note ERi la classe de récurrence
(positive) à laquelle x appartient et on montre que la restriction πi = π|ERi de π à la
classe ERi de x reste invariante. En effet, pour y ∈ ERi , on a
X X X
πi (z)P (z, y) = π(z)P (z, y) = π(z)P (z, y) = π(y) = πi (y)
z∈E z∈ERi z∈E
où la première égalité vient de la restriction à ERi , la deuxième de ce qu’un état z qui
peut mener à y ∈ ERi est soit transitoire (et alors π(z) = 0 par la Prop. 7.17) soit dans
la classe de récurrence ERi , les autres ne communiquent pas avec y, la troisième égalité
vient de l’invariance de π. Puis pour y ̸∈ ERi , on a πi (y) = 0 et P (z, y) = 0 pour z ∈ ERi
si bien que X X
πi (z)P (z, y) = π(z)P (z, y) = 0 = πi (y),
z∈E z∈ERi
Comme par ailleurs pour tout xi ∈ ERi , νxi est une mesure invariante (finie) de support
ERi , l’unicité à facteur multiplicatif près des mesures invariantes donnée par le Théo-
rème 7.24 assure alors que πi = π(xi )νx = π(xi )νxi (E)e νxi en notant νexi = νxi /νxi (E) la
probabilité associée à νxi . Finalement, comme π est concentrée sur les classes de récur-
rence positive (Prop. 7.17) qui sont disjointes, on a
X X
π= πi = π(xi )νxi (E) νexi (7.19)
i∈I+ i∈I+
P
Comme on a des probabilités, il vient i∈I+ π(xi )νxi (E) = 1 et (7.19) prouve que π est
combinaison convexe des νexi , i ∈ I + . □
Corollaire 7.31 (Existence et unicité des probabilités invariantes) Il existe une unique
probabilité invariante si et seulement s’il existe une unique classe de
récurrence
positive.
Dans ce cas, la probabilité invariante est donnée par π(x) = 1/Ex Tx , x ∈ E.
e
Donc pour tout k ≥ 0 tel que P k (y, y) > 0 on a P m+n+N k (x, x) > 0, ie. dx divise
n + m + N k pour tout N (dx | n + m + N k). En particulier dx divise k (dx | k).
Chapitre 7. ©JCB – M1math – Université de Rennes 154
Définition 7.35 (Période) Si la chaı̂ne de Markov est irréductible, tous les états ont
même période, appelée période de la chaı̂ne. Si cette période est 1, on dit que la chaı̂ne
est apériodique.
Forte irréductibilité
Définition 7.36 (Forte irréductibilité) Une chaı̂ne de Markov (Xn )n≥0 de matrice sto-
chastique P est dite fortement irréductible s’il existe k ≥ 1 tel que pour tout x, y ∈ E,
on a P k (x, y) > 0.
Il y a forte irréductibilité quand il existe une longueur commune de chemin reliant tout
x, y ∈ E.
Proposition 7.37 Une chaı̂ne de Markov fortement irréductible est irréductible et apé-
riodique.
Proposition 7.38 Soit (Xn )n≥0 chaı̂ne de Markov irréductible et apériodique. Alors pour
tout x ∈ E, il existe n(x) ≥ 1 tel que pour tout n ≥ n(x), on a P n (x, x) > 0.
et on a
n
(x1 , x2 ), (y1 , y2 ) = P n (x1 , y1 )P n (x2 , y2 ).
P (7.24)
en notant de façon générique (Xn )n≥0 une chaı̂ne de Markov de matrice stochas-
tique P .
ce qui justifie que P est une matrice stochastique car en plus P (x1 , x2 ), (y1 , y2 ) ≥
0. Puis on prouve (7.24) par récurrence : l’initialisation est due à (7.23) ; ensuite, en
supposant (7.24) vraie pour l’entier n − 1, on le montre pour l’entier n :
n X n−1
P (x1 , x2 ), (y1 , y2 ) = P (x1 , x2 ), (z1 , z2 ) P (z1 , z2 ), (y1 , y2 )
(z1 ,z2 )∈E 2
X
= P n−1 (x1 , z1 )P n−1 (x2 , z2 )P (z1 , y1 )P (z2 , y2 )
(z1 ,z2 )∈E 2
! !
X X
= P n−1 (x1 , z1 )P (z1 , y1 ) P n−1 (x2 , z2 )P (z2 , y2 )
z1 ∈E z2 ∈E
= P n (x1 , y1 )P n (x2 , y2 ).
ii) Pour tout (x1 , x2 ), (y1 , y2 ) ∈ E 2 , par irréductibilité de P , il existe m1 ≥ 1 tel que
P m1 (x1 , y1 ) > 0 et par irréductibilité et apériodicité (Proposition 7.38), il existe n1 ≥ 1
tel que P n1 +k (x1 , x1 ) > 0 pour tout k ≥ 0. De la même façon, il existe m2 , n2 ≥ 1 tels
que P m2 (x2 , y2 ) > 0 et P n2 +k (x2 , x2 ) > 0 pour tout k ≥ 0. Alors pour tout k ≥ 0, on a :
(1) (1)
iv) On montre que Pν Xn = x = Pν1 Xn = x (on procèderait de la même façon
pour i = 2). Pour cela, on a :
X
Pν Xn(1) = x = Pν Xn(1) = x, Xn(2) = y
y∈E
X X n
= ν(x0 , y0 )P (x0 , y0 ), (x, y)
y∈E (x0 ,y0 )∈E 2
X X
= ν(x0 , y0 )P n (x0 , x)P n (y0 , y)
y∈E (x0 ,y0 )∈E 2
X X X
= P n (x0 , x) ν(x0 , y0 ) P n (y0 , y)
x0 ∈E y0 ∈E y∈E
X
ν1 (x0 )P (x0 , x) = Pν1 Xn(1) = x
n
=
x0 ∈E
n X
X h i
+ Eπ⊗δx 1{T∆ =k} 1{X (1) =X (2) =z} 1{Xn(2) =y} − 1{Xn(1) =y} . (7.26)
k k
k=0 z∈E
Il vient alors
X X h i
Px (Xn = y) − π(y) = Eπ⊗δx 1{T∆ >n} 1{Xn(2) =y} − 1{Xn(1) =y}
y∈E y∈E
X h i
≤ Eπ⊗δx 1{T∆ >n} 1{Xn(2) =y} − 1{Xn(1) =y}
y∈E
X h i
≤ Eπ⊗δx 1{T∆ >n} 1{Xn(2) =y} + 1{Xn(1) =y}
y∈E
h X i
= Eπ⊗δx 1{T∆ >n} 1{Xn(2) =y} + 1{Xn(1) =y}
y∈E
= 2 Eπ⊗δx 1{T∆ >n} = 2 Pπ⊗δx (T∆ > n) (7.27)
P P
puisque y∈E 1{Xn(1) =y} = y∈E 1{Xn(2) =y} = 1.
Comme T∆ est fini Pπ⊗δx -ps, par convergence monotone on a
lim Pπ⊗δx (T∆ > n) = 0,
n→+∞
Chapitre 7. ©JCB – M1math – Université de Rennes 160
et donc
X XX
|Pν (Xn = y) − π(y)| ≤ Px (Xn = y) − π(y) ν(x)
y∈E y∈E x∈E
XX
= Px (Xn = y) − π(y) ν(x). (7.28)
x∈E y∈E
P
En appliquant le Lemme 7.16 avec a = ν de poids fini et bn (x) = y∈E |Px (Xn = y) − π(y)|
vérifiant X X
0 ≤ bn (x) ≤ Px (Xn = y) + π(y) = 2,
y∈E y∈E
avec limn→+∞ bn (x) = 0 par (7.21), on obtient la conclusion (7.22) en passant à la limite
dans (7.28). □
Remarque 7.43 1) L’apériodicité est essentielle, sans elle, le couplage échoue en général.
Par exemple pour la chaı̂ne à deux états sur E = {0, 1} (Exemple 5.1)
0 1 2n 1 0 2n+1 0 1
P = , P = , P = , n ≥ 0,
1 0 0 1 1 0
(1) (2) (1) (2)
et si X0 = 0, X0 = 1, on aura Xn ̸= Xn pour tout n ≥ 0 (ie. pas de couplage
possible).
Cas périodique
Dans le cas d’une chaı̂ne de Markov périodique, on généralise le Théorème 7.40 comme
suit :
Théorème 7.44 Soit (Xn )n≥0 une chaı̂ne irréductible récurrente positive, périodique de
période d et de probabilité invariante π. Alors pour toute paire d’états x, y ∈ E, il existe
r ∈ J0, d − 1K tel que P n (x, y) = 0 si n ̸= r mod d, sinon n = md + r et on a
lim P md+r (x, y) = dπ(y).
m→+∞
Chapitre 7. ©JCB – M1math – Université de Rennes 161
Démonstration : On commence par une extension du Théorème 7.40 pour une classe
close irréductible récurrente positive apériodique. Soit Ei une telle classe et soit π (i)
la probabilité invariante concentrée sur ERi (Théorème 7.30). En considérant la chaı̂ne
restreinte à ERi , on a d’après le Théorème 7.40 :
1
lim P n (x, y) = π (i) (y) = , x, y ∈ ERi .
n→+∞ Ey Tey
En particulier si y est un état récurrent positif de période 1 alors en choisissant pour
ERi la classe close irréductible contenant y, on voit que :
1
lim P n (y, y) = . (7.29)
n→+∞ Ey Tey
On prouve maintenant le Théorème 7.44 pour le cas périodique. Soit donc (Xn )n≥0
une chaı̂ne irréductible récurrente positive et périodique de période d > 1. En posant
(Ym )m≥0 = (Xmd )m≥0 , on définit une chaı̂ne de Markov de matrice stochastique Q = P d .
Soit y ∈ E, alors
1
PGCD n : P n (y, y) > 0 = 1.
=
d
Les états sont donc de période 1 pour la chaı̂ne (Ym )m≥0 , qui est donc apériodique.
On suppose que la chaı̂ne (Xn )n≥0 , et donc aussi (Ym )m≥0 , démarre de y. Comme la
chaı̂ne (Xn )n≥0 revisite y la première fois à un multiple de d, la durée d’un retour moyen
en y pour la chaı̂ne (Ym )m≥0 est d−1 Ey Tey où Ey Tey est la durée d’un retour moyen
en y de la chaı̂ne (Xn )n≥0 . En particulier, y est récurrent positif pour toute chaı̂ne de
Markov de matrice stochastique Q. En appliquant le résultat préliminaire (7.29) à cette
matrice stochastique, on a
d
lim Qm (y, y) = = dπ(y),
m→+∞ my
soit
lim P md (y, y) = dπ(y), y ∈ E. (7.30)
m→+∞
Chapitre 7. ©JCB – M1math – Université de Rennes 162
Soit x, y ∈ E, par irréductibilité de P , il existe n ≥ 1 tel que P n (x, y) > 0. On pose alors
r1 = min(n ≥ 0 : P n (x, y) > 0). On a en particulier P r1 (x, y) > 0.
On montre que P n (x, y) > 0 seulement si n − r1 est multiple de d : par irréductibilité,
on choisit n1 > 0 tel que P n1 (y, x) > 0, alors
P r1 +n1 (y, y) ≥ P n1 (y, x)P r1 (x, y) > 0
et donc r1 + n1 est multiple de d. Réciproquement, si P n (x, y) > 0 alors de la même
façon,
P n+n1 (x, x) ≥ P n (x, y)P n1 (y, x) > 0
et n + n1 doit être un multiple de d ; par conséquent n − r1 = (n + n1 ) − (r1 + n1 ) aussi.
Finalement, n − r1 doit être multiple de d et n = kd + r1 pour un certain k ∈ N.
Il existe m1 ∈ N tel que r1 = m1 d + r avec r ∈ J0, d − 1K. D’après ce qui précède, on a
P n (x, y) = 0 si et seulement si n ̸= r mod d. On déduit maintenant que
m
X
md+r
Px Tey = kd + r P (m−k)d (y, y).
P (x, y) = (7.31)
k=0
On pose
P (m−k)d (y, y) si 0 ≤ k ≤ m
bm (k) =
0 si k > m
Alors par (7.30), pour chaque k fixé, on a limm→+∞ bm (k) = dπ(y). En appliquant le
Lemme 7.16 (convergence dominée) avec E = N, b(k) = dπ(y) et a(k) = Px Tey = kd+r
(sommable) pour passer à la limite en m → +∞ dans (7.31), on a
+∞
X
md+r
lim P (x, y) = dπ(y) Px Tey = kd + r
m→+∞
k=0
= dπ(y)Px Ty < +∞
= dπ(y),
P+∞
ce qui
achève la preuve du Théorème 7.44. Noter que k=0 P x T
ey = kd + r = Px Ty <
+∞ vient de P n (x, y) = 0 si n ̸= r mod d.
□
R
Remarque 7.47 En fait le résultat reste vrai R si f est positive avec E f dπ = +∞, il
suffit de prendre des fonctions fk ↗ f avec E fk dπ < +∞ et d’utiliser le théorème de
convergence monotone : Comme f ≥ fk , on a :
Pn Pn R
f (X i ) f k (X i ) fk dπ
lim inf Pi=0
n ≥ lim inf Pi=0 n = RE Pν -ps.
i=0 g(Xi ) i=0 g(Xi ) g dπ
n→+∞ n→+∞
E
R
Puis comme E fk dπ ↗ +∞ quand k → +∞, il vient
Pn
f (Xi )
lim Pi=0 n = +∞ Pν -ps.
i=0 g(Xi )
n→+∞
Corollaire 7.48 (Ergodique) Soit (Xn )n≥0 une chaı̂ne de Markov irréductible récurrente
positive et π son unique probabilité invariante. Alors pour toute loi initiale ν sur E et
f ∈ L1 (π), on a :
n Z
1X
lim f (Xk ) = f dπ Pν -ps. (7.33)
n→+∞ n E
k=0
Démonstration : Comme la chaı̂ne (Xn )n≥0 est irréductible récurrente positive, il existe
une unique probabilité invariante π par le Théorème 7.25 et on a 1 ∈ L1 (π). Le Théo-
rème 7.46 s’applique alors avec g(x) = 1 et assure (7.33). □
Remarque 7.49 Cette limite (7.33) est l’essence même de la notion d’ergodicité Pn : la
1
R temporelle n k=0 f (Xk ),
moyenne de f le long de la trajectoire de la chaı̂ne, ie. sa moyenne
converge en temps long (n → +∞) vers la moyenne spatiale E f dπ de f (par rapport
à la probabilité invariante).
Puis en appliquant le Théorème 7.46 avec f (y) = 1{y=x} et g(y) = 1 (avec la Re-
marque 7.47 lorsque g ̸∈ L1 (π)), on récupère immédiatement le Théorème 6.15 :
Corollaire 7.50 (Ergodique) Soit (Xn )n≥0 une chaı̂ne de Markov récurrente irréductible.
Alors pour toute loi initiale ν sur E :
(1) Dans le cas récurrent positif :
n
1X
lim 1{Xk =x} = π(x) Pν -ps ;
n→+∞ n
k=0
Lemme 7.52 Les variables aléatoires Zk (f ) k≥1 sont iid. En particulier avec f = 1,
(n) (n−1)
on obtient que les variables aléatoires Tx − Tx , n ≥ 1, sont iid et on retrouve la
Proposition 6.14.
Démonstration :[Lemme 7.52] Pour tout k ≥ 1, il suffit de voir pour des fonctions gi
mesurables bornées sur R+ (1 ≤ i ≤ k) :
" k # k
Y Y
Ex gi Zi (f ) = Ex gi Z1 (f ) . (7.36)
i=1 i=1
Suite de la preuve du théorème ergodique (Théorème 7.46). Afin d’appliquer la loi des
grands nombres (LGN) aux variables aléatoires (Zk (f ))k≥1 iid (Lemme 7.52), on montre
qu’elles sont L1 lorsque f ∈ L1 (π) : en effet
(1) (1)
x −1
TX x −1 X
TX
Ex |Z1 (f )| ≤ Ex |f (Xk )| = Ex |f (y)|1{Xk =y} (7.37)
k=0 k=0 y∈E
(1)
x −1
TX R
X X
E
|f | dπ
= |f (y)| Ex 1{Xk =y} = |f (y)|νx (y) = (7.38)
y∈E k=0 y∈E
π(x)
Chapitre 7. ©JCB – M1math – Université de Rennes 166
f (Xk ) = f (Xi ) = Zj (f ),
k=0 j=1 (j−1)
i=Tx j=1
Comme x est récurrent, Nex (n) → +∞ et (7.39) assurent que les termes de gauche et
R
de droite de (7.40) convergent Px -ps vers E f dπ/π(x) et donc par le théorème des
gendarmes
n R
1 X f dπ
lim f (Xk ) = E Px -ps. (7.41)
n→+∞ N ex (n) π(x) k=0
f − dπ (f + − f − ) dπ
R R R R
E
f + dπ E E
f dπ
−−−−→ − = = E Px -ps.
n→+∞ π(x) π(x) π(x) π(x)
Exemple 7.53 (MCMC) La méthode de Monte Carlo par P chaı̂ne de Markov (Monte
Carlo Markov Chains) vise à estimer une somme S := x∈E ν(x)f (x) où ν est une
1
probabilité, et f ∈ L (ν), a priori difficile à calculer, en trouvant une chaı̂ne de Markov
(Xn )n≥0 (irréductible, récurrente positive) admettant ν comme probabilité invariante.
On a alors n
1X ps
f (Xk ) −−−−→ Eν [f ] = S
n k=0 n→+∞
et pour n assez grand n1 nk=0 f (Xk ) est une bonne estimation de la somme S. Cf. [Rob].
P
Bibliographie
168