Introduction aux chaînes de Markov
Introduction aux chaînes de Markov
Chaı̂nes de Markov
203
204 CHAPITRE 8. CHAÎNES DE MARKOV
pij = P (Xn+1 = j | Xn = i)
pour tous états i, j. Une matrice P indexée par E et satisfaisant les propriétés ci-dessus
est appelée matrice stochastique.
L’espace d’état peut être infini et par conséquent une telle matrice n’est pas du type
étudié en algèbre linéaire. Toutefois, l’addition et la multiplication sont définies par les
mêmes règles formelles. Par exemple, avec A = {aij }i,j∈E et B = {bij }i,j∈E , le produit
C = AB est la matrice {cij }i,j∈E , où cij = k∈E aik bkj . La notation x = {xi }i∈E
représente formellement un vecteur colonne et xT est donc un vecteur ligne, le transposé
de x. Par exemple, y = {yi }i∈E donné par y T = xT A est défini par i y = k∈E xk aki .
Semblablement, z = {zi }i∈E donné par z = Ax est défini par zi = k∈E aik zk .
Une matrice de transition P est parfois représentée par son graphe de transition G,
un graphe dont les nœuds sont les états de E et qui a une arête orientée de i vers j si et
seulement si pij > 0, auquel cas cette arête est ornée de l’étiquette pij .
La propriété de Markov (8.1) s’étend facilement (voir l’Exercice 8.5.2) comme suit
P (A ∩ B | Xn = i) = P (A | Xn = i)P (B | Xn = i).
La matrice Pn est appelée matrice de transition en n étapes car son terme général n’est
autre que
pij (n) = P (Xn+m = j | Xm = i).
P (X0 = i0 , X1 = i1 , . . . , Xk = ik )
= P (X0 = i0 )P (X1 = i1 | X0 = i0 ) · · · P (Xk = ik | Xk−1 = ik−1 , . . . , X0 = i0 ) ,
Notation. On abrègera
P (A | X0 = i) en Pi (A). Pour toute probabilité µ sur E, on
notera Pµ (A) = i∈E µ(i)P (A|X0 = i). C’est la probabilité qui régit l’évolution de la
chaı̂ne lorsque la distribution initiale est µ.
206 CHAPITRE 8. CHAÎNES DE MARKOV
Récurrences markoviennes
Nombre de cmh sont décrites par une équation de récurrence contrôlée par un “bruit
blanc”. Plus précisément,
Théorème 8.1.3 Soit {Zn }n≥1 une suite iid de variables aléatoires à valeurs dans un
espace arbitraire G. Soit E un espace dénombrable, et soit une fonction f : E × G → E.
Soit X0 une variable aléatoire à valeurs dans E, indépendante de la suite {Zn }n≥1 .
L’équation de récurrence
Xn+1 = f (Xn , Zn+1 ) (8.5)
définit alors une cmh.
Démonstration. L’itération de (8.5) montre que pour tout n ≥ 1, il existe une fonc-
tion gn telle que Xn = gn (X0 , Z1 , . . . , Zn ), et donc P (Xn+1 = j | Xn = i, Xn−1 =
in−1 , . . . , X0 = i0 ) = P (f (i, Zn+1 ) = j | Xn = i, Xn−1 = in−1 , . . . , X0 = i0 ) =
P (f (i, Zn+1 ) = j), puisque l’événement {X0 = i0 , . . . , Xn−1 = in−1 , Xn = i} est ex-
primable en termes de X0 , Z1 , . . . , Zn et est donc indépendant de Zn+1 . Semblablement,
P (Xn+1 = j | Xn = i) = P (f (i, Zn+1 ) = j). On a donc une chaı̂ne de Markov, qui est
de plus homogène, puisque le second membre de la dernière égalité ne dépend pas de n.
Explicitement :
pij = P (f (i, Z1 ) = j). (8.6)
Exemple 8.1.1: Marche aléatoire sur Z, take 1. Soit X0 une variable à valeurs
dans Z. Soit {Zn }n≥1 une suite de variables iid indépendante de X0 , prenant les valeurs
+1 ou −1, et de distribution de probabilité commune
P (Zn = +1) = p,
Xn+1 = Xn + Zn+1
1
0 1 1 1
0 0 1 2 3
0
0
a
1 0 0 1 1 1 1 0 0 1 1 1 1 1 1 0 1 0
3 3 3
b
1
2
1 1 1
1 2 2 2
2
0 1 1 2 3
2
1
2
1
2
c
Un automate stochastique
tel que j = f (i, a), et cette arête reçoit alors l’étiquette a. Si j = f (i, a1 ) = f (i, a2 ) pour
a1 = a2 , il y a alors 2 arêtes orientées de i vers j avec les étiquettes a1 et a2 , ou, plus
économiquement, une seule arête orientée avec l’étiquette (a1 , a2 ). Plus généralement,
une arête orientée donnée peut avoir des étiquettes multiples à tous ordres.
Considérons à titre d’exemple l’automate avec l’alphabet A = {0, 1} correspondant
au graphe de transition de la Figure a. L’automate, initialisé dans l’état 0, lit la suite de
la Figure b de gauche à droite, passant successivement dans les états (y compris l’état
initial 0)
0100123100123123010.
Il apparaı̂t que l’automate est dans l’état 3 après avoir lu trois 1 successifs qui ne che-
vauchent pas un bloc de trois 1 consécutifs précédemment enregistré (voir Figure b), et
seulement dans cette circonstance.
Si la suite de lettres lues par l’automate est {Zn }n≥1 , la suite des états {Xn }n≥0 est
alors donnée par l’équation de récurrence Xn+1 = f (Xn , Zn+1 ) et donc, si {Zn }n≥1 est
iid et indépendante de l’état initial X0 , alors {Xn }n≥1 est, au vu du Théorème 8.1.3,
une cmh. Son graphe de transition est représenté dans la Figure c.
Toutes les cmh ne reçoivent pas une description “naturelle” du type de celle du Théorème
8.1.3. Cependant une telle description est toujours possible dans le sens suivant :
208 CHAPITRE 8. CHAÎNES DE MARKOV
Théorème 8.1.4 À toute matrice stochastique P sur E, on peut associer une cmh
{Xn }n≥0 avec cette matrice pour matrice de transition, et admettant une représentation
comme dans le Théorème 8.1.3.
Démonstration. On identifiera E à N. On pose
j−1
j
Xn+1 = j si pXn k < Zn+1 ≤ pX n k ,
k=0 k=0
où {Zn }n≥1 est iid, uniformément distribuée sur (0, 1]. On peut appliquer le Théorème
8.1.3, et on vérifie que cette cmh a la matrice de transition requise (Formule (8.6)).
Cette représentation est utile pour simuler de petites (avec un petit espace d’état) cmh.
Elle a également un intérêt théorique. En particulier, lorsqu’on cherche à démontrer une
propriété qui concerne la distribution d’une cmh, on peut toujours supposer que celle-ci
admet une représentation comme dans le Théorème 8.1.3. Cette remarque sera utile à
plusieurs reprises.
Toutes les cmh ne reçoivent pas de manière “naturelle” une description du type
donné dans le Théorème 8.1.3. Une légère modification de ce théorème en élargit
considérablement la portée.
Théorème 8.1.5 Considérons la situation du Théorème 8.1.3, sauf en ce qui concerne
la distribution de X0 , Z1 , Z2 , . . .. On suppose à la place que F est dénombrable et que
pour tout n ≥ 0, Zn+1 est conditionnellement indépendant de Zn , . . . , Z1 , Xn−1 , . . . , X0
sachant Xn , c’est-à-dire : pour tout k, k1 , . . . , kn ∈ F , i0 , i1 , . . . , in−1 , i ∈ E,
où la dernière quantité est indépendante de n. Alors, {Xn }n≥0 est une cmh dont les
probabilités de transition sont données par la formule :
i
déplacée fut trouvée dans le compartiment A) avec la probabilité N, soit i + 1 (elle fut
trouvée dans B) avec la probabilité NN−i .
Ce modèle relève du Théorème 8.1.5. Pour tout n ≥ 0,
Xn+1 = Xn + Zn+1 ,
Analyse à un pas
Certaines fonctionnelles de cmh, en particulier les probabilités d’absorption par un
ensemble d’états A fermé ( j∈A pij = 1 pour tout i ∈ A) et les temps moyens avant
absorption, peuvent être évalués grâce à la méthode appelée analyse à un pas. Cette
technique, qui est le moteur de la plupart des calculs en théorie des chaı̂nes de Markov,
va être illustrée par les exemple suivants.
0
1 2 3 4 5 6 7 8 9 10 T = 11
La ruine du joueur B
210 CHAPITRE 8. CHAÎNES DE MARKOV
u(i) = P (XT = c | X0 = i)
pour tout i, 0 ≤ i ≤ c, et pour ce faire, elle génère une équation de récurrence pour les
u(i) en décomposant l’événement “A gagne” selon les éventualités du premier lancer, et
en utilisant la règle des causes totales. Si X0 = i, 1 ≤ i ≤ c − 1, alors X1 = i + 1 (resp.,
X1 = i − 1) avec probabilité p (resp., q), et la probabilité de ruine de B sachant que A
a une fortune initiale i + 1 (resp., i − 1) est u(i + 1) (resp., u(i − 1)). Donc, pour tout i,
1 ≤ i ≤ c − 1,
u(i) = pu(i + 1) + qu(i − 1),
avec les conditions aux frontières u(0) = 0, u(c) = 1.
L’équation caractéristique associée à cette équation de récurrence linéaire est
pr2 − r + q = 0. Elle a deux racines distinctes, r1 = 1 et r2 = pq , si p = q, et une racine
+ ,i
double, r1 = 1, si p = q = 21 . La solution générale est donc u(i) = λr1i + µr2i = λ + µ pq
quand p = q, et u(i) = λr1i + µir1i = λ + µi lorsque p = q = 21 . Tenant compte des
conditions aux frontières, on peut calculer λ et µ. Le résultat est, pour p = q,
1 − ( pq )i
u(i) = ,
1 − ( pq )c
et pour p = q = 12 ,
i
u(i) = .
c
m(0) = 0, m(c) = 0.
8.1. LA MATRICE DE TRANSITION 211
1 1
−1 = y2 − y1 ,
2 2
1 1
−1 = y3 − y2 ,
2 2
..
.
1 1
−1 = yi − yi−1 ,
2 2
et donc, en sommant,
1 1
−(i − 1) = yi − y1 ,
2 2
c’est-à-dire, pour 1 ≤ i ≤ c,
yi = y1 − 2(i − 1).
p p
p q
JEU A AV. A ÉGALITÉ AV. B JEU B
q q
q p
p q
p 40 − 15 q p 15 − 40 q
q p q p
40 − 0 30 − 15 15 − 30 0 − 40
p q p q p q
30 − 0 15 − 15 0 − 30
p q p q
15 − 0 0 − 15
p q
0−0
a
q q q
1 5 4 3 2 1 1
p p p
b
Tennis : un jeu sans la règle du tie-break
8.1. LA MATRICE DE TRANSITION 213
L’analyse à un pas donne pour bi , la probabilité pour que B gagne sachant que la
deuxième étape débute en i,
b1 = 1 , b 5 = 0
et
b2 = q + pb3 ,
b3 = qb2 + pb4 ,
b4 = qb3 .
pour p = q,
1 − pq q2 q3
(b1 , b2 , b3 , b4 , b5 ) = 1 , q , , ,0 .
1 − 2pq 1 − 2pq 1 − 2pq
Si on débute en 0-0, B gagne avec la probabilité 5i=1 p(i)bi , où p(i) est la probabilité
que la deuxième étape débute en i. Une simple énumération des chemins allant de 0-0 à
l’état supérieur 1 donne p(1) = q 4 + q 3 pq + q 2 pq 2 + qpq 3 + pq 4 , c’est-à dire,
p(1) = q 4 (1 + 4p).
Distribution stationnaire
Définition 8.1.2 Une distribution de probabilité π satisfaisant l’equation de balance
globale
πT = πT P (8.7)
est appelée distribution stationnaire de la matrice de transition P, ou de la cmh.
ne dépend plus n. C’est dans ce sens qu’on dit que la chaı̂ne est stationnaire. On dit
aussi qu’elle se trouve en régime stationnaire, ou en équilibre. En résumé :
214 CHAPITRE 8. CHAÎNES DE MARKOV
Ce système dépendant se réduit à une seule équation π(1)α = π(2)β, à laquelle il faut
ajouter π(1) + π(2) = 1 qui exprime que π est une probabilité. On obtient
β α
π(1) = , π(2) = .
α+β α+β
1
Ceci donne pour π distribution binomiale de taille N et de paramètre 2 :
1 N
π(i) = N .
2 i
où pi > 0 et qi > 0 pour tout état i tel que 1 ≤ i ≤ N − 1. Les équations de balance
globale pour les états i = 0, N sont :
et
π(1)q1 − π(0) = 0,
π(2)q2 − π(1)p1 = π(1)q1 − π(0).
216 CHAPITRE 8. CHAÎNES DE MARKOV
Ceci donne
1
π(1) = π(0) ,
q1
et pour 2 ≤ i ≤ N ,
p1 p2 · · · pi−1
π(i) = π(0) . (8.8)
q1 q2 · · · qi
L’inconnue π(0) est déterminée par l’égalité N i=0 π(i) = 1 (π est une probabilité), ce
qui donne, 0 1
1 p1 p1 p2 · · · pN −1
π(0) 1 + + + ··· + = 1. (8.9)
q1 q1 q2 q1 q2 · · · qN −1 qN
Retournement du temps
Les notions de retournement de temps et de réversibilité sont très productives en
théorie des chaı̂nes de Markov.
Soit {Xn }n≥0 une cmh de matrice de transition P admettant une distribution sta-
tionnaire π positive (π(i) > 0 pour tout état i). La matrice Q, indexée par E, définie
par
π(i)qij = π(j)pji , (8.10)
est une matrice stochastique. En effet,
π(j) 1 π(i)
qij = pji = π(j)pji = = 1,
π(i) π(i) π(i)
j∈E j∈E j∈E
où la troisième égalité tient compte des équations de balance globale. Elle reçoit l’in-
terprétation suivante : supposons que la distribution initiale soit π, auquel cas pour tout
n ≥ 0, tout i ∈ E,
P (Xn = i) = π(i).
Alors la formule de rétrodiction de Bayes donne
P (Xn+1 = i | Xn = j)P (Xn = j)
P (Xn = j | Xn+1 = i) = ,
P (Xn+1 = i)
c’est-à-dire, au vu de (8.10),
Théorème 8.1.7 Soit P une matrice stochastique indexée par l’ensemble dénombrable
E, et soit π une distribution de probabilité positive sur E. Si la matrice Q indexée par
E et définie par (8.10) est une matrice stochastique (la somme de chacune des lignes
est égale à 1), alors π est une distribution stationnaire de P.
Dans ce cas, qij = pij , et donc la chaı̂ne et la chaı̂ne retournée ont la même distribution
puisque celle-ci est entièrement déterminée par la distribution initiale et la matrice de
transition. Les équations (8.11) sont appelées les équations de balance detaillée. Le
résultat suivant est un corollaire immédiat du Théorème 8.1.7.
Théorème 8.1.8 Soit P une matrice de transition sur E, et soit π une distribution de
probabilité sur E. Si pour tout i, j ∈ E, les équations de balance détaillée (8.11) sont
vérifiées, alors π est une distribution stationnaire de P.
Exemple 8.1.10: L’urne d’Ehrenfest, take 3. (suite des Exemples 8.1.3 et 8.1.8)
On rappelle qu’on avait obtenu l’expression
1 N
π(i) =
2N i
pour la distribution stationnaire. La vérification des équations de balance détaillée
Exemple 8.1.11: Marche aléatoire sur un graphe. Soit un graphe non orienté où
on note E l’ensemble de ses sommets, ou nœuds. Soit di le nombre d’arêtes adjacentes
218 CHAPITRE 8. CHAÎNES DE MARKOV
Pour cela on utilise le Théorème 8.1.8, en faisant le pari que la chaı̂ne est réversible. Il
nous faut juste vérifier que
1 1
π(i) = π(j) ,
di dj
ce qui est bien le cas.
1 1 1
3
1
1 2
1 1
2 4 2 2 2 4
1 1
3 2
1
3
3 3
Communication
Les propriétés que l’on va définir dans cette fin de section (communication et période)
sont purement topologiques, en ce sens qu’elles concernent le graphe de transition “nu”,
c’est-à-dire sans les étiquettes indiquant les probabilités de transition.
Définition 8.1.4 L’état j est dit accessible depuis l’état i s’il existe un entier M ≥ 0
tel que pij (M ) > 0. En particulier, un état i est toujours accessible depuis lui-même,
puisque pii (0) = 1. Les états i et j sont dits communiquer si i est accessible depuis j et
si j est accessible depuis i. On note ceci i ↔ j.
Pour M ≥ 1, pij (M ) = i1 ,...,iM −1 pii1 · · · piM −1 j , et donc pij (M ) > 0 si et seulement
si il existe au moins un chemin i, i1 , . . . , iM −1 , j de i à j tel que
i↔i (reflexivité),
i↔j⇒j↔i (symétrie),
i ↔ j, j ↔ k ⇒ i ↔ k (transivité).
Donc la relation de communication (↔) est une relation d’équivalence. Elle engendre
une partition de l’espace d’état E en classes d’équivalences appelées classes de commu-
nication.
Définition 8.1.5Un état i tel que pii = 1 est dit fermé. Plus généralement, un ensemble
C d’états tel que j∈C pij = 1 pour tout i ∈ C est dit fermé.
3 5 7
1 4
2 6 8
Définition 8.1.6 S’il n’y a qu’une seule classe de communication, la chaı̂ne, sa matrice
de transition et son graphe de transition sont dits irréductibles.
220 CHAPITRE 8. CHAÎNES DE MARKOV
Période
Considérons la marche aléatoire sur Z (Exemple 8.1.1). Comme 0 < p < 1, elle est
irréductible. On observe que E = C0 + C1 , où C0 et C1 , l’ensemble des entiers relatifs
pairs et impairs respectivement, ont la propriété suivante. Si on part de i ∈ C0 (resp., C1 ),
on ne peut se rendre en une seule étape que dans un état j ∈ C1 (resp., C0 ). La chaı̂ne
passe alternativement d’une classe à l’autre. En ce sens, la chaı̂ne a un comportement
périodique, correspondant à la période 2. Voici la définition exacte.
avec la convention di = +∞ s’il n’y a pas d’indice n ≥ 1 tel que pii (n) > 0 (on ne revient
pas en i). Si di = 1, l’état i est dit apériodique.
Définition 8.1.8 Si la chaı̂ne est irréductible, la période d commune à tous les états
est appelée la période de P, ou de la chaı̂ne. Si d = 1, la matrice de transition et la
chaı̂ne sont dites apériodiques.
Le reste de la preuve découle d’un résultat classique de la théorie des nombres : tout
ensemble A d’entiers positifs qui est fermé par addition et de pgcd d (comme c’est bien
le cas pour A = {k ≥ 1; pjj (k) > 0}) contient tous les multiples de d, sauf peut-être un
nombre fini d’entre eux. En d’autres termes, dans le cas qui nous intéresse, il existe n0
tel que n > n0 entraı̂ne pjj (nd) > 0.
Au vu du résultat précédent, il est clair que pour une cmh irréductible de période d, on
peut trouver une unique partition de E en d classes C0 , C1 , . . ., Cd−1 telles que pour
tout k, 0 ≤ k ≤ d, et tout i ∈ Ck ,
pij = 1,
j∈Ck+1
où par convention Cd = C0 . Les classes C0 , C1 , . . . , Cd−1 sont les classes cycliques.
Considérons une cmh irréductible de période d dont les classes cycliques sont C0 ,
C1 ,. . . ,Cd . En renumérotant les états de E si nécessaire, la matrice de transition a la
structure de blocs ci-dessous (où on a choisi d = 4 pour être explicite),
C0 C1 Cd−2 Cd−1
Cycles
C0 C1 C2 C3
C0 0 A0 0
C1
0 0 A1 0 ,
P=
C2 0 0 0 A2
C3 A3 0 0 0
et finalement
E0 0 0 0
0 E1 0 0
P4 =
0
.
0 E2 0
0 0 0 E3
On observe deux phénomènes : le décalage des blocs et le fait que P4 est bloc-diagonale.
Ceci est évidemment général : Pd est bloc-diagonale relativement aux classes cycliques
C0 , C1 , . . . , Cd−1 . La matrice de transition à d étapes, Pd , est aussi une matrice stochas-
tique, et les classes cycliques sont des classes de communication de Pd comme le montre
la forme bloc-diagonale de cette dernière matrice.
8.2 Récurrence
Cette section et la suivante sont consacrées à l’étude du comportement à long terme
des chaı̂nes de Markov homogènes. Les notions importantes sont celles d’état récurrent
et d’état transitoire. Soit {Xn }n≥0 une cmh de matrice de transition P. On définit le
temps de retour en i par
Ti = inf{n ≥ 1; Xn = i},
avec la convention usuelle : inf ∅ = ∞ (Ici : Ti = ∞ si Xn = i pour tout n ≥ 1).
Définition 8.2.1 On dit que l’état i est récurrent si Pi (Ti < ∞) = 1. Un état i
récurrent est dit récurrent positif si de plus Ei [Ti ] < ∞, récurrent nul si Ei [Ti ] = ∞.
Un état qui n’est pas récurrent est dit transitoire.
Pour un état i fixé, notons {τk }k≥1 la suite des temps de retour successifs dans l’état i.
Formellement :
τ 1 = Ti
...
τk+1 = inf{n > τk ; Xn = i}
...
Pj (Ni = 0) = 1 − fji
et, lorsque r ≥ 1,
Pj (Ni = r) = fji × (fi i)r−1 × (1 − fii ).
On en déduit que :
En particulier :
Théorème 8.2.2 Pour que l’état i soit récurrent, il faut et il suffit que
∞
pii (n) = ∞.
n=1
224 CHAPITRE 8. CHAÎNES DE MARKOV
Exemple 8.2.1: Marche aléatoire sur Z, take 2. (suite de l’Exercice 8.1.1) Comme
0 < p < 1, cette chaı̂ne est irréductible et tous ses états sont de même nature (transitoires
ou récurrents). Considérons par exemple l’état 0. On a p00 (2n + 1) = 0 et
(2n)! n
p00 (2n) = p (1 − p)n .
n!n!
√
D’après la formule d’équivalence de Stirling (n! ∼ (n/e)n 2πn), la quantité ci-dessus
est équivalente à
[4p(1 − p)]n
√ . (8.12)
πn
La nature de la série ∞ n=0 p00 (n) est donc la même que celle de la série de terme général
(8.12). Si p = 2 , auquel cas 4p(1 − p) < 1, cette dernière converge, et si p = 12 , auquel
1
cas 4p(1 − p) = 1, elle diverge. Donc, la marche aléatoire sur Z est transiente si p = 21 ,
récurrente si p = 21 .
Les exemples où l’on peut utiliser le critère de la matrice potentiel pour vérifier si un
état est récurrent ou non sont rares. Ce critère va cependant nous servir à démontrer
l’important résultat suivant, à savoir que la récurrence est une “propriété de classe” (de
communication).
Théorème 8.2.3 Soit une cmh de matrice de transition P. Deux états qui commu-
niquent sont, soit tous deux récurrents, soit tous deux transitoires. En particulier, si P
est irréductible, les états sont soit tous récurrents, soit tous transitoires. La chaı̂ne (ou
sa matrice de transition) est alors dite, respectivement, récurrente, transiente.
Définition 8.2.2 Un vecteur non nul x = {xi }i∈E de coordonnées non négatives est
appelé mesure invariante de la matrice stochastique P = {pij }i,j∈E si pour tout i ∈ E,
xi = xj pji . (8.13)
j∈E
Démonstration.
A. Faisons deux observations préliminaires. Premièrement, quand 1 ≤ n ≤ T0 , Xn = 0
si et seulement si n = T0 , et donc
x0 = 1.
Deuxièmement,
T0 T0
T0
1{Xn =i} = 1{Xn =i} = 1 = T0 ,
i∈E n=1 n=1 i∈E n≥1
226 CHAPITRE 8. CHAÎNES DE MARKOV
et donc
xi = E0 [T0 ]. (8.17)
i∈E
C’est la probabilité que, partant de l’état 0, on visite i au temps n sans être au préalable
retourné en 0. On a
x i = E0 1{Xn =i} 1{n≤T0 } ,
n≥1
et donc,
xi = 0 p0i (n). (8.18)
n≥1
On observe que
0 p0i (1) = p0i .
D’autre part, en utilisant la méthode d’analyse à un pas, pour tout n ≥ 2,
0 p0i (n) = 0 p0j (n − 1)pji . (8.19)
j
=0
Si xi était nul pour un i ∈ E, i = 0, cela impliquerait que p0i (n) = 0 pour tout n ≥ 0, et
donc que 0 et i ne communiquent pas, en contradiction avec l’hypothèse d’irréductibilité.
Il reste à montrer que xi < ∞ pour tout i ∈ E. Comme précédemment, on trouve que
1 = x0 = xj pj0 (n)
j∈E
B. Dans la preuve de la partie A, on a montré que pour toute mesure invariante y d’une
matrice stochastique irréductible, yi > 0 pour tout i ∈ E. On peut donc définir, pour
tout i, j ∈ E, la matrice Q par
yi
qji = pij . (8.20)
yj
y
C’est une matrice de transition, puisque i∈E qji = y1j i∈E yi pij = yjj = 1. Le terme
général de Qn est
yi
qji (n) = pij (n). (8.21)
yj
En effet, en supposant (8.21) vraie pour n,
yk yi
qji (n + 1) = qjk qki (n) = pkj pik (n)
yj yk
k∈E k∈E
yi yi
= pik (n)pkj = pij (n + 1),
yj yj
k∈E
On voit donc que les suites {y0 0 p0i (n)} et {yi gi0 (n)} vérifient la même équation
de récurrence. Leurs premiers termes (n = 1), respectivement y0 0 p0i (1) = y0 p0i et
yi gi0 (1) = yi qi0 , sont égaux, d’après (8.20). Donc, pour tout n ≥ 1,
yi
0 p0i (n) = gi0 (n).
y0
En sommant par rapport à n ≥ 1 et en utilisant l’égalité n≥1 gi0 (n) = 1 (Q est
récurrente), on obtient le résultat annoncé : xi = yy0i .
228 CHAPITRE 8. CHAÎNES DE MARKOV
Théorème 8.2.5 1. Une cmh irréductible est récurrente positive si et seulement si elle
admet une probabilité stationnaire π. Dans ce cas, la probabilité stationnaire est unique,
et π(i) > 0 pour tout i ∈ E.
2. Soit π l’unique distribution stationnaire d’une chaı̂ne irréductible récurrente positive,
et soit Ti le temps de retour en i. Alors
Démonstration.
1. La partie directe est une conséquence immédiate du Théorème 8.2.4. Pour la
réciproque, supposons l’existence d’une distribution stationnaire π. En itérant π T =
π T P, on obtient π T = π T Pn , c’est-à-dire, pour tout i ∈ E,
π(i) = π(j)pji (n).
j∈E
(En effet, limn↑∞ pji (n) = limn↑∞ Ej [1{Xn =i} ]. D’autre part, limn↑∞ 1{Xn =i} = 0 (j est
transient) et 1{Xn =i} ≤ 1, et donc, par convergence dominée, limn↑∞ Ej [1{Xn =i} ] = 0.)
Puisque pji (n) est uniformément (en j et n) bornée par 1, on a, par convergence dominée
à nouveau,
π(i) = lim π(j)pji (n) = π(j) lim pji (n) = 0.
n↑∞ n↑∞
j∈E j∈E
Ceci contredit i∈E π(i) = 1. La chaı̂ne ne peut donc être que récurrente, et d’après le
Théorème 8.2.4, partie C, elle est récurrente positive.
La distribution stationnaire π d’une chaı̂ne irréductible récurrente positive est unique
(d’après le Théorème 8.2.4, partie B, et le fait que le seul choix du facteur multiplicatif
est 1). Aussi, on rappelle que π(i) > 0 pour tout i ∈ E (Théorème 8.2.4, partie A).
2. Cette égalité est une conséquence directe de l’expression (8.14) de la mesure invariante.
En effet, π est obtenue par normalisation de x : pour tout i ∈ E,
xi
π(i) = ,
j∈E xj
8.2. RÉCURRENCE 229
Dans ce cas π(i) est donné par (8.8), où π(0) est déterminé par (8.24).
Un cas particulier important est
E = N, pi = p, qi = 1 − p, ri = 0
où 0 < p < 1. Il s’agit d’une marche aléatoire du type de l’Exemple 8.1.1 où l’état 0 est
“réfléchissant”. La condition (8.25) se lit
p
i
< ∞,
1−p
j
oùa+ = max(a, 0). En particulier, si {Zn }n≥1 est une suite iid indépendante de l’état
initial X0 , alors {Xn }n≥0 est une cmh. En termes de la distribution de probabilité
P (Z1 = k) = ak , k ≥ 0,
Nous allons montrer qu’une condition nécessaire et suffisante d’irréducibilité est que
P (Z1 = 0) > 0 (a0 > 0) et P (Z1 ≥ 2) > 0 (a0 + a1 < 1).
L’équation de récurrence (8.26) nous permet de faire les observations suivantes. Si
a0 = 0, alors Xn+1 ≥ Xn et il y a donc une probabilité nulle d’aller de i à i − 1 quel que
soit i ≥ 1. Si a0 + a1 = 1, alors Xn+1 ≤ Xn et il y a donc une probabilité nulle d’aller
de i à i + 1 quel que soit i ≥ 0. Donc les deux conditions a0 > 0 et a0 + a1 < 1 sont
nécéssaires pour l’irréductibilité.
Elles sont également suffisantes. En effet, s’il existe k ≥ 2 tel que P (Zn+1 = k) > 0,
alors on peut aller de n’importe quel i > 0 à i + k − 1 > i ou de i = 0 à k > 0 avec une
probabilité positive. De plus, si P (Zn+1 = 0) > 0, on peut aller de i > 0 à i − 1 avec
une probabilité positive. En particulier, on peut aller de i à j < i avec une probabilité
positive. Donc, pour aller de i à j ≥ i, on peut procéder par sauts vers le haut de
hauteur strictement positive, pour atteindre un état l ≥ i, et ensuite, dans le cas où
l > i, descendre par sauts d’une unité vers le bas de l à i. Tout ceci avec une probabilité
positive.
Supposons que la chaı̂ne soit irréductible récurrente positive, avec la distribution
stationnaire π. Soit z un nombre complexe de module ≤ 1. De (8.26), on tire
+ +
,
z Xn+1 +1 = z (Xn −1) +1 z Zn+1
= z Xn 1{Xn >0} + z1{Xn =0} z Zn+1
= z Xn − 1{Xn =0} + z1{Xn =0} z Zn+1 ,
8.2. RÉCURRENCE 231
et donc
zz Xn+1 − z Xn z Zn+1 = (z − 1)1{Xn =0} z Zn+1 .
Comme Xn et Zn+1 sont indépendantes, E[z Xn z Zn+1 ] = E[z Xn ]gZ (z), où gZ (z) est la
fonction génératrice de Zn+1 , et E[1{Xn =0} z Zn+1 ] = π(0)gZ (z), où π(0) = P (Xn = 0).
Donc,
zE[z Xn+1 ] − gZ (z)E[z Xn ] = (z − 1)π(0)gZ (z).
Si on est en régime stationnaire, alors E[z Xn+1 ] = E[z Xn ] = gX (z), et donc :
gX (x)(x − gZ (x)) = 0
pour tout x ∈ [0, 1]. Mais comme la chaı̂ne est supposée irréductible, le cas Zn+1 ≡ 1
(c’est-à-dire, gZ (x) ≡ x) est exclus et l’équation x − gZ (x) = 0 a seulement x = 1 comme
solution quand gZ (1) = E[Z] ≤ 1. Donc gX (x) ≡ 0 pour tout x ∈ [0, 1), et en conséquence
gX (z) ≡ 0 sur {|z| < 1} (une fonction analytique sur un ouvert ne peut avoir de points
d’accumulation de zéros à l’intérieur de cet ouvert, sauf si elle est identiquement nulle).
Ceci mène à une contradiction puisque la fonction génératrice d’une variable à valeurs
entières ne peut être identiquement nulle.
On a donc démontré qu’une condition nécessaire de récurrence positive est E[Z] < 1.
Nous allons voir que c’est aussi une condition suffisante. On commence par vérifier que
la condition E[Z] < 1 entraı̂ne la récurrence. Il suffit de montrer que la probabilité de
l’événement A = “non retour en 0 en partant de 0” est nulle. En effet dans A, pour
tout n,
n
Xn = 1 + (Zk − 1) 1
k=1
et en particulier n
k=1 Zk
− 1 > 0,
n
ce qui donne, en faisant tendre n vers l’infini, d’après la loi forte des grands nombres,
E[Z] ≥ 1. Une contradiction.
232 CHAPITRE 8. CHAÎNES DE MARKOV
où on a utilisé le fait que l’événement {n > T0 }, qui ne dépend que de Z1 , . . . , Zn−1 , est
indépendant de Zn . On a donc, à partir de (8.29)
&∞ '
E0 [T0 ] = 1 + E0 Zn 1n≤T0
n=1
∞
=1+ E0 [Zn 1n>T0 ]
n=1
∞
=1+ E0 [Zn ] E [1n≤T0 ]
n=1
∞
= 1 + E [Z1 ] E0 [1n≤T0 ]
n=1
& ∞
'
= 1 + E [Z1 ] E0 1n≤T0
n=1
= 1 + E [Z1 ] E0 [T0 ] ,
message frais
message en attente, non autorisé à retransmettre
message en attente, autorisé à retransmettre
transmission réussie
Le protocole aloha
pij = b1 (i)a0 si j = i − 1,
= [1 − b1 (i)]a0 + b0 (i)a1 si j = i,
= [1 − b0 (i)]a1 si j = i + 1,
= aj−i si j ≥ i + 2.
La preuve consiste à comptabiliser les possibilités. Par exemple, la première ligne cor-
respond à un parmi les i messages en attente (de transmission ou de retransmission) qui
réussit à passer, et pour cela il faut qu’il y ait soit pas de message nouveau (probabilité
a0 ) et un seul parmi les i messages en attente qui est admis à retransmettre (probabilité
b1 (i)). La seconde ligne correspond à un des deux événements suivants : (1), “pas de
nouveau message et zéro ou plus de deux requêtes de retransmission parmi les messages
en attente” et (2), “un nouveau message et zéro requête de retransmission parmi les
messages en attente”.
Le but de cet exemple est de démontrer que ce protocole n’est pas stable, en ce
sens que la cmh {Xn }n≥0 n’est pas récurrente positive. Pour cela, il suffit, d’après le
Théoreme 8.3.1 de contredire l’existence d’une distribution stationnaire π.
Si une telle distribution stationnaire existait, elle satisferait aux équations de balance
globale
et donc
π(N + 1) (1 − a0 ) − (1 − ν)N a1
≥ .
π(N ) (N + 1)ν(1 − ν)N a0
Pour toutes les valeurs de ν ∈ (0, 1), le membre de droite de cette inégalité tend vers
l’infini, ce qui contredit ∞
N =1 π(N ) = 1 et les inégalités π(N ) > 0 que π doit vérifier
en tant que distribution stationnaire d’une cmh irréductible.
D
Supposons que l’on trouve un processus {Xn }n≥0 tel que Xn ∼ Xn pour tout n ≥ 0,
D
et un processus {Xn }n≥0 tel que Xn ∼ π pour tout n ≥ 0. Alors, le résultat sera démontré
si l’on peut prouver que
Nous allons construire {Xn }n≥0 et {Xn }n≥0 pour que cette situation ait bien lieu. Nous
allons le faire de telle sorte qu’il existe un temps aléatoire presque sûrement fini τ tel
que Xn = Xn pour tout n ≥ τ . On montrera ci-dessous que, dans ce cas,
Alors, la finitude de τ entraı̂ne que limn↑∞ P (τ > n) = 0, et le résultat sera donc prouvé.
Voici la démonstration de (8.31) :
(1) (2)
Démonstration. Considérons la cmh {Zn }n≥0 définie par Zn = (Xn , Xn ) ( chaı̂ne
produit), prenant ses valeurs dans E × E. Sa probabilité de transition de (i, k) à (j,
)
en n étapes est pij (n)pk (n), elle est irréductible, et elle admet {π(i)π(j)}(i,j)∈E 2 comme
distribution stationnaire (voir l’Exercice 8.5.16, où le rôle de l’hypothèse d’apériodicité
est mis en évidence). D’après le critère de la distribution stationnaire, la chaı̂ne produit
est récurrente positive. En particulier, elle atteint la diagonale de E 2 en temps fini, et
donc P (τ < ∞) = 1.
Il reste à prouver que le processus {Xn }n≥0 défini par (8.32) est une cmh de matrice
de transition P. Ceci est fait dans l’Exercice 8.5.18.
8.3. COMPORTEMENT ASYMPTOTIQUE 237
µ Xn
(1)
(2)
Xn
Xn
ν
0
Exemple 8.3.1: L’urne d’Ehrenfest, take 4. (suite des Exemples 8.1.3, 8.1.8 et
8.1.10) La célébrité du modèle d’Ehrenfest est due à l’éclaircissement qu’il apporte au
phénomène d’irréversibilité thermodynamique, un sujet de controverses du temps de
Boltzmann. Selon la théorie macroscopique de la thermodynamique de ce physicien, les
systèmes progressent d’une manière ordonnée vers l’équilibre thermodynamique.
Considérons, par exemple, un système de N particules gazeuses dans une boite divisée
en deux compartiments, A et B, séparés par une membrane fictive. Si à l’origine des
temps on place toutes les particules dans le compartiment A, ces particules vont se
redistribuer, et le système atteint l’équilibre, un état pour lequel les contenus deux
compartiments sont thermodynamiquement équivalents. Boltzmann disait qu’il existait
une flèche du temps en direction de l’entropie croissante, et en effet dans l’expérience de
diffusion modélisée par le modèle des Ehrenfest, l’équilibre thermodynamique correspond
à l’entropie maximale du système.
Boltzmann eut un redoutable contradicteur, un certain Zermelo, qui, au vu de la
réversibilité dans le temps des lois de la physique, doutait de la flèche du temps évoquée
par Boltzmann, ou du moins, demandait une explication. Sa position était renforcée par
d’irréfutables mathématiques, en particulier le théorème de récurrence de Poincaré qui
prédisait que si l’expérience débutait avec toutes les particules dans le compartiment A,
on les retrouverait toutes, tôt ou tard dans le compartiment d’origine. Comme chacun
sait, ce comportement n’est jamais observé dans la vie quotidienne, et on n’a jamais vu
le sucre dissous dans la tasse de café reprendre sa forme initiale.
La théorie de Boltzmann était mise à mal par ce type d’arguments. Les choses de-
vaient être clarifiées, et elles le furent par Tatiana et Paul Ehrenfest, dont le modèle
markovien permit de sauver tout l’édifice.
Ce modèle ne rentre pas dans les détails de la physique du phénomène de diffusion,
mais il en conserve les traits essentiels du point de vue de la physique statistique. C’est un
système réversible (la chaı̂ne de Markov est réversible) et il est récurrent, repassant une
infinité de fois dans n’importe quel état, comme par exemple celui où le compartiment A
est vide. L’irréversibilité du système consiste en ceci : en partant d’un état quelconque,
238 CHAPITRE 8. CHAÎNES DE MARKOV
1 2L
2 (1 + O(L))
2L
tandis que le temps moyen pour aller de L à 0 est inférieur à
L + L log L + O(1).
Avec L = 106 et une unité de temps mathématique égale à 10−5 seconde, le retour à
l’état L en partant de 0 est de l’ordre d’une seconde, tandis qu’il faudrait de l’ordre de
1 106
11
× 22 secondes
2 · 10
pour passer de L à 0. Il s’agit d’un temps astronomique, et c’est en ce sens que le retour
en 0 n’est pas observable.
Ces nombres nous apprennent qu’il est inutile de passer trop de temps à touiller
son café, ou de l’avaler rapidement de peur que le morceau de sucre se reforme. Plus
sérieusement : rien n’empêche la chaı̂ne de se trouver dans un état rare (au sens proba-
biliste, c’est-à-dire, de faible probabilité stationnaire), seulement elle ne s’y trouve que
rarement (au sens temporel), extrêmement rarement, pour nous autre mortels, jamais !
Boltzmann était conscient du fait que les temps de récurrence dans le théorème de
Poincaré devaient être très longs, mais ses arguments n’avaient pas réussi à convaincre,
ce que put faire le modèle Ehrenfest.
Théorème ergodique
Nous allons donner des conditions générales garantissant que les moyennes empiriques
du type
N
1
g(Xk , . . . , Xk+L )
N
k=1
1
Dans ce modèle, ce n’est pas vrai à cause de la périodicité de la chaı̂ne, mais cette objection
disparait au prix d’une légère modification.
8.3. COMPORTEMENT ASYMPTOTIQUE 239
Proposition 8.3.1 Soit {Xn }n≥0 une cmh irréductible récurrente, et soit x la mesure
invariante canonique associée à l’état 0 ∈ E,
x i = E0 1{Xn =i} 1{n≤T0 } , (8.33)
n≥1
La suite {Up }p≥1 est, d’après le Théorème 8.2.1, iid. De plus, si on suppose f ≥ 0,
&T '
0
E[U1 ] = E0 f (Xn )
n=1
& T0
' & T0
'
= E0 f (i)1{Xn =i} = f (i)E0 1{Xn =i}
n=1 i∈E i∈E n=1
= f (i)xi .
i∈E
Cette quantité est finie par hypothèse et, d’après la loi forte des grands nombres,
n
1
lim Up = f (i)xi ,
n↑∞ n
p=1 i∈E
c’est-à-dire :
τn+1
1
lim f (Xk ) = f (i)xi . (8.37)
n↑∞ n
k=T0 +1 i∈E
240 CHAPITRE 8. CHAÎNES DE MARKOV
En observant que
τν(n) ≤ n < τν(n)+1 ,
on a :
τν(n) n τν(n)+1
k=1 f (Xk ) k=1 f (Xk ) k=1 f (Xi )
≤ ≤ .
ν(n) ν(n) ν(n)
Comme la chaı̂ne est récurente, limn↑∞ ν(n) = ∞, et donc, d’après (8.37), les termes
extrêmes de la chaı̂ne d’inégalités ci-dessus tendent vers i∈E f (i)xi quand n tend vers
l’∞, et ceci donne (8.36). Le cas où f est de signe arbitraire s’obtient en écrivant (8.36)
pour f + = max(0, f ) et f − = max(0, −f ), et en prenant les différences des égalités
obtenues de cette manière (la différence n’est pas une forme indéterminée ∞ − ∞, grâce
à l’hypothèse (8.35)).
Nous sommes maintenant en mesure de donner le théorème ergodique pour les chaı̂nes
de Markov.
Théorème 8.3.3 Soit {Xn }n≥0 une cmh irréductible récurrente positive de distribu-
tion stationnaire π, et soit f : E → R une fonction telle que
Eπ [|f (X0 )|] := |f (i)|π(i) < ∞. (8.38)
i∈E
Corollaire 8.3.1 Soit {Xn }n≥0 une cmh irréductible récurrente positive de distribution
stationnaire π, et soit g : E L+1 → R une fonction telle que
Eπ [|g(X0 , . . . , XL )|] < ∞ .
Alors, pour toute distribution initiale µ, presque sûrement,
N
1
lim g(Xk , Xk+1 , . . . , Xk+L ) = Eπ [|g(X0 , . . . , XL )|] .
N
k=1
N
1
lim 1{Xn =i0 ,Xn+1 =i1 } = Eπ 1{X0 =i0 ,X1 =i1 }
N ↑∞ N
k=1
= Pπ (X0 = i0 , X1 = i1 ) = π(i0 )pi0 ,i1 .
On voit donc que si l’on ne connaı̂t pas la matrice de transition d’une cmh irréductible
récurrente positive, on peut, en principe, obtenir cette matrice de transition si on dispose
d’une trajectoire complète de la cmh en question.
Exemple 8.3.3: Une politique de maintenance. Soit {Un }n≥1 une suite de variables
iid à valeurs dans N+ . La variable Un est interprétée comme la durée de vie d’une
machine, la n-ème, qui est remplacée par une (n + 1)-ème dès qu’elle tombe en panne.
Donc, au temps 0, la machine 1 est mise en service service jusqu’à ce qu’elle “casse” au
temps U1 , où elle est immédiatement remplacée par la machine 2, qui casse au temps
U1 + U2 , et ainsi de suite. Au temps n, le temps restant avant la prochaine panne est
Xn . Plus précisément, le processus {Xn }n≥0 prend ses valeurs dans E = N (On suppose
que ces variables prennent des valeurs arbitrairement grandes : P (U1 > k) > 0 pour
tout
k ≥ 1 ; l’autre cas se traı̂te de manière analogue), est égal à 0 au temps Rk = ki=1 Ui ,
à Uk+1 − 1 au temps Rk + 1, et alors décroı̂t d’une unité par unité de temps jusqu’à
ce qu’il atteigne la valeur 0 au temps Rk+1 . On supposera que pour tout k ∈ N+ ,
P (U1 > k) > 0, de sorte que l’espace d’état E est N. Alors {Xn }n≥0 est une cmh de
probabilités de transition :
P (U > i + 1)
pi,i+1 = P (U > i + 1 | U > i) = ,
P (U > i)
P (U = i + 1)
pi,0 = P (U = i + 1 | U > i) = ,
P (U > i)
où U est une variable aléatoire de même distribution que U1 . Cette cmh est irréductible,
comme on le vérifie facilement. Elle est récurrente positive si et seulement si E[U ] < ∞
(U1 = T0 ). Dans ce cas, sa distribution stationnaire est
P (U > i)
π(i) = . (8.40)
E[U ]
8.3. COMPORTEMENT ASYMPTOTIQUE 243
et
∞
π(0) = π(i)pi,0 .
i=0
Une visite de la cmh à l’état 0 correspond à une panne de la machine machine, et donc
d’après le théorème ergodique,,
N
1
π(0) = lim 1{Xk =0}
N ↑∞ N
k=1
E0 [T0 ] = E[U ],
et donc
N
1 1
lim 1{Xk =0} = . (8.41)
N ↑∞ N E[U ]
k=1
Le coût d’une panne peut être si important que l’on préfère remplacer une machine avant
qu’elle tombe en panne (une panne entraı̂ne des réparations coûteuses, peut-être même
une catastrophe humaine, tandis qu’un remplacement se traduit par de simples coûts de
maintenance). Dans la politique de de retraite à âge fixe, on choisit un entier T ≥ 1
et on impose que toute machine atteignant l’âge T soit immédiatement remplacée. On
veut calculer la fréquence empirique des pannes (pas des remplacements).
La cmh correspondant à cette politique est du même type que celle décrite plus haut,
on remplace simplement Un par Vn = Un ∧ T . Un remplacement (pas une panne) a lieu
au temps n si et seulement si Xn = 0 et Xn−1 = T − 1. Mais Xn−1 = T − 1 implique
Xn = 0, et donc un remplacement a lieu au temps n si et seulement si
Xn−1 = T − 1.
La fréquence empirique de remplacements non dus à des pannes est donc, d’après le
théorème ergodique,
N
1
lim 1{Xk =T −1} = π(T − 1).
N ↑∞ N
k=1
La formule (1) appliquée à cette nouvelle situation donne
P (V ≥ T )
π(T − 1) = ,
E[V ]
244 CHAPITRE 8. CHAÎNES DE MARKOV
et donc, comme V = U ∧ T ,
P (U ≥ T )
π(T − 1) = .
E[U ∧ T ]
La fréquence empirique des visites à 0 est, d’après (8.41),
1
.
E[U ∧ T ]
La fréquence empirique des pannes est donc
1 P (U ≥ T ) P (U < T )
− = .
E[U ∧ T ] E[U ∧ T ] E[U ∧ T ]
sur le principe suivant : on construit une cmh {Xn }n≥0 irréductible récurrente positive
apériodique dont l’espace des états est E = {1, 2, ..., r} et qui admet π comme distri-
bution stationnaire. On laisse ce processus évoluer jusquà un temps n assez grand pour
que la distribution de Xn soit assez proche de la distribution stationnaire π, et on prend
comme échantillon de π la variable Xn . La distribution de Xn n’est qu’approximative-
ment égale à π. Ceci n’est pas trop grave si on peut donner une vitesse de convergence
de la distribution au temps n vers la distribution stationnaire ce qui permet de contrôler
la qualité de l’approximation en choisissant n en fonction des exigences de précision.
Le problème des vitesses de convergence est un domaine de recherche très actif que
nous n’aborderons pas ici. Pour l’instant nous allons simplement choisir une matrice de
transition irréductible récurrente positive apériodique qui admet π comme distribution
stationnaire.
Il y a un nombre infini de telles matrices et, parmi elles, il y en a une infinité qui
correspondent à une paire (P, π) réversible, c’est-à-dire telle que
π(i)pij = π(j)pji . (8.42)
Nous allons chercher des solutions de la forme
pij = qij αij (8.43)
pour j = i, où Q = {qij }i,j∈E est une matrice de transition sur E irréductible. La chaı̂ne
évolue de la façon suivante : Lorsque l’état présent est i, on choisit un état j avec la
probabilité qij . Cet état j est accepté comme nouvel état avec la probabilité αij . S’il
n’est pas accepté, on ne change pas d’état, on reste en i. La probabilité de transition de
i à j quand i = j est bien donné par (8.42). Il reste maintenant à choisir qij et αij . Nous
allons décrire les deux algorithmes les plus célèbres.
Exemple 8.4.2: L’algorithme de Barker. Cet algorithme utilise lui aussi une ma-
trice Q symétrique. Sa probabilité d’acceptation est
e−U (i)
αij = .
e−U (i)+ e−U (j)
Ce choix correspond au principe de base de la physique statistique : quand la Nature a le
choix entre deux états 1 et 2 d’énergies respectives E1 et E2 , elle choisit i = 1, 2 avec la
−E
probabilité e−Ee1 +ei−E2 . Là encore, on vérifie que les équations de balance détaillée (8.42)
sont satisfaites, et que la cmh en question est bien irréductible et, lorsque la fonction
énergie n’est pas une constante, apériodique.
Exemple 8.4.3: L’algorithme de Gibbs. L’espace des états est E = ΛN , où N est
un entier positif et Λ est un ensemble fini. La distribution à échantillonner est donc de
la forme
π(z) = π(z(1), . . . , z(N ))
Le mécanisme de transition est le suivant. Si on se trouve dans l’état (z(1), . . . , z(N )), on
choisit un “site”
, 1 ≤
≤ N , au hasard, et on change la coordonnée z(
) (et elle seule)
en y(
), cette nouvelle coordonnée étant choisie en fonction de z(1), . . . , z(
− 1), z(
+
1), . . . , z(N ) avec la probabilité
Là encore, on vérifie que les équations de balance détaillée (8.42) sont satisfaites, que la
cmh en question est bien irréductible et, lorsque π n’est pas une constante, apériodique.
Cette méthode est spécialement intéressante lorsque Λ (l’“espace des phases”) est petit,
et lorsque la probabilité conditionnelle π(· | z(1), . . . , z(
− 1), z(
+ 1), . . . , z(N )) ne
dépend que d’un petit nombre des arguments z(1), . . . , z(
− 1), z(
+ 1), . . . , z(N ). Voici
un exemple qui présente un grand intérêt pour les physiciens :
8.5 Exercices
Exercice 8.5.1. Un contre-exemple.
La propriété de Markov ne dit pas que le présent et le futur sont indépendants étant
donné une information quelconque sur le présent. Trouvez un exemple simple de cmh
{Xn }n≥0 avec l’espace d’état E = {1, 2, 3, 4, 5, 6} tel que
P (X2 = 6 | X1 ∈ {3, 4}, X0 = 2) = P (X2 = 6 | X1 ∈ {3, 4}).
Exercice 8.5.2.
Démontrez l’égalité (8.2).
Exercice 8.5.3.
Démontrez le Théorème 8.1.5.
248 CHAPITRE 8. CHAÎNES DE MARKOV
Z1 = 1 Z2 = 4 Z3 = 2 Z4 = 1 Z5 = 1 Z6 = 3 Z7 = 2
s=5
X0 X5
X1
X3 X7
s=2
X4
X6
0
X2
Une stratégie de gestion populaire est la stratégie (s, S), où s et S sont des entiers tels
que 0 < s < S. Avec cette politique de gestion, si le niveau du stock au temps n est plus
gret que s, alors le stock est ramené au niveau S autemps n + 0. Autrement, rien n’est
fait. Le stock initial X0 est supposé inférieur ou égal à S, et donc {Xn }n≥1 prend ses
valeurs dans E = {S, S − 1, S − 2, . . .}. (Voir la figure.) Les valeurs négatives du stock
sont admises, avec interprétation qu’une commande non satisfaite est immédiatement
honorée après restockage. Montrez que {Xn }n≥1 est une cmh et donnez sa matrice de
transition.
tire que sur B tant que ce dernier est vivant. Le bienheureux C n’est visé que lorsqu’il
se trouve en présence de A seul ou B seul. Quelles sont les chances de survie de A, B, et
C, respectivement ?
Exercice 8.5.7. ∗ Le chat, la souris et le gruyère.
Une souris affairée se promène dans un labyrinthe. Si au temps n elle se trouve dans une
pièce avec k portes, elle en choisit une avec la probabilité k1 et se retrouve à l’instant
n + 1 dans la pièce à laquelle cette porte conduit. Un chat paresseux attend dans la pièce
numéro 3, et il y a un morceau de fromage dans la pièce numéro 5. La souris commence
son périple dans la pièce 1. Avec quelle probabilité goûtera-t-elle du fromage avant que
le chat ne la dévore ?
2 3
CHAT
1 4 5
SOURIS FROMAGE
La chambre au gruyère
Exercice 8.5.8.
Montrez que le graphe de transition de la figure ci-dessous est irréductible. Donnez sa
période et ses classes cycliques.
3 7
4 2
5
1 6
Exercice 8.5.9.
Montrez qu’une matrice de transition P avec au moins un état i ∈ E tel que pii > 0 est
apériodique.
250 CHAPITRE 8. CHAÎNES DE MARKOV
Exercice 8.5.10. ∗
Montrez que la marche aléatoire symétrique sur Z n’a pas de distribution stationnaire.
Exercice 8.5.11.
Est-ce que la cmh de l’Exemple 8.1.9 est réversible ?
Exercice 8.5.12.
Soit {Xn }n≥0 la cmh de l’Exemple 8.1.7.
(1) Montrez qu’elle est réversible ;
(2) Sachant X0 = 1, calculez la distribution de probabilité de T1 = inf {n ≥ 1; Xn = 1},
où on utilise la convention inf {∅} = ∞.
Exercice 8.5.13. ∗
Calculez la distribution stationnaire de la cmh d’espace d’état E = {1, 2, 3} et de matrice
de transition
1 1−α α 0
P = 0 1 − β β ,
γ 0 1−γ
où α, β, γ ∈ (0, 1). Est-elle réversible ?
Exercice 8.5.14. ∗
Démontrez le Théorème 8.2.1
Exercice 8.5.17.
Soit X01 , X02 , Zn1 , Zn2 (n ≥ 1) des variables aléatoires indépendantes, et telles que, de plus,
Zn1 , Zn2 (n ≥ 1) sont identiquement distribuées. Soit τ une variable aléatoire à valeurs
entières non négatives telle que pour tout m ∈ N, l’événement {τ = m} est exprimable
en fonction de X01 , X02 , Zn1 , Zn2 (n ≤ m). On définit {Zn }n≥1 par
= Zn1 si n ≤ τ
Zn =
= Zn2 si n > τ
Montrez que {Zn }n≥1 a la même distribution que {Zn1 }n≥1 et est indépendante de
X01 , X02 .
1 1 1 1
P (A | AA) = , P (A | AB) = , P (A | BA) = , P (A | BB) = .
2 2 4 4
Quelles sont les proportions de A et de B au long terme ?
b a b b a b a b b b
b a a a b b a a a a
A
b · b
· a a
B
b a b b a b a b b b
b a a a b b a a a a
C
OUI OUI NON
Trouvez un automate qui lit successivement les colonnes à deux lettres de gauche à
droite, et qui possède un état privilégié ∗ avec la propriété suivante : l’automate entre
ou reste dans l’état ∗ si et seulement si il vient de découuvrir un motif qui ne chevauche
pas un autre précédemment découvert. Quelle est la fréquence empirique asymptotique
du motif ?