Chaînes de Markov à temps discret
Chaînes de Markov à temps discret
ESTIN B. ISSAADI
I
1. Chaînes de Markov à temps discret
1.1
AD
Définitions
considère un processus stochastique { X n }n≥0 à espace d’état discret et à temps
e
O
N
in
SA
discret. L’espace d’état S, peut être de dimension finie ou infinie (mais dénom-
ed
ܵ
Ba
6
5
4
3
IS
2
1
݊
1 2 3 4 5 6 7 8
ESTIN B. ISSAADI
1.1 Définitions
1.3. Définitions 9 2
+1
0 1 2 3 n
n-1 n +1
FIG. 2. Illustrationde
2 − Illustration
FIGURE detransitions
transitions de
de l'instant
l’instant00ààl'instant n. n + 1.
l’instant
I
Autrement
En effet,dit,
en la probabilité
utilisant pour que
la définition la chaîne
de la soitconditionnelle
probabilité dans un certain
et laétat à la
( n + 1)-ième
propriétéétape du processus ne dépend donc que de l’état du processus à l’étape
AD
markovienne, on obtient
précédente (la n-ième étape) et pas des états dans lesquels il se trouvait aux étapes
Pr(Xn =in, Xn-1 = in-1 1... , Xo = io)
antérieures (les étapes j , pour tout j = 0, . . . , n − 1). D’une autre façon, l’état présent
=Pr (Xn =in 1 Xn-1 = in-11 ... ,Xo = io)
du processus, c’est à dire son état à l’instant n, résume toute l’information utile pour
X Pr (Xn-1 = in-li ... , Xo = io)
connaître son évolution future. Cette propriété fondamentale est connue sous le nom
= [Link] X Pr (Xn-1 = in-li Xn-2 = in-21 ... , Xo = io)
de propriété de Markov. On dira parfois aussi qu’un tel processus est sans mémoire
= [Link] X Pin- 2 ,in-l X • • • X Pio,ii X Pr (Xo = io).
ou non héréditaire.
La dernière égalité est obtenue par récurrence sur l'entier n ~ 0, et ce pour
tous les états io, ... , in.
e
p i j ( n) = P X n+1 = j | X n = i . (1.1)
l'entrée sur la rangée i et dans la colonne j est donnée par
Ba
~~n) = Pr (Xn
C’est la probabilité conditionnelle 1 Xo = i) , fasse une transition de i vers j ;
que =lej processus
on l’appellera par la suite probabilité de transition à une étape.
pour tous les états i et j. Par stationnarité, on a
~~n) = de
Définition 1.1.2 La chaîne PrMarkov j j Xk
(Xn+k = est i),
dite= homogène (dans le temps), si la
IS
probabilité k ~ [Link]
pour tout (1.1) dépend
plus, on pas de propriétés
a les n. Soit ci-dessous.
© ª
p i j = P X n+1 = j | X n = i , ( n ≥ 0).
Propriété 1. 0 :::; ~~n) :::; 1 pour tous i, j.
On peut présenter les probabilités conditionnelles p i j sous forme matricielle.
Propriété 2. l:j ~~n) = 1 pour tout i.
Définition 1.1.3 La matrice
p 00 p 01 p 02 · · ·
P=
p 10 p 11 p 12 · · ·
.. .. ..
..
. . . .
ESTIN B. ISSAADI
1.1 Définitions 3
À toute matrice de transition, on peut lui associer son graphe. Les sommets du
I
graphe sont les différents états de la chaîne. Il y a une flèche, entre le sommet i et le
sommet j si et seulement si : p i j > 0.
AD
Exemple 1.1.1 (Disponibilité de deux machines).
Une unité de production comprend deux machines automatiques qui fonctionnent
indépendamment l’une de l’autre. Chaque machine a la fiabilité p au cours d’une
journée, ce qui signifie que sa probabilité de tomber en panne pendant cette
période est égale à 1 − p. Dans ce cas, elle sera réparée pendant la nuit et se retrou-
vera en état de marche le lendemain. Une seule machine peut être réparée à la fois.
in e
p 00 ( n) = p2 + 2 p(1 − p) = p(2 − p)
p 01 ( n) = (1 − p)2
p 10 ( n) = p
p 11 ( n) = 1 − p;
IS
p i j ( n) = p i j ( i, j ∈ S),
et on a clairement
p 00 + p 01 = p 10 + p 11 = 1.
ESTIN B. ISSAADI
1.2 Propriétés fondamentales 4
p00 p11
p01
I
1.2 Propriétés fondamentales
1.2.1 Relation de Chapman-Kolmogorov
AD
On conserve les notations des paragraphes précédents : { X n }n≥0 est une chaîne
de Markov homogène, dont l’ensemble des états est S et la matrice de transition
P = ( p i j ) (( i, j ) ∈ S2 ).
Soit p(n)
ij
la probabilité que la chaîne de Markov passe de l’état i à l’état j en n
transitions ou étapes, on pose :
p(n)
© ª
ij
= P X n = j | X0 = i ,
e
pour tous les états i et j . Par homogénéité, on a
in
SA
ed
p(n)
© ª
ij
= P X n+k = j | X k = i , pour tout k ≥ 0.
dr
ij
transition à n étapes.
ij
3. p i j = `∈S p(k)
(n) P
p(n−k) pour tout ( i, j ) ∈ S2 et pour tout 0 ≤ k ≤ n, avec
i` ` j
(
1, si i = j,
p(0)
ij
=
0, sinon.
Les deux propriétés 1 et 2 signifient que la matrice de transition en n étapes est une
matrice stochastique.
La propriété 3, est appelée équation de Chapman-Kolmogorov, est obtenue comme
ESTIN B. ISSAADI
1.2 Propriétés fondamentales 5
suit :
p(n)
© ª
ij
= P X n = j | X 0 = i
X ©
P X n = j, X k = ` | X 0 = i
ª
=
`∈S
X ©
P X n = j | X k = `, X 0 = i P X k = ` | X 0 = i
ª © ª
=
`∈S
X ©
P X n = j | X k = ` P X k = ` | X0 = i
ª © ª
=
`∈S
X ©
P X n− k = j | X 0 = ` P X k = ` | X 0 = i
ª © ª
=
`∈S
I
p(n − k) (k)
X
= `j
p i` ,
`∈S
AD
pour tous ( i, j ) ∈ S2 et pour tout 0 ≤ k ≤ n.
En notation matricielle : P(n) = P(n−k) P(k) . avec,
P(0) = I
(0) ©
pi j = P X0 = j | X0 = i =
ª
(
1,
0,
si i = j,
sinon.
..
.
P(n) = P(n−1) P(1) = Pn P = Pn
IS
p(m + n)
p(m) p(n)
X
ij
= i` `j
, (1.2)
`∈S
ESTIN B. ISSAADI
1.2 Propriétés fondamentales 6
I
Remarque 1.2.1 La probabilité que la chaîne de Markov passe de l’état i à l’état j
en n étapes, est la somme des probabilités d’emprunter tous les chemins possibles
de i vers j en n transitions,
AD p(n)
ij
=
X
j 1 ,..., j n−1 ∈S
p i j 1 p j 1 j 2 · · · p j n−1 j .
Exemple 1.2.2 Soit { X n }n≥0 une chaîne de Markov à temps discret sur les états 0
et 1 dont la matrice de transition P est donnée par
à !
(1.4)
0. 2 0 . 8
P=
e
0. 4 0 . 6
in
SA
ed
étapes.
On doit donc calculer
Ba
p(4)
© ª
00 = P X 4 = 0 | X 0 = 0 ,
= .
0.4 0.6 0.3328 0.6672
p(4)
X
00 = p0 j1 p j1 j2 p j2 j3 p j3 0
j1 , j2 , j3
XXX
= p0 j1 p j1 j2 p j2 j3 p j3 0 .
j1 j2 j3
ESTIN B. ISSAADI
1.2 Propriétés fondamentales 7
p1=0,0016
p2=0,0128
p3=0,0128
p4=0,0384
I
p5=0,0128
AD
La probabilité cherchée est donc p(4)
00 = p 1 + · · · + p 8 = 0.3344.
in e
p6=0,1024
p7=0,0384
p8=0,1152
SA
1.2.2 Mesure de probabilité d’une chaîne de Markov et Régime transitoire
ed
πk ( n) = P X n = k , n ≥ 0 et k ∈ S;
© ª
Ba
π( n) = π1 ( n), π2 ( n), . . . ,
¡ ¢
IS
Ce vecteur π( n) dépend :
– de la matrice des transition P ;
– du vecteur des probabilités d’état initiales π(0) = π1 (0), π2 (0), . . . .
¡ ¢
Il s’agit donc de décrire l’évolution du processus depuis l’état initial jusqu’à l’étape
n, en passant par toutes les étapes intermédiaires :
0 1 ⋯ ⋯
ESTIN B. ISSAADI
1.3 Classification des états et paramètres de performances 8
soit
X
π k ( n) = π i ( n − 1) p ik , (1.5)
i ∈S
π( n) = π( n − 1)P.
I
Il est clair qu’en appliquant n fois cette relation on obtient :
AD
Supposons que π(0) = (π0 (0), π1 (0)) = (1, 0).
π( n) = π(0)Pn .
e
Donc :
in
SA
à !
ed
2/3 1/3
π(1) = π(0) P = (1, 0) = (2/3, 1/3)
1/2 1/2
dr
à !
Ba
11/18 7/18
π(2) = π(0) P = (1, 0)
2
= (11/18, 7/18)
7/12 5/12
p i j 1 p j 1 j 2 · · · p j n−1 j > 0,
ESTIN B. ISSAADI
1.3 Classification des états et paramètres de performances 9
Définition 1.3.3
– Un état i est appelé état de retour, s’il existe n ≥ 1 tel que p(n)
ii
> 0.
– Un état i est appelé état de non-retour, si pour tout n ≥ 1 on a p(n)
ii
= 0.
– Un état i est appelé état absorbant, si pour tout n ≥ 1 on a p(n)
ii
= 1.
– Une classe de communication C est fermée si, pour tout i ∈ C, il n’y a pas
de j ∉ C tel que l’état j est accessible à partir de l’état i , autrement dit, une
I
classe est fermée si aucune transition n’en sort.
– Si tous les états de S communiquent entre eux, la chaîne de Markov est dite
irréductible.
AD
Exemple 1.3.1 Considérons la chaîne de Markov, telle que S = 0, 1 et P =
e
ª ©
Ã
1 0
1 0
!
Dans cet exemple l’ensemble S des états se partitionne en deux classes distinctes,
C1 = 0 et C2 = 1 , on peut aller, de C2 à C1 , mais on ne peut retourner de C1 à
dr
© ª © ª
C2 .
Ba
Dans cet exemple, la classe C1 est fermée, l’état 0 est absorbant, l’état 1 est de
non-retour.
IS
Exemple 1.3.2 Considérons la chaîne de Markov, dont l’ensemble des états est
S = 0, 1, 2 , la matrice de transition
© ª
1/2 1/2 0
P=
1/2 1/4 1/4 et le graphe
0 1/3 2/3
FIG. 11 − Graphe des transitions.
Cette chaîne est irréductible, puisque elle n’est constituée que d’une seule
classe C = S d’états communicants.
ESTIN B. ISSAADI
1.3 Classification des états et paramètres de performances 10
Exemple 1.3.3 Considérons la chaîne de Markov, dont l’ensemble des états est
S = 0, 1, 2, 3 , la matrice de transition
© ª
1/2 1/2 0 0
1/2 1/2 0 0
P=
et le graphe
1/4 1/4 1/4 1/4
0 0 0 1
I
ªFIG. 12 ª Graphe© des
© − ª transitions.
AD
La chaîne comporte trois classes C1 = 0, 1 , C2 = 2 et C3 = 3 . Tous les états
©
d’une même classe communiquent. Les deux classes C1 et C3 sont fermées. L’état 3
est absorbant.
Définition 1.3.5 Une classe est récurrente s’il est impossible de la quitter.
Ba
Corollaire 1.3.4 Dans une classe d’états qui communiquent, tous les états sont
récurrents ou tous sont transients.
IS
Exemple 1.3.5 De façon évidente, la chaîne de Markov suivante n’est pas irréduc-
tible
ESTIN B. ISSAADI
1.3 Classification des états et paramètres de performances 11
I
Cette chaîne comporte deux sous chaînes absorbantes (classes fermées) : C1 = {6, 7}
et C2 = {3, 4, 5}, tous les états de C1 et C2 sont récurrents.
1.3.3
AD
Périodicité
Il s’agit d’étudier dans quelles conditions le temps qui sépare deux retours au
même état j est (ou n’est pas) multiple d’un temps minimum. On introduit pour ce
faire la notion de période.
Définition 1.3.6 La période d ( j ) de l’état j ∈ S est par définition,
d ( j ) = d = p.g.c.d. n ≥ 1; p(n)
e
© ª
jj
>0 ,
in
SA
ed
Définition 1.3.7 On appelle période d’un état le plus grand commun diviseur des
longueurs des cycles du graphe transition passant par cet état. On dit d’un état
IS
ESTIN B. ISSAADI
1.4 Régime permanent et distribution limite 12
I
Maintenant, la chaîne est irréductible. Les deux autres états 1 et 2 sont aussi
apériodiques, ce que l’on peut aussi vérifier directement.
AD
Exemple 1.3.7 Considérons la chaîne de Markov, dont l’ensemble des états est
S = 0, 1, 2, 3 , la matrice de transition
©
0
1
P=
ª
0 1/2 1/2
0 0
0
et le graphe
0 1 0 0
e
in
0 1 0 0
SA
ed
dr
π = lim π( n).
n→+∞
En termes formels, on dit qu’une chaîne de Markov converge vers π ou possède une
distribution limite π si :
π = π 1 , π2 , . . . , π k , . . . , π m ,
¡ ¢
avec,
πk = lim πk ( n) = lim P X n = k , k ∈ S.
© ª
n→+∞ n→+∞
Il s’agit de répondre aux deux questions :
ESTIN B. ISSAADI
1.4 Régime permanent et distribution limite 13
Exemple 1.4.1 (Une chaîne de Markov avec une distribution limite unique)
© ª © ª
Supposons que X n , n ≥ 0 est une chaîne de Markov à espace d’état 1, 2, 3 et de
I
matrice de transition :
0.20 0.30 0.50
P=
0.10 0.00 0.90 .
AD n = 2 : P2 =
0.55 0.00 0.45
Nous donnons ci-dessous les matrices de transition pour différentes valeurs de n :
0.3450 0.0600 0.5950
0.5150 0.0300 0.4550 ,
0.3575 0.1650 0.4775
n = 4 : P4 =
0.3558 0.1069 0.5373 ,
in
SA
0.3790 0.1052 0.5158
ed
dr
0.3704 0.1111 0.5185
0.3704 0.1111 0.5185
n ≥ 11 : Pn =
0 . 3704 0 . 1111 0 . 5185 .
0.3704 0.1111 0.5185
IS
Soit π(0) = π1 (0), π2 (0), π3 (0) la distribution initiale de la chaîne de Markov (bien
¡ ¢
Donc,
π = lim π( n) = 0.3704, 0.1111, 0.5185 .
¡ ¢
n→+∞
ESTIN B. ISSAADI
1.4 Régime permanent et distribution limite 14
© ª © ª
Considérons une chaîne de Markov X n , n ≥ 0 à espace d’état 1, 2, 3 et de
matrice de transition :
0 1 0
P=
0.10 0 0.90 .
0 1 0
Nous pouvons vérifier numériquement que, pour n ≥ 1 :
0.1000 0 0.9000
P2n =
0 1 . 0000 0 ,
I
0.1000 0 0.9000
0 1.0000 0
AD
P2n−1 =
0 . 1000 0 0. 9000 .
0 1.0000 0
matrice de transition :
Ba
0.20 0.80 0
P=
0 . 10 0 . 90 0 .
0 0 1
En calculant les puissances matricielles Pn pour des valeurs croissantes de n,
IS
nous obtenons
0.1111 0.8889 0
lim Pn =
0 . 1111 0 . 8889 0 .
n→+∞
0 0 1.000
Cela implique que la distribution limite existe. Supposons à présent que la distri-
bution initiale est π(0) = π1 (0), π2 (0), π3 (0) = a 1 , a 2 , a 3 , et définissons
¡ ¢ ¡ ¢
π1 = 0.1111(a 1 + a 2 ),
π2 = 0.8889(a 1 + a 2 ),
π3 = a 3 .
ESTIN B. ISSAADI
1.4 Régime permanent et distribution limite 15
Nous constatons que c’est une distribution limite de { X n }n≥0 . Par conséquent, la
distribution limite existe mais n’est pas unique.
I
π1 π 2 · · · π m
AD
π1 π2 · · · πm
Pn −−−−−→ P∗ = . . (1.6)
n→+∞ .. .
.. . .
. . ..
π1 π 2 · · · π m
π( n) −−−−−→ π.
n→+∞
Théorème 1.4.5 Si la valeur propre 1 de P est simple et les autres valeurs propres
dr
sont valables.
P=
1/2 0 1/2
0 1 0
ESTIN B. ISSAADI
1.5 Distributions stationnaires 16
I
pas équivalentes.
AD
1.5 Distributions stationnaires
Théorème 1.5.1 (Distributions stationnaire)
Soit π = π1 , π2 , . . . une loi de probabilité sur l’ensemble des états S. Elle est dite
¡ ¢
π i p i j , j ∈ S,
X
πj = (1.7)
i ∈S
et
in e
X
π j = 1. (1.8)
SA
j ∈S
ed
π = π · P, avec π1 = 1.
Ba
stationnaire. Ce n’est pas toujours le cas lorsque l’espace des états est infini.
ESTIN B. ISSAADI
1.5 Distributions stationnaires 17
de transition suivante :
1/2 0 1/2
P=
1/4 1/2 1/4
1/3 1/3 1/3
En traçant le graphe de transition, on remarque que la chaîne est irréductible
donc elle admet une unique distribution stationnaire :
1 1 1
2 π0 + 4 π1 + 3 π2 = π0 ,
1 1
2 π1 + 3 π2 = π 1 ,
I
1 1 1
2 π0 + 4 π1 + 3 π2 = π2 ,
π 0 + π 1 + π 2 = 1.
AD
De l’équation (2), on a π2 = 32 π1 , on remplace π2 par 32 π1 dans l’équation (1) on
trouve π0 = 32 π1 . En tenant compte de π0 + π1 + π2 = 1, on obtient π = 38 , 82 , 38 .
¡
Remarque 1.5.1 Dans le cas de plusieurs classes récurrentes, il existe une distri-
bution stationnaire pour chaque classe.
distributions stationnaire.
Corollaire 1.5.5 Une distribution limite, quand elle existe, est aussi une distribu-
tion stationnaire.
IS
π i ( n − 1) p i j , j ∈ S.
X
π j ( n) =
i ∈S
En supposant que la distribution limite existe, alors par passage à la limite c’est à
dire en faisant tendre n vers l’infini, nous obtenons ce qui suit :
³ ´ X³ ´
lim π j ( n) = lim π i ( n − 1) p i j , j ∈ S.
n→+∞ n→+∞
i ∈S
D’où la relation :
π i p i j , j ∈ S.
X
πj =
i ∈S
ESTIN B. ISSAADI
1.5 Distributions stationnaires 18
Théorème 1.5.6 Les états d’une classe de communication qui contient au moins
un état ergodique sont ergodiques.
I
soit ergodique pour que la classe qui le contient le soit. ■
AD
Théorème 1.5.7 Toute chaîne ergodique possède une distribution limite unique,
qui coïncide avec l’unique distribution stationnaire π = π i de la chaîne.
¡ ¢
Exemple 1.5.8 Considérons la chaîne de Markov, dont l’ensemble des états est
S = 0, 1, 2, 3 , la matrice de transition
© ª
e
0 1 0 0
in
SA
0 0.9 0.1 0
ed
P=
et le graphe
0 0 0. 8 0 . 2
dr
1 0 0 0
Ba
Tous les états communiquent entre eux, et donc la chaîne est irréductible.
IS
Puisque le nombre d’états est fini, la chaîne est récurrente positive. De plus,
p 11 = 0, 9 > 0, ce qui implique que la chaîne est apériodique, donc ergodique.
Dans ce cas, on a
π0 π1 π 2 π 3
π0 π1 π 2 π 3
lim Pn = , (1.9)
n→+∞ π0 π1 π 2 π 3
π0 π1 π 2 π 3
ESTIN B. ISSAADI
1.5 Distributions stationnaires 19
π0 = π3 ,
π1 = π0 + 0.9π1 ,
π 2 = 0. 1π 1 + 0. 8π 2 ,
π 3 = 0. 3π 2 ,
I
AD e
in
SA
ed
dr
Ba
IS
ESTIN B. ISSAADI
1.5 Distributions stationnaires 20
ESTIN B. ISSAADI