CM Markov-MISC
CM Markov-MISC
Modélisation et Simulation des S.E.D. • Déterministe : aucune entrée n’est de nature aléatoire
X ∈ℕ ≜
, ∈
• Définition : est une chaîne de Markov à temps discret ssi • Matrice de transition
PX j |X n 1 in 1 , X n 2 in 2 , . . . , X i PX j |X n 1 in 1
– Matrice carrée d’ordre fini ou infini, selon que l’espace d’état est fini ou infini
• La probabilité pour que la chaîne soit dans un certain état à la nième
« étape » du processus ne dépend que de l’état du processus à l’étape
précédente (j = n-1), et pas des états dans lesquels il se trouvait aux ... ...
étapes antérieures (j = 0, …, n-2) ... ... ...
P ... ... ... ... ...
... ... ...
• Autrement dit :
ij
... ... ... ... ...
– Une chaîne de Markov est un système pouvant évoluer entre n états Xi
définis par le repère X = (X1, X2, … Xn),
– Le passage d’un état Xi à un état Xj ou transition, de dépend que de ces
deux états et s’effectue selon la probabilité conditionnelle Prob(Xj/Xi) = pij
• Notons que :
pij 1 et pij 0
∈
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
0 p 0 p
7 7
6 6
0 0 1 0
p31
P
1 3 5 5
p33
p! 0 p!! 0
p41 4 4
1 0 0 0
3 3
2 2
p14 4 1 1
0 n 0 n
0 2 4 6 8 10 0 2 4 6 8 10
CMTD à instants de changement d’états équidistants CMTD à instants de changement d’états quelconques
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
1/2 1/2
1 2 1 2 1/2
1 2
1/4 1/4 1/2
1/4
5 3 4
5 3 4 5 3 4
1/4
• Exemple : souris dans un labyrinthe • Considérons un téléphone (simplifié) pouvant recevoir un appel à la fois
– Un seul appel peut avoir lieu dans une unité de temps, avec une probabilité α
• Les transitions modélisent les couloirs
1/2 1/2 – Si le téléphone est occupé, l’appel est perdu, sinon, l’appel est pris
• Les probabilités associées à ces transitions modélisent – La probabilité qu’un appel se termine dans une unité de temps est β
1/2 un choix aléatoire d’un des couloirs de sortie parmi tous
1 2 ceux possibles partant d’une pièce donnée – Si à la fois un appel arrive et un appel se termine dans la même unité de
1/4 temps, le nouvel appel est traité
1/4 1/2 • Le rebouclage sur l’état 6 est nécessaire pour le modèle
1/4 et signifie simplement que lorsque la sourie est sortie, elle
5 3 4 ne peut rentrer de nouveau dans le labyrinthe • Donner la représentation matricielle et graphique de la chaine de Markov
1/4 représentant le comportement du téléphone
• Sachant que la souris est initialement dans la pièce 2 :
état absorbant 6
• Quelle est la probabilité qu’elle y soit à nouveau après 4
déplacements ? (notation π2(4))
• Combien de fois passera-t-elle en moyenne par la pièce 3
avant de sortir ou de tomber dans la pièce 5 ? (R23)
Sortie : état absorbant • Quelle est la probabilité que la souris trouve la sortie ? (f26)
• Combien fera-t-elle de déplacements en moyenne pour
revenir dans la pièce 2 ? (M2)
Exemple : téléphone Les chaînes de Markov à temps discret
1 " "
se trouve dans l’état j à la n ième étape du processus :
π ≜ π π ,π ,...
$ % $ % $ % $ %
#$1 "% 1 # & "# j∈E
– Ce vecteur des probabilités dépend :
• De la matrice de transition P
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
$n 1% $n 1% $ n 1%
π π p11 & π p21 & π! p31
$ %
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
• Exemple de la souris dans le labyrinthe : • Analyse : distribution du temps de séjour dans un état
1 2
– Sachant que la souris est placée initialement dans – Propriété : le « temps » (nombre d’étapes) passé dans un état d’une CMTD
la pièce 2, quelle est la probabilité qu’elle y soit à a une distribution géométrique
nouveau après 4 déplacements ? – Preuve : on s’intéresse au nombre d’étapes passées dans un certain état j :
5 3 4
Revient à calculer π2(4) sachant que π2(0) = 1 • Si pjj = 0, on ne reste jamais dans l’état j
– Il faut calculer P4 • Si pjj ≠ 0, on a, à chaque étape, une probabilité pjj de rester dans l’état j et une
– π2(4) est la deuxième composante du vecteur π(4) probabilité (1-pjj) d’en sortir :
1/2 1/2
– π(4) = π(0) P4 avec π(0) = [0,1,0,0,0,0]
1/2
1 2 1-pjj i≠j étape 1
1/4
1/4 1/2
j 1-pjj i≠j étape 2
1/4
5 3 4
pjj 1-pjj i≠j étape 3
– Ou π2(4) = π2(0) p22(4) j
1/4
étape 0
Avec pour calculer p22(4), 3 chemins possibles : pjj j
6
•2 4 3 1 2 : probabilité associée = ½ * 1 * ¼ * ½ = 1/16 pjj j
•2 1 2 1 2 : probabilité associée = ½ * ½ * ½ * ½ = 1/16 …
•2 1 1 1 2 : probabilité associée = ½ * ½ * ½ * ½ = 1/16 • La distribution du nombre m d’étapes passées dans l’état j est donc donnée par :
(1-pjj)pjjm
La probabilité associée est donc 3/16
Distribution géométrique
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
∀i,j ∈ E, ∃ m 3 1 tel que pij 90 ∃ k 3 1 tel que pii 0 pour m non multiple de k
$+% $+%
– Exemple : – La période de l’état j est alors le plus grand entier k vérifiant cette propriété
Cette CMTD n’est pas irréductible ! – Exemple :
0,5 2 0,5
0,25
0,25 0,5 2 0,5
6 1 0,5 0,5
3 6 0,5
1 3 0,5
0,5
7 0,25 4 5 0,5
7 0,25 4 5
Sous-chaîne absorbante 1
L’état 6 est périodique de période 2
Sous-chaîne absorbante 2
Toute CMTD non irréductible possède au moins une chaîne absorbante L’état 4 est apériodique
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
6 1 0,5 0,5
3 2
Périodique de période 3. En quittant l’un
0,5
7 0,25 4 5 1 3
quelconque des états, on ne peut y revenir qu’en
un nombre d’étapes multiple de 3. Sur cet
exemple, tous les cycles élémentaires sont de
4 longueur 3
– Propriété : la période d’une CMTD est égale au PGCD de la longueur de
tous les circuits du graphe associé
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
états – Tous les états d’une CMTD irréductible sont de même nature :
• Soit tous transitoires
• Soit tous récurrents nuls
• Soit tous récurrents non nuls
apériodiques périodiques
Si de plus les états sont périodiques, ils sont tous de même période
– En fonction de leur récurrence
états – Tous les états d’une CMTD irréductible finie sont récurrents non nuls
Un état récurrent nul ne peut donc exister que dans une CMTD infinie.
Lorsque le chaîne est finie, elle ne peut comporter que des états transitoires
ou récurrents non nuls
transitoires récurrents
– Notons qu’un état apériodique et récurrent non nul est appelé « ergodique »
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
$n 1 %
5 3 4
Calcul de M2, temps moyen de retour en 2
?
fij pij et fij pik fkj pour n 2
$ % Calcul de f22(n) probabilité d’aller de 2 à 2 en
0A exactement n étapes
1/2 1/2
... (Calculs !)
1/4
5 3 4
f22(1) = 0 1/4
f22(2) = ¼ 6
M n f22
Donc f22(2) = ¼ $ %
n 1
5 3 4
$n 1%
• 2 chemins pour aller de 2 en 2 en 3 étapes :
>
1 1
M 2 & n
2 4 3 2 : probabilité associée = ½ * 1 * ¼ = 1/8
4 2
n 3
1/2 1/2
2 1 1 2 : probabilité associée = ½ * ½ * ½ = 1/8
1/2
>
Donc f22 = ¼
(3)
1 C
1 2
M & D
• 2 chemins pour aller de 2 en 2 en 4 étapes :
2 CD
1/4 1/4 1/2
n 3 x
2 4 3 1 2 : probabilité associée = ½ * 1 * ¼ * ½ = 1/16 5
1/4
3 4
...
2 1 1 1 2 : probabilité associée = ½ * ½ * ½ * ½ = 1/16 1/4
M 2,5
Donc f22(4) = 1/8
6
• 2 chemins pour aller de 2 en 2 en n étapes :
2 4 3 1 … 1 2 : probabilité associée = ½ * 1 * ¼ * 1/(2n-4) * ½ = 1/2n
2 1 1 1 … 1 2 : probabilité associée = ½ * 1/(2n-2) * ½ = 1/2n
Donc f22(n) = 1/2n-1
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
• Exemple :
• Analyse : paramètres de performance d’une CMTD
– Sachant que la souris est initialement en 2, quelle est 1 2
– Définition : Soit fij la probabilité d’aller de i à j en un nombre quelconque
la probabilité pour qu’elle trouve un jour la sortie ?
>
d’étapes (soit la probabilité d’atteindre j en partant de i) :
fij ≜ fij
$ %
Calcul de f26, la probabilité d’atteindre 6 depuis 2 en
n 1
un nombre quelconque d’étapes 5 3 4
fij fij fij & fij pij & pik fkj pij & pik fkj
$ % $ % $ % f36 = p36 + p31 f16 + p32 f26 + p35 f56 1/2
n 1 n 2 n 2 n 2
1 2
0A 0A = 0,25 + 0,25 f16 + 0,25 f26 + 0,25 f56 1/4 1/4 1/2
0A
f36 = 0,25 + 0,5 f26 1/4
f23 = p21 f13 + p24 f43 = 0,5 f13 + 0,5 f43 1/2
n $fjj %n 1
5 3 4
n 1
1
6
fij R 23 2
Soit R ij 1 0,5
1 fjj
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
0,6 0,4 0
– Limite lorsque n tend vers l’infini du vecteur des probabilités π(n)
0 0,4 0,6
0,6 0,6
1 2 3
– Possibilité : calculer le vecteur π(n) = π(0) Pn et faire tendre n vers l’infini
• Diagonalisation de matrice … fastidieux … !!! -> autre possibilité 0,2 0,4
– Propriété : dans une CMTD irréductible et apériodique le vecteur π des – Cette chaîne est finie, irréductible et apériodique
probabilités limites π j = nlim
(n)
π existe toujours et est indépendant de la
→+∞ j
tous les états sont récurrents non nuls
distribution des probabilités initiales π(0)
La limite lorsque n tend vers l’infini de π(n) existe, est indépendante de π(0)
• Soit tous les états sont transitoires ou récurrents nuls (CMTD infinies) et πj=0
π πP
pour tout j ∈ E et est solution de
U
π & π & π! 1
• Soit tous les états sont récurrents non nuls (CMTD finie) et les πj sont solutions
∈) 1 1 1
π
π 1 4 2 4
∈)
• Dans le cas où les πj existent, on dit que la CMTD admet un régime stationnaire
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
Les chaînes de Markov à temps discret Les chaînes de Markov à temps discret
p pP
au vecteur des probabilités.
– Pourtant, le système V
1 3
p 1 admet une solution 0 1 0
i ∈ ) – La matrice de transition est : P 0 0 1
1 0 0
– Pj s’interprète alors comme la proportion de temps que la CMTD passe
dans l’état j
– Si le vecteur des probabilités initiales est π(0) = [1 0 0]
– On montre que : π(3k) = [1 0 0 ], π(3k+1) = [0 1 0 ], π(3k+2) = [0 0 1 ] pour tout k
– Pas de limite lorsque n tend vers l’infini de π(n), mais la résolution de p = p P
donne comme solution tout vecteur [p1, p2, p3] tel que p1 = p2 = p3
– En normalisant le solution pour avoir p1 + p2 + p3 = 1, on obtient qu’à long
terme, la CMTD passe 1/3 du temps dans chacun des états, mais en aucun cas
on ne peut dire que la probabilité stationnaire d’être dans un état est égale à 1/3
Les chaînes de Markov à temps Les chaînes de Markov à temps
continu continu
• Processus stochastique X ∈ℕ à espace d’état discret et à temps • Définition : X$t% XY est une chaîne de Markov à temps continu ssi
P X$t % j |X$t n 1 % in 1 ∀n et ∀t Z t Z. . . Z t
– De dimension finie ou infinie (mais dénombrable car discret)
E E
8 8
7 7
6 6
5 5
4 4
3 3
2 2
1 1
0 t 0 t
t0 t1 t2 t3 t4 t5
0 2 4 6 8 10 0 2 4 6 8 10
Processus stochastique à espace d’état discret et à temps continu Instants d’observation d’une CMTC
pij
j
µi i
pik k