Processus Markoviens
Processus Markoviens
(IUFIC)
%%
%
% ,
,
#
% ,#
,#
% #
% ,
# " "
% , ,
# "
"
# "
% # ,
% , " ! !
#" !
% ,"!
# !
, "!!
%, # "!
%
#
"
! !
(( (
,
#
" !
((( (
%
, "
!
( (
#
"
(
!
!
( (((
,
(
%
"
!
#
Pr Ibrahim NONKANE
Enseignant-chercheur à l’IUFIC de l’IUTS
Email : [email protected]
Table des matières
I Probabilité 3
1 Rappel de Probabilités 4
1.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 variables à densité . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Convergence de variables aléatoires . . . . . . . . . . . . . . . . . . . . . 6
1.3 Théorèmes de passage à la limite . . . . . . . . . . . . . . . . . . . . . . 6
1.4 variables aléatoires gaussiennes . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7 Tribus construites à partir de variables aléatoires . . . . . . . . . . . . . 9
II Processus Markoviens 10
2 Chaînes de Markov 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1 Modèle de bonus-malus en assurance automobile . . . . . . . . . . 12
2.3 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.1 Chaîne de Markov à temps discret . . . . . . . . . . . . . . . . . . 13
2.3.2 Matrice de transition en n pas . . . . . . . . . . . . . . . . . . . 13
2.3.3 Exemple : le temps d’un jour au suivant . . . . . . . . . . . . . . 15
2.3.4 Exemple : le temps sur deux jours consécutifs . . . . . . . . . . . 15
2.3.5 Chaîne de Markov sur états . . . . . . . . . . . . . . . . . . . . . 16
2.4 Méthode de conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Exemple : jeu de pile ou face . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 Exemple : ruine du joueur . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Classification des états . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.3 Critère de classification . . . . . . . . . . . . . . . . . . . . . . . . 25
Probabilité
Rappel de Probabilités
Définition 1.1. Une application X de Ω muni de la tribu A dans R est une variable
aléatoire si pour tout B dans la tribu borélienne de R (plus petite tribu qui contient tous
les intervalles) :
{ω ∈ Ω, X(ω) ∈ B} = {X ∈ B} ∈ A.
X
E(g(X)) = g(x)P(X = x), pour toute fonction mesurable g : X → R.
x∈X
Remarque 1.1.
E(1A ) = P(A)
1.1.3 Indépendance
Des variables aléatoires X1 , . . . , Xk à valeurs dans R sontbindépendantes si
E(g1 (X1 ) · · · gk (Xk )) = E(g1 (X1 )) × · · · × E(gk (Xk ))
Pour toutes fonctions g1 , . . . , gk de R dans R ( mesurables bornées).
Dans ce cas, pour tout A1 , . . . , Ak ⊂ R (mesurables), les événements {X1 ∈ A1 }, . . . , {Xk ∈
Ak } sont indépendants
Convergence dans L2
On dit (Xn ) converge vers X dans L2 , si
Convergence en probabilité
On dit (Xn ) converge en probalilité vers X, si pour tout > 0, on a
Convergence en loi
On dit (Xn ) converge en loi vers X, si pour toute fonction f : R → R continue et
bornée, on a
E(f (Xn )) → E(f (X)) quand n → +∞.
Convergence monotone
Si (Xn )n∈N est une suite de variables aléatoires réelles telles que : − (Xn ) converge
p.s. vers X,
− Xn+1 (ω) ≥ Xn (ω) ou − Xn+1 (ω) ≤ Xn (ω) pour tout n ∈ N,
alors E(Xn ) → E(X), quand n → +∞.
f : R −→ R
1 x−m 2
√1 e− 2 ( σ )
. (1.1)
x 7−→ f (x) = σ 2π
u 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7290 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9779 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,99332 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
{∅, A, Ac , Ω}.
σ(X1 , . . . , Xn )
la plus petite sous-tribu B de A rendant les applications X1 , . . . , Xn B-mesurables.
Cette tribu représente l’information donnée par la connaissance des variables aléatoires
X1 , . . . , X n .
Proposition 1.1. Soit X et Y deux variables aléatoires réelles. Alors Y est σ(X)-
mesurable si te seulement si il existe une fonction mesurable f de R dans R, telle que :
P(Y = f (X)) = 1.
Processus Markoviens
Chaînes de Markov
2.1 Introduction
Un processus stochastique est une suite de variables aléatoires indicées par le temps.
Le cas le plus simple est celui d’une suite de variable aléatoire indépendantes. Ce sont
des variables aéalatoires qui n’ont aucune influence les unes sur les autres. C’est le su-
jet qu’on étudie dans un premier cours de probabilités après avoir introduit les notions
fondamentales d’événement, de probabilités, d’indépendance, de variables aléatoire et
d’espérance. Le tout culmine avce la loi des grands nombres, qui permet d’interpréter
l’espérance comme la moyenne des valeurs observées à long terme, indépendamment et
dans les même conditions, et le théorème central limite, qui garantit que cette moyenne
est la valeur prise par une variable aléatoire dont la distribution de probabilité s’ap-
proche de plus en plus d’une loi normale.
Le cas le plus simple d’une suite de variable aléatoires dépendantes est celui où les
valeurs prises par les variables qui suivent n’importe quelle variable en particulier, étant
donné la valeur prise par cette variable, sont indépendantes des valeurs prises par les
variables qui précédent. Autrement dit, le futur étant donné le présent est indépendant
du passé. Le processus possède alors la propriété dite markovienne, en memoire du ma-
thématicien russe Andrei Markov ( 1856-1922).
Lorsque l’espace des états du processus est fini ou encore infini dénombrable, on est
en présence d’une chaîne de Markov, qui peut être à temps discret ou à temps continu.
Le résultat le plus important sur les chaînes de Markov est le théorème ergodique. Il
décrit en général ce qui se passe à long terme, c’est-à-dire la distribution de probabilité
limite de la chaîne sur les différents états lorsque cette distribution de probabilité existe,
et la proportion moyenne limite de temps que la chaîne passe dans chaque état, et ce
selon l’état initial. Il permet de comprendre le comportement de la chaîne sur une longue
période de temps. c’est l’objectif principal de cette partie pour les chaînes à temps dis-
cret.
de Markov à temps discret. Cette marche aléatoire reste une chaîne de Markov dans
le cas où un pas à faire doit être annulé à cause de la presence d’un obstacle, un mur
par exemple. Dans un tel contexte, il est intéressant de savoir quelle est la probabilité
d’être à une position donnée après un très long moment, ou encore quelle proportion
moyenne de temps est passée à cette postion sur une longue période de temps. C’est le
type de question qu’on se pose souvent lorsqu’on est en présence d’une chaîne de Markov.
De nombreuses situations réelles sont modélisées par des chaînes de Markov, que ce
soit en biologie, en physique, en économie ou en finance. Ce chapitre commence donc
par des exemples pour illustrer les principaux concepts et résultats qui sont développés
par la suite.
2.2 Exemple
2.2.1 Modèle de bonus-malus en assurance automobile
En assurance automobile, la prime d’un assuré peut diminuer si aucune réclamation
n’est faite durant une période donnée ou augmenter si une ou plusieurs réclamations
sont soumises durant une certaine période. Les réclamations font suite à des accidents
de la route qui se produisent au hasard dans le temps.
L’arrivée d’événement au hasard est décrite dans par un processus de Poisson La ca-
ractéristique du processus est que le nombre de fois que l’événement se réalise dans
un intervalle de temps donné est de loi de Poisson et qu’il est indépendant du nombre
d’événemets dans n’importe quel autre intervalle de temps disjoint du premier.
Supposons que la classe d’un assuré est mise à jour après chaque année de conduite
automobile. Elle est alors augmentée du nombre de réclamations durant l’année s’il en
a eu, mais diminuée de 1 s’il n’y en pas eu. La classe initiale est 0 et elle ne peut pas
diminuer davantage. Si Xn représente la classe d’un assuré après un nombre d’années
de conduite automobile égal à n ≥ 0, alors on a
λk −λ
P(Xn+1 = i + k|Xn = i) = e ,
k!
pour k ≥ 1 et i ≥ 0, mais
Et d’identifier la limite s’il elle existe. Cette limite πj devrait correspondre à la proportion
moyenne de temps en années à long terme qu’un assuré passe dans la classe j.
La matrice P = (Pij ) dont l’entrée sur la rangée i et dans la colonne j est donnée
par
Pi,j = P(Xn+1 = j|Xn = i),
notée aussi parfois Pi,j , pour les états i et j, est appelée la matrice de transition, sous-
entendu en un pas. La matrice de transition et la distribution de probabilité de X0
déterminant complètement la chaîne, c’est-à-dire toutes les distributions conjointes. En
effet, la fonction de masse conjointe des variables X0 , . . . , Xn peut être calculée en consi-
dérant toutes les transitions de l’instant 0 à l’instant n. En effet , en utilisant le définition
de la probabilité conditinnelle et la propriété markovienne, obtient
P(Xn = in , Xn−1 = in−1 , . . . , X0 = i0 ) = P(Xn+1 = in+1 |Xn = in , . . . , X0 = i0 )
×P(Xn−1 = in−1 , . . . , X0 = i0 )
= Pin−1 ,in × P(Xn−1 = in−1 , . . . , X0 = i0 )
= Pin−1 ,in × Pin−2 ,in−1 × · · · × Pi0 ,i1 × P(X0 = i0 ).
La dernière égalité est obtenue par récurrence sur l’entier n ≥ 0, et ce pour tous les
i0 , . . . , in .
(n)
Propriété 2.1. 0 ≤ Pi,j ≤ 1 pour tous i, j.
P (n)
Propriété 2.2. j Pi,j = 1 pour tout i.
(n) P (k) (n−k)
Propriété 2.3. Pi,j = l Pi,l Pl,j pour tous i, j et pour tout 0 ≤ k ≤ n, avec
1 si i=j
(0)
Pi,j =
0 sinon
La suite (Xn )n≥0 n’est plus une chaîne de Markov, car les deux premières probabilités
conditionnelles ci-dessus, par exemple, signifient que
0 0, 5 0 0, 5
Onn a, par exemple,
On procède de la même façon pour toutes les autres entrées de la matrice de transition.
où 0 ≤ a, b ≤ 1. On suppose ici que 0 < a, b < 1 de telle sorte que toutes les probabilités
de transition sont strictemment positives.
P = QΛQ−1 ,
oú
λ1 0
Λ .
0 λ2
est la matrice diagonale des valeurs propres, Q est une matrice dont les colonnes sont
de vecteurs propres à droite correspondantes et Q−1 ,une matrice dont les rangées sont
des vecteurs propres à gauche correspondants. Cela découle des équations P Q = QΛ et
Q−1 P = ΛQ−1 , respectivement. On obtient alors
P n = QΛn Q−1 ,
pour tout n ≤ 1. En effet, cette équation est vraie pour n = 1 est, si elle est vraie pour
n − 1, alors
λ2 − (2 − a − b)λ + (1 − a − b) = 0.
donc
(1 − a)x1 + ax2 = λx1 ,
ce qui peut s’écrire sous la forme
x1 (λ + a − 1)
x2 = .
a
En faisaint x1 = 1 pour λ = 1 et x1 = a pour λ = 1 − a − b, on obtient
1 a 1 a 1 0
P = ,
1 −b 1 −b 0 1−a−b
d’où
1 a 1 0 b a 1
P = .
1 −b 0 1−a−b 1 −1 a+b
Puisque −1 < 1 − a − b < 1 lorsque 0 < a, b < 1, on obtient sous cette condition
(n) b a 1
lim P = .
n→∞ b a a+b
La limite de la matrice de transition en n pas lorsque n → ∞ a donc des lignes iden-
tiques. Cela signifie que la chaîne oublie son état initial à mesure que le temps coule. De
plus, quel que soit l’état initial, on a convergence vers une distribution de probabilité
qui est donnée par un vecteur propre à gauche de P associé à la valeur propre 1 dont
les composantes sont strictement positives et de somme éagle à 1. Cette convergnece
découle du fait que la matrice stochastique P a une valeur propre 1 qui possède un
vecteur propre dont toutes les composantes sont 1 et que cette valeur propre est simple
et dominante. C’est un cas particulier de théorème ergodique, qui est le résultat le plus
important sur les chaînes de Markov.
Pour effectuer les calculs, on considère la chaîne de Markov sur le nombre de faces
consécutives avant un lancer jusquà un maximum de trois. Les quatre états possibles
selon les résultats des trois derniers lancers avec F pour face, P pour pile, et X pour
pile ou face sont présentés dans le tableau 1. Les probabilités initiales de ces résultats y
sont également données.
Il est intéressant de remarquer que ν0 = τ0 /2. On peut penser que le critère pour la
fin du jeu favorise les faces, ce qui n’est cependant pas le cas.
Pi,i+1 = p, Pi,i−1 = 1 − p,
Pour i = 1, . . . , N − 1, alors que P0,0 = PN,N = 1. cela signifie que si l’avoir de A est
égal à i après n parties, alors après n + 1 parties, il est éagl à i + 1 avec probabilités p
et i − 1 avec probabilité q = 1 − p, en autant que 1 ≤ i ≤ N − 1. si l’avoir de A est égal
à 0 ou N , alors il ne change plus par la suite avec probabilité 1.
On s’intéresse à la probabilité de ruine du joueur A. On définit
d’où k
1− N
si p = q = 1/2,
Pk−1 i
q
i=0 p
k
uk = 1 − = 1− q
PN −1 q i p
i=0 p
1− N si p 6= q,
q
1− p
En laissant tendre l’avoir total des deux jouers vers l’infini, on obetient
si p ≤ q, c’est-à-dire si p ≤ 1/2,
1
lim uk = k
N →∞ q
p
si p > q, c’est-à-dire si p > 1/2.
Ceci suggère que, dans le cas où l’avoir du joueur B est infini, la ruine du joueur A
est certaine si et seulement si sa probabilité de gagner chaque partie est inférieure ou à
égale à 1/2.
pour k = 0, 1, . . . , N, avec
0 = νN = N ν1 − N (N − 1),
νk = k(N − k),
pour k = 0, 1, . . . , N. On remarque que : (a) νN −k = νk , ce qui est attendu par symétrie ;
(b) la plus grande valeur de νk est atteinte lorsque k = [N/2], la partie entière de N/2 ;
mais surtout (c) l’espérance νk est toujours finie. Cette propriété interviendra dans la
classification des états d’une chaîne de Markov.
2.5.1 Définitions
1. (a) Un état i est récurrent si
(n)
fii = Pii = P(retour à i | départ de i) = 1.
Sinon (µi < ∞), alors l’état est rećurrent positif. Ici, le temps est mesuré en
nombre de transitions.
(c) La période d(i) d’un état i est définie par
(n)
d(i) = gcd{n ≥ 1 : Pii > 0}.
Par convention, d(i) = 0 si l’ensemble ci-dessus est vide. Un état i est pé-
riodique si d(i) > 1 est apériodique sinon (d(i) = 0 ou 1). On admettra que
(n)
d(i) = 1 si et seulement si Pii > 0 pour tout n ≥ N (i) pour un certain entier
N (i) ≥ 1.
(d) Un état récurrent positif apériodique est ergodique. C’est le cas en particulier
d’un état i tel que Pii = 1, qui dit est absorbant.
2.5.2 Exemples
Dans les exemples ci-dessous les états sont représentés par des cercles numérotés et
les transitions de probabilités strictement positives par des flèches.
(a) Dans l’exemple, l’état 2 est récurrent, car
1 1
P(non retour à 2 | départ de 2) = 2 × × × 1 × · · · = 0.
2 2
En effet, pour ne plus retourner à 2 à partir de 2, on doit : soit aller à 1(ce qui a une
probabilité égale à 1/2), puis faire la boucle 1,0,1 ( dont la probabilité est 1/2 × 1) une
infinité de fois ; soit aller à 3, puis faire la boucle 3,4,3 une infinité de fois, avec les mêmes
probabilités. Dans les deux cas, la probabilité totale est 0. De plus, d(2) = 2, car on
retourne à 2 à partir de 2 avec une probabilité strictement positive seulement en 2k pas,
pour k ≥ 1.
(b) L’état 2 est transient, car
1 1 1
P(non retour à 2 | départ de 2) ≥ × × 1 × 1 × · · · = > 0.
2 2 4
En effet, on ne retourne pas à 2 à partir de 2 si on va à 1( probabilité 1/2) puis à 0 (
probabilité 1/2), car on retourne par la suite à 0 ( probabilité 1) une infinité de fois.
De plus, d(2) = 2 pour la même raison que dans l’exemple précédent, puisqu’on peut
retourner à 2 à partir de 2 avec une probabilité strictement positive en tout nombre pair
de pas.
(c) Dans l’exemple de , l’état 0 est récurrent , car
1 1 1
P(non retour à 0 | départ de 0) = × × × · · · = 0.
2 2 2
En effet, pour ne plus retourner à 0 à partir de 0, il faut d’abord aller à 1 ( probabilité
1/2), puis retourner à 1 (probabilité 1/2) une infinité de fois, ce qui a probabilité 0. De
plus, l’état 0 est apériodique, car
(1) 1
P00 = > 0.
2
Finalement, l’état 0 est récurrent positif, car l’espérance du temps de premier retour à
0 à partir de 0 est
X 1 k
µ0 = k
k≥1
2
1 X 1 k−1
= k
2 k≥1 2
1 d X k
= s
2 ds k≥0 s= 21
1 d 1
=
2 ds 1 − s s= 12
1 1 2
=
2 1 − s s= 12
= 2
L’espérance est alors finie, et donc l’état 0 est récurrent positif, si et seulement si p < 1/2.
(n)
Sinon, il est transient, et alors nécessairement lim Pii = 0.
n→∞
Définitions
Deux états i et j communiquent, ce qui est noté i ↔ j, si j est accessible à partir de
i, c’est-à-dire
(n)
Pij > 0 pour un certain n ≥ 0,
et de même si i est accessible à partir de j, donc
(m)
Pji > 0 pour un certain m ≥ 0.
Cette relation binaire est une relation d’équivalence. En effet, elle est :
(0)
− réflexive : i ↔ i, puisque Pii = 1 > 0 ;
− symétrique : j ↔ i si i ↔ j, par définition ;
(n) (m)
− transitive : i ↔ k si i ↔ j et j ↔ k, puisqu’alors Pij Pjk > 0 pour certain m, n ≥ 0,
et donc X (n) (m)
(n+m) (n) (m)
Pik = Pil Plk ≥ Pij Pjk > 0.
j
Les espaces des états peut donc être décomposé en classe d’équivalence. Lorsqu’il y a
une seule classe d’états, la chaîne est dite irréductible.
Proposition 2.1.
(n) (m)
Si i ↔ j, c’est-à-dire Pij Pji > 0 pour certains n, m ≥ 0, alors :
(a) i est récurrent si et seulement si j est récurrent ;
(b) i est récurrent positif si et seulemet si j est récurrent positif ;
(c) i et j ont la même période.
Puisqu’un état est ou bien récurrent ou bien transient, et qu’un état récurrent est ou
bien récurrent positif ou bien récurrent nul, les états d’une même classe sont de même
type et même période. Une classe (ou un chaîne irréductible) est dite transiente, récur-
rent positive ou nulle, périodique ou apériodique, et ergodique selon le type de ses états.
Proposition 2.2.
Proposition 2.3.
Corollaire 2.1. Une chaîne irréductible (et toute classe fermée) sur un nombre fini
d’états est récurrente positive.
Remarque 2.1.
Remarque 2.2.
Remarque 2.3.
n−1
1 1 X (k)
= lim Pjj
µj n→∞ n
k=0
n−1
1X
= lim E(1{Xk =j} |X0 = j)
n→∞ n
k=0
N (n)
j
= lim E X0 = j ,
n→∞ n
où
n−1
X
Nj (n) = 1{Xk =j}
k=0
Remarque 2.4. .
Les équations de stationnarité signifie qu’à long terme la fraction moyenne de visites
à l’état j est éagle à la somme des fractions moyennes des visites aux différents états i
qui sont suivies immédiatement d’une transition à l’état j.
Remarque 2.5. .
Pour tout état j dans une classe récurrente positive C(j), qui est nécessairement
fermée, on a µ−1
j = πj , où (πj ) est une distribution stationnaire pour la chaîne de
Markov restreinte aux états de la classe C(j).
On a ici une seule classe d’états, donc une chaîne irréductible, qui est récurrente positive,
car le nombre d’états est fini, et apériodique, car on a P00 = 0, 2 > 0. La chaîne est donc
ergodique. On a alors
(n) π0 π1
lim P =
n→∞ π0 π1
pour la limite de la matrice de transition en n pas, où (π0 , π1 ) = π est la distribution
stationnaire. L’équation de stationnarité π = πP donne ici
π0 = 0, 2π0 + 0, 4π1
et
π1 = 0, 8π0 + 0, 6π1 ,
d’où π1 = 2π0 . La condition π0 + π1 = 1 permet alors d’obtenir π0 = 1/3 et π1 = 2/3.
La classe d’un assuré change d’une année à la suivante selon le nombre de réclama-
tions effectuées durant l’année. La matrice de transition pour les classes de 7 à 1 dans
cet ordre est de la forme
1 − p0 p0 0 0 0 0 0
1 − p0 0 p0 0 0 0 0
1 − 1i=0 pi
P
p1 0 p0 0 0 0
1 − 2i=0 pi
P
P = p2 p1 0 p0 0 0
1 − 3i=0 pi
P
p3 p2 p1 0 p0 0
P4
1 − i=0 pi p4 p3 p2 p1 0 p0
1 − 5i=0 pi
P
p5 p4 p3 p2 p1 p0
0ù
λk −λ
pk = e
k!
représente la probabilité de k réclamation durant l’année, pour k ≥ 0. On fait donc
l’hypothèse d’une loi de Poisson pour le nombre de réclamations.
Il y a une seule classe, car tous les états communiquent entre eux, et elle est ré-
currente positive, car il y a un nombre fini d’états. De plus, elle est apériodique, car
P11 = p0 > 0. On a donc affaire à une chaîne irréductible ergodique.
Cela signifie notamment que presque 89% des assurés en moyenne à long terme sont
dans la classe 1. De plus, le pourcentage moyen ’‘a long terme de la prime payée par les
assurés est
π7 × 100% + π6 × 90% + · · · + π1 × 65% = 65, 65%,
ce qui est très près du pourcentage pour la classe 1.
2.7 Exercices
Exercice 2.1.
Supposons que le temps qu’il fait d’une journée à la suivante est décrit par une chaîne
de Markov sur les états 0,1,2 (0 pour ensoleillé, 1 pour nuageux, 2 pour pluvieux) dont
la matrice de transition est donnée par
1/2 1/2 0
P = 1/4 1/2 1/4 .
0 1/2 1/2
On est jeudi et c’est nuageux. Déterminer
(a) La probabilité que les trois prochains jours soient ensoleillés ;
(b) la probabilité que dimanche procahin soit ensoleillé.
Exercice 2.2.
En utilisant les propriétés d’uune matrice de transition, montrer que si P (2) est la matrice
de transition en deux pas d’une chaîne de Markov à temps discret sur deux états, 0 et
1, alors les entrées dans la première colonne de cette matrice satisfont l’inégalité
(2) (2)
p00 ≥ p10 .
Exercice 2.3.
Exercice 2.4.
Deux joueurs de tennis, A et B, sont rendus à égalité dans un jeu. Il faut deux
points d’avance pour être déclaré vainqueur. Un joueur qui a un point d’avance est dit
en avantage. En supposant que A a une probabilité p de gagner chaque point, et B une
probabilité 1 − p , indépendamment de tous les autres points, déterminer :
1. la probabilité pour A d’être déclaré vainqueur ;
2. l’espérance du nombre de fois que A sera en avantage avant la fin du jeu.
Exercice 2.5.
On lance une pièce de monnaie non pipée plusieurs fois indépendamment jusqu’à ce
qu’on obtienne trois faces consécutves (F F F ). Les résultats des trois premiers jets sont
F P F . En incluant ces trois premiers jets, déterminer la probabilité d’obtenir trois piles
consécutives (P P P ) avant la fin du jeu.
Exercice 2.6.
Une espèce de fleurs peut se trouver dans trois états : Viable (0), en voie de disparition
(1) ou éteinte (2). Les transitions d’états d’une année à la suivante sont modélisées par
une chaîne de Markov non homgène avec la matrice de transition Qi de l’année i − 1 à
l’année i définie comme suit :
0, 85 0, 15 0 0, 9 0, 1 0
Q1 = 0 0, 7 0, 3 , Q2 = 0, 1 0, 7 0, 2
0 0 1 0 0 1
0, 95 0, 5 0 0, 95 0, 05 0
Q3 = 0, 2 0, 7 0, 1 , Qi = 0, 5 0, 5 0
0 0 1 0 0 1
pour i ≥ 4. Calculer la probabilité que l’espèce de fleurs s’éteigne ultimement étant
donné qu’elle est initialement en voie de disparition.
Exercice 2.7.
Une plante survit d’un printemps au suivant avec probabilité 3/4 et, dans ce cas,
elle produit le printemps suivant 0,1 ou 2 autres plantes identiques à elle même avec la
même probabilité. Une plante peut donc survivre et se reproduire plusieurs printemps de
suite. On suppose une seule plante au départ et on considère le nombre total de plantes
à chaque printemps suivant.
1. L’extinction est-elle certaine ?
2. Si elle ne l’est pas, quelle est sa probabilité ?
Exercice 2.8.
Exercice 2.9.
Exercice 2.10.
Une chaîne de Markov sur trois états, dis-on 0,1 et 2, a comme matrice de transition
1/4 3/4 0
P = 0 1 0 .
1/2 0 1/2
Déterminer :
(a) les classes d’états et leur type ;
(b) la matrice de transition en n pas ;
(c) la limite de cette matrice lorsque n tend vers l’infini.
indication : Diagonaliser la matrice de transition.
Exercice 2.11.
On considère la marche aléatoire sur les entiers avec probailités de transition données
par
Pi,i+1 = p, Pi,i−1 = q = 1 − p,
avec 0 < p < 1.
1. Déterminer P ij (n) et en déduire que tous les états communiquent entre eux, et
donc la chaîne est nécessairement irréductible.
2. Montrer que les états de la marche aléatoire ne peuvent être récurrents positifs
en utilisant la formule de Stirling donnée par
n!
lim √ = 1.
n→∞ nn+1 e−n 2π
3. Montrer que tous les états sont récurrents nuls si Pp = 1/2, etP
transents sinon.
Remarque. Si an , bn ≥ 0 et limn→∞ an /bn = 1, alors ∞ a
n=1 n et ∞
n=1 convergent
ou divergent ensemble.
Exercice 2.12.
Dans un test de Vrai ou Faux, les questions sont posées de telle façon que suite à une
réponse Vrai, une réponse Vrai est choisie les trois quarts du temps en moyenne et suite
à une réponse Faux, une réponse Faux est choisie les deux tiers du temps en moyenne.
Quelle est la fraction attendue des réponses Vrai sur un grand nombre de questions ?
Exercice 2.13.
Supposons que, d’une génération à la suivante, les familles changent de groupe de
revenu ( bas, moyen, élevé ) selon une chaîne de Markov dont la matrice de transition
est
0, 6 0, 3 0, 1
P = 0, 2 0, 7 0, 1 .
0, 1 0, 3 0, 6
Comment devraient se répartir les familles dans les trois groupes de revenu après un
grand nombre de générations ?
Exercice 2.14.
Les résultats successifs de parties d’échecs d’un joueur contre un logiciel d’échecs
suivent une chaîne de Markov sur les états V pour victoire, D pour défaite et N pour
nulle avdc la matrice de transition correspondante donnée par
3/4 0 1/4
P = 0 3/4 1/4 .
1/2 1/4 1/4
Déterminer :
(a) la proportion moyenne de victoire à long terme de ce joueur ;
(b) l’espérance du nombre de parties d’une victoire à la suivante.
Exercice 2.15.
Soit Sn la somme des points obtenus en lançant un dé non pipé n fois de façon
indépendante. La probabilité que Sn soit un multiple du nombre 6 converge-t-elle lorsque
n tend vers l’infini ? Si oui, quelle est la limite ?
Exercice 2.16.
Une chaîne de Markov sur les états 0,1,3 et 4 a comme matrice de transition
0 0 1/2 1/4 1/4
0 1/2 1/2 0 0
P = 0 1/4 3/4 0 0
0 0 0 1 0
1 0 0 0 0
Déterminer, si elles existent, les limites des probabilités de transition en n pas suivantes :
(n)
(a) lim P00 ;
n→∞
(n)
(b) lim P01 .
n→∞
Exercice 2.17.
Une chaîne de Markov sur un nombre fini d’états avec matrice de transition P est
dite régulier s’il existe un entier N ≥ 1 tel que la matrice P N est strictement positive (
c’est-à-dire que toutes ses entrées sont supérieures à 0). Montrer que la chaîne de Markov
sur les états 0,1,2,3 et 4 avec la matrice de transition ci-dessous est régulière et trouver
sa distribution stationnaire :
3/4 1/4 0 0 0
3/4 0 1/4 0 0
P = 3/4 0 0 1/4 0 .
3/4 0 0 0 1/4
1 0 0 0 0
Exercice 2.18.
Une suterelle se déplace sur les sites 0,1 et 2 disposés sur un cercle en allant à chaque
saut au site adjacent dans le sens des aiguilles d’une montre avec probabilité p et au site
(n)
adjacent dans le sens contraire avec probabilité 1 − p. Soit Pij la probabilité de passer
du site i au site j en n sauts.
(n)
(a) Déterminer les valeurs de p pour lesquelles Pij converge pour tous i, j et trouver
alors les valeurs limites
Pn−1 (k)
(b) Répondre à la question pour (1/n) k=0 Pij .
(c) Répondre aux deux mêms questions dans le cas où on ajoute un site 3.
Exercice 2.19.
une chaîne de Markov à temps discret sur les entiers supérieurs ou égaux à 0 a comme
probabilités de transition
Exercice 2.20.
une chaîne de Markov à temps discret sur les entiers supérieurs ou égaux à 0 a comme
probabilités de transition
1 1
Pi,i+1 = , Pi,0 = 1 − ,
2(i + 1) 2(i + 1)