Cours Complet
Cours Complet
Introduction: Déscription et
classification des files d’attente
2
1.1 Introduction
”Wait please” ou ”Patientez SVP” des phrases que l’on entend quotidien-
nement. Que l’on paye une facture devant un guichet ou par internet on est
obligé d’attendre son tour. Les phénomènes d’attente pour un service font
partie de la vie quotidienne
La modélisation mathématique des files d’attente est une théorie qui consiste
étudier les systèmes où des clients se présentent un serveur. Le but recherché
dans cette théorie est souvent d’évaluer l’attente subie par un client, de
comprendre comment elle se produit et aussi d’évaluer le nombre maximal
de clients qu’un système est capable de traiter par unité de temps. Le mot
client dépend du contexte. Dans un atelier le mot client peut signifier par
exemple une tâche, dans un hopital un client peut signifier un malade, dans
un réseau routier un client peut tre un véhicule, en informatique un client
peut signifier:
les trames d’un reseau local, ou les paquets d’un reseau commutation de
paquets, ou les requtes une base de données ou les tâches présentées à
l’unité centrale d’un ordinateur.
Le but de cette théorie est de construire des modèles mathématiques et de
définir des paramètres de performance d’un système de files d’attente comme:
3
Figure 1.1: Schéma d’une file d’attente
4
Notation de Kendall
les files d’attente sont décrites par une suite de symboles:
A | B | s : d | e oú
I A décrit le processus d’arrivée
I B décrit le processus de service
I s le nombre de serveurs
I d la taille de la salle d’attente
I e la stratégie de service.
5
cas d’une stratégie non préemptive; comme dans le LIFO
IPS( processor sharing) est une politique dans laquelle tous les client ssont
servis en même [Link] la capacité du serveur est C unités de travail par
unité de temps et s’il y’a n clients dans la file à un instant donné t, chaque
client est servi à un taux Cn unitè de travail par unité de temps.
Définition 1.1.1. On appelle temps de séjour d’un client dans une file
d’attente, le temps entre son instant d’arrivée et son instant de départ de la
file:
tattente = tséjour−tservice
6
Figure 1.2: Temps de séjour: FIFO
7
1.2 Motivations
Dans ce § on va introduire certaines applications de la théorie des files
d’attente à l’èvaluation de performances et au dimensionnement des réseaux
de télécommunications.
8
station. Il y’a un seul serveur. Ce type de modèle est appelé un système de
polling.
M/M/1 est souvent utilisé pour modéliser les liens des réseaux à
commutation de paquets. Nous verrons ultérieurement des paramétres de
performation importants pour un ingénieur réseau.
9
Chapitre 2
10
2.1 Chaı̂nes de Markov, définitions et pro-
priétés
Dans tout ce quit suit (Ω, A, P) désigne un espace de probabilité et X =
{Xn , n ∈ N} des variables aléatoires(v.a) définis sur Ω à valeurs dans un
espace de probabilité dénombrable E qui est appelé l’espace d’états du pro-
cessus X.
Définition 2.1.2. X est une chaı̂ne de Markov homogène si elle est une
chaı̂ne de Markov et de plus:
P(Xn+1 = j|Xn = i) ne dépend pas de n ,∀i, j ∈ E
11
Exemple 2.1.1. Lors d’une ronde, une méthode simple pour tromper
l’ennemi est d’avancer ou reculer de manière aléatoire, en tirant à Pile ou
Face une pièce de monnaie. Si Xn désigne la position du garde à l’instant
n, l’évolution peut se modéliser à l’aide d’une matrice de transition:
1 1
0 2
0 2
1 0 1 0
2 1 2 1
0 0 2
2
1
2
0 12 0
12
Exercice
Déterminer la matrice de transition si la compagnie change le barème de
tarification comme suit:
• si un assuré n’a pas fait de sinistre, il passe de i à M ax(1, i − 1)
• si l’assuré a k sinistres, il passe de i à M in(6, i + k)
et si de plus on sait que le nombre de sinistres suit une loi de Poisson.
13
Séance du 19 Octobre 2020:( Suite du Chapitre2)
14
Exemple 2.1.4. Les processus de file d’attente
Soit une file d’attente à temps discret: le temps est divisé en intervalles
de longueur constante et on observe le système uniquement aux frontières
de ces intervalles. Pour simplifier les notations, on utilise comme unité de
temps, la longueur de ces intervalles. On suppose que la salle d’attente est
infinie, qu’il y’a un seul serveur et que la discipline de service est FCFS
(first come first served). Les clients arrivent et sortent du sytème à la fin
de chaque intervalle. On suppose que les départs se produisent avant les
arrivées afin d’éviter les temps de service nuls.
Le processus d’arrivée est défini comme suit:
à chaque intervalle, il y’a une arrivée avec une probabilité p et aucune
arrivée avec une probabilité 1 − p et ceci independemment de tout le passé
du processus.
Le processus de service est comme suit:
si à la fin d’un intervalle, il y’a un client dans la file, celui-ci finit son
service avec probabilité q et ne le finit pas avec une probabilité 1 − q et
ceci independemment du passé du processus. De plus, on suppose que les
processud’arrivée et de service sont indépendants.
15
Soit
1, s’il y’a une arrivée au nème intervalle, avec une probabilité p
An =
0, sinon, avec une probabilté 1 − p
Soit
1, s’il y’a un départ au nème intervalle, avec une probabilité q
Dn =
0, sinon, avec une probabilté 1 − q
16
On a:
∞
X
P(Xn+1 = i) = P(Xn+1 = i, Xn = j)
j=0
∞
X
= P(Xn+1 = i|Xn = j)P(Xn = j), ∀n ≥ 0
j=0
17
Cette solution est (pi )∞
i=0 donnée par:
p0 p(1 − q) i
pi = [ ] , sii >
1 − q q(1 − p)
p
p0 = P(X = 0) = 1 − .
q
18
Exemple 2.1.5. Une suite indépendante de v.a identiquement distribuées
et indépendantes est souvent notée i.i.d
Soi (Xn ) une suite de v.a i.i.d à valeurs dans N, telle que P(Xn = k) = ak
∀n ∈ N, alors Xn est une chaı̂ne de Markov de matrice de transition:
a0 a1 a2 · · ·
a0 a1 a2 · · ·
a0 a1 a2 · · ·
P =
· · · · · ·
· · · · · ·
· · · · · ·
19
Exemple 2.1.6. Somme partielle d’une i.i.d Pn
Soit (Xn )n une suite i.i.d à valeurs dans N. Soit Yn = i=0 Xn , alors
Yn+1 = Yn + Xn+1 . (Yn )n est une chaı̂ne de Markov. En effet Xn+1
est indépendant de {Yi , i ≤ n}. De plus la matrice de transition a pour
coefficient:
20
Exemple 2.1.7. Marche aléatoire
Définition 2.1.4. Une marche aléatoire sur Z est une chaı̂ne de Markov à
valeurs dans Z tel que P (Xn+1 = i + 1|Xn = i) = p et P (Xn+1 = i − 1|Xn =
i) = 1 − p.
Proposition 2.1.1. Une suite réccurente de v.a Xn+1 = f (Xn , Un+1 ) avec
(Un ) une suite de v.a i.i.d à valeurs dans F et indépendantes de X0 , et
f : E × F ,→E une fonction mesurable, est une chaı̂ne de Markov homogène
dans E.
où
21
Définition 2.1.5. On appelle matrice markovienne(ou stochastique) toute
matrice
M (aij ) tels que:
aij ≥ O, P ∀ i,j
∀i, j aij = 1
22
Proposition 2.1.5. La loi jointe de (X0 , . . . , Xn ) est déterminée pour tout
n, à partir de la loi initiale de X0 et de la matrice de transition P par la
formule suivante:
Demonstration 2.1.4. On a
23
Demonstration 2.1.5. On a d’après la proptièté precédente:
P(Xn = in , · · · , X1 = i1 , X0 = i0 ) = P(X0 = i0 )pin−1 ,in pin−2 ,in−1 · · · pi0 ,i1 ,
d’où P(Xn = in , · · · , X1 = i1 |X0 = i0 ) = pin−1 ,in pin−2 ,in−1 · · · pi0 ,i1 .
D’où (2.2)
D’apès la formule de probabilité
P totale on a;
P
P(Xn = in |X0 = i0 ) = i1 ∈E · · · in−1 ∈E P(Xn = in , · · · , X1 = i1 |X0 = i0 )
Or d’après (i) on a P P
P(Xn = in |X0 = i0 ) = i1 ∈E · · · in−1 ∈E pin−1 in · · · pi0 i1
(P n )i0 in étant l’élément (iP
0 , in ) de la puissance n
ème
de P.
n
P
Or (P )i0 in == i1 ∈E · · · in−1 ∈E pi0 i1 · · · pin−1 in , d’où (ii) et on obtient (2.3)
D’après (2.3) on a:
m
X
(P n P m )i0 in+m = (P n )k,in+m (P )i0 k ,
k∈E
d’où (2.4).
24
Equation de Chapman-Kolmogorov:
L’équation (2.4) est appelée l’équation de Chapman-Kolmogorov:
X
P(Xn+m = in+m |X0 = i0 ) = P(Xn+m = in+m |Xm = k)P(Xm = k|X0 = i0 )
k∈E
25
Remarque 2.1.6. A toute matrice de transition on peut associer un graphe
orienté. Les sommets sont les ètats de la chaı̂ne et l’orientation est donnée
par la probabilité pij > 0
26
Exemple 2.1.9.
1 1
2 2
0
2 1
P = 3
0 3
2 1
0 3 3
Exercice
Dans chacun des cas suivants, vérifier que la matrice P est markovienne et
représenter son graphe:
1) 1 1
2 2
0
P = 23 0 13
0 0 1
2)
1 1 3
5 5 5
1 1
P = 0
2 2
1 0 0
Exemple 2.1.10. Pour
1−α α
P =
β 1−β
on a
2 (1 − α)2 + αβ 1 − [(1 − α)2 + αβ]
P =
1 − [(1 − β)2 + αβ] (1 − β)2 + αβ
(n+1) (n+1)
p12 = 1 − p11 .
D’où:
(n+1) (n)
p11 = (1 − α − β)p11 + β
27
(0)
Cette suite reccurente avec p11 = 1 admet une solution unique:
(n) β β
p11 = + [1 − α − β]n
α+β α+β
Ceci se traduit par le graphe suivant:
28
Séance du 26 Octobre 2020:( Suite du Chapitre2)
29
2.2 La proprièté de Markov forte
SoitX = (Xn ) une chaı̂ne de Markov sur Ω à valeurs E on désigne par Fn =
σ(Xm , m ≤ n) la tribue engendrée par (Xm , m ≤ n). (Fm )m≤n représente
l’histoire de X et Fn représente le passéde X jusqu’à l’instant n.
Définition 2.2.1. Toute v.a T à valeurs dans N telle que {T = n} ∈ Fn est
appelée un temps d’arrêt (t.a)de X
Exemple 2.2.1. Temps d’entrée dans un ensemble
Soit A ⊂ E
Inf {n ≥ 0 tq Xn ∈ A}, si ∃ n tq Xn ∈ A;
τ (A) =
∞, sinon.
τ (A) est un temps d’arrêt de X. En effet,
n−1
\
(τ = n) = (Xk ∈
/ A) ∩ (Xn ∈ A) ∈ Fn .
k=1
P(XT +m = j|XT = i, XT −1 = iT −1 , · · · , X0 = i0 ) = pm
ij
∀i, j, i0 , i1 , · · · , iT −1 ∈ E et ∀m ≥ 1.
Cette proprièté est appelée la proprièté de Markov forte.
30
2.3 Classification des états
On va faire une classification des états d’une chaı̂ne de Markov afin de
montrer les évolutions possibles de l’état de cette chaı̂ne et de déterminer
des conditions necessaires et suffisantes de l’existence d’une probabilité
stationnaire.
On rappelle que
1 si Xn (ω) = i;
1{Xn =i }(ω) =
0, sinon.
Soit N (i) = ∞
P
n=1 1{Xn =i} est la v.a déterminant le nombre total de visites
de l’état i après le départ.
Il est évident que:
N (i) > 0 ⇐⇒ τ (i) < ∞.
Définition 2.3.1. (1) Un état i est dit transcient si Pi (τ (i) < ∞) < 1
(2) Un état i est dit reccurent si Pi (τ (i) < ∞) = 1, c’est à dire que le temps
de retour en i est fini p.p
Il existe deux types d’états recuurents:
(a) un état reccurent nul si Ei (τ (i)) = ∞
b) un état reccurent positif( ou non nul) si Ei (τ (i)) < ∞
(3) un état i est dit absorbant si pii = 1
Une chaı̂ne de Markov est dite reccurente(resp transciente) si tous ses états
sont reccurents (resp transcients).
31
Proposition 2.3.1. Soit i un état fixé. Alors on a
1) Ei (N (i)) = ∞ n
P
n=1 pii
2) les assertions suivantes sont équivalentes:
(a) i est recurrent
(b) Pi (Ni = ∞) = 1, c’est à dire que la chaı̂ne (Xn ) revient p.s une infinité
de fois à son état initial i,
(c)Ei (N (i)) = ∞
3)les assertions suivantes sont équivalentes:
(a) i est transcient
(b) Pi (N (i) < ∞) = 1
(c) Ei (N (i)) < ∞
P
Remarque 2.3.2. Pi (Ni < ∞) = k=1 Pi (Ni = k) et Pi (Ni < ∞) = 1 pour
un état transient signifie que la chaı̂ne (Xn ) visite l’état i un nombre fini de
fois càd que la chaı̂ne a une probabilité positive de ne pas revenir à cet état.
32
Définition 2.3.4. Soit i ∈ E, on appelle d période de l’état i le
33
Définition
P 2.3.5. Un sous ensemble F de E est dit férmé ssi: pour tout
i∈F j∈F ij = 1
p
Cela signifie que les états de F ne conduisent pas à des états qui ne sont pas
dans F
Définition 2.3.7. Une chaı̂ne de Markov est dite irreductible ssi son espace
d’états est fermé irreductible. (c àd tous ses états communiquent).
Remarque 2.3.4. 1)une chaı̂ne est irreductible si toutes ses paires d’états
communiquent. On dit que son graphe est fortement connexe.
2) Si une chaı̂ne admet un état absorbant, elle n’est pas iireductible
34
Définition 2.3.8. La forme canonique de la matrice d’une chaı̂ne de Markov
à un
ensembled’états fini s’écrit:
Q R
P =
0 I
où R représente les états absorbants, Q les états non absorbants , I la
matrice identité et 0 la matrice nulle.
matrice
1des1états absorbants
2 2
0 0
0 0 0 1
Q= 2
1 1 0 0
2 2
0 0 12 0
matrice
des états non absorbants, et
1 0
I=
0 1
35
Proposition 2.3.4. Si E est un espace d’état fini alors toute chaı̂ne de
Markov irreductible est reccurente.
Exemple 2.3.3. Soit (Xn ) une chaı̂ne de Markov dont E = {0, 1, 2} est
l’espace d’états et
0 1 0
P = p 0 1−p
1 0 0
Par le graphe orienté on vérifie que cette chaı̂ne est irreductible. Tous ses
états communiquent, de plus les lacets:
0 → 1 → 0 et 0 → 1 → 2 → 0 ont pour longueur 2 et 3 respectivement. Leur
pgcd = 1; 0 est apériodique . D’après le théorème les états 1 et 2 le sont
aussi.
0 12 12
0
1 0 0 0
P = 0
.
1 0 0
0 1 0 0
36
Séances du 2, 9 Novembre 2020: chapitre 2 suite
37
Définition 2.3.9. (Graphe réduit d’une chaı̂ne de Markov)
Si C1 , C2 , ·, ·, ·, Cr désigne les classes d’une chaı̂ne de Markov, le graphe réduit
GR de la chaı̂ne est obtenu en associant un sommet u à chaque classe Cu et
en reliant les sommets u et v par un arc (u, v) s’il existe i ∈ Cu et j ∈ Cv
avec pi,j > 0.
Exemple 2.3.4. (sera traité en TD) Soit (Xn )n∈N une chaı̂ne de Markov
d’éspace d’états E = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10} et de probabilités de transition:
p1,6 = p1,8 = 21 , p2,5 = 1, p3,3 = 12 , p3,5 = p3,7 = 14 , p4,7 = 1, p5,3 = p5,7 = 14 ,
p5,8 = 12 , p6,1 = p6,8 = 12 , p7,4 = p7,10 = 12 , p8,1 = p8,6 = 12 , p9,2 = 34 ,p9,9 = 14 et
p10,7 = 1
Ecrire la matrice de cette chaı̂ne puis représenter son graphe. Déterminer
les classes de communication , leur nature, leur périodicité.
38
2.4 Lois de probabilité stationnaire- Ergod-
icité
Définition 2.4.1. Soit ν une loi de probabilité sur l’ensemble d’états E,
elle est dite stationnaire ( ou invariante) par rapport à P ( P matrice de
transition) ssi P
ν = νP càd νj = i∈E νi pij P
où ν = (ν1 , · · · , νi , · · · ) 0 ≤ νi ≤ 1 i νi = 1 et P = (pij ).
39
2.4.1 Chaı̂ne de Markov à espace d’états fini
Théorème 2.4.1. Soit (Xn ) une chaı̂ne de Markov à ensemble d’états fini.
Alors elle épossède au moins une loi stationnaire.
Si de plus elle est irreductible, alors la loi stationnaire est unique notée ν et
vérifie:
∀i ∈ E, ν(i) = Ei 1(τi ) > 0
où τi est le temps d’atteinte de i ( ou le premier retour en i) et
Ei (τi ) = E(τi |X0 = i). Si de plus, (Xn ) est irrecductible apériodique alors P n
converge vers la matrice dont toutes les lignes sont égales à ν;
par conséquent quelle que soit la loi initiale de X0 , Xn converge en loi vers ν
(1 − α)µ1 + βµ2 = µ1
αµ1 + (1 − β)µ2 = µ2
µ1 + µ2 = 1
β
On obtient: µ1 = α−β et
α
µ2 = α−β
avec 0 < α < 1 et 0 < β < 1. La chaı̂ne est reccurente et apériodique.
Xn converge en loi vers µ quelque soit la loi initiale et E1 (τ1 ) = α−β
β
40
Exercice Le modèle de diffusion d’Ehrenfest
Deux urnes A et B contiennent au total m boules numérotées de 1 à m. A
chaque instant, on choisit une boule de façon uniforme et on la change d’urne.
Xn désigne la v.a nombre de boules dans l’urne A à l’instant n. L’ensemble
des états est donc E = {0, 1, · · · , m}. Dans ces conditions, par exemple si à
un instant l’urne A est vide (la chaı̂ne est dans l’état 0), à l’instant suivant
l’urne contiendra 1 boule avec la probabilité 1. Si à un instant A contient i
boules 0 < i < m, à l’instant suivant elle contiendra i − 1 ou i + 1 avec les
probabiltés respectives: mi et m−i
m
1) Écrire la matrice de tansition de cette chaı̂ne puis dessiner son graphe
orienté.
2) La chaı̂ne est-elle irreductible?
3) Quels sont les états périodiques? Déterminer leur période?
4) Déterminer la loi stationnaire de cette chaı̂ne.
41
Théorème 2.4.2. On considère une chaı̂ne de Markov irreductible d’espace
d’états fini E. On note µ son unique loi de probabilité invariante. On a pour
toute fonction f sur E alors on:
n−1
1X X f (i)
limn f (Xk ) = , p.s
n k=0 i∈E
Ei (τi )
De plus
√ f (X1 ) + · · · + f (Xn−1 )
Z
n( − f dµ)
n
converge en loi vers N (0, 1)( Loi normale centrée réduite)
42
Séances du 16 Novembre 2020: chapitre 2 suite et fin
43
2.4.2 Cas général: E dénombrable
Définition 2.4.2. Un état reccurent j d’une chaı̂ne de Markov est dit rec-
curent positif si:
E(τi |X0 = i) = Ei (τi ) < ∞.
Il est dit reccurent nul dans le cas contraire.
Définition 2.4.3. Ei (τi ) = Mii est appelé le temps moyen de retour dans
l’état i.
Remarque 2.4.2. Les états reccurents sont donc entre les états transients
et les états reccurents positifs. Ils sont reccurents mais leur temps moyen de
retour est infini.
Proposition 2.4.2. Si l’espace d’états est fini, les états reccurents sont tous
positifs.
Si une chaı̂ne est irreductible nulle(Ei (τi ) = +∞)) il n ’existe pas de loi
de probabilitéé stationnaire.
Soit j ∈ EP on note:
n−1
Nn (j) = k=0 1Xn =j le nombre de fois P que la chaı̂ne visite l’état j dans
l’intervalle de temps [0, n − 1]. Fn (j) = n1 n−1k=0 1Xn =j la fréquence de séjour
dans j dans l’intervalle de temps [0, n − 1]
44
Théorème 2.4.6. Si une chaı̂ne de Markov est irreductible de loi initiale
quelconque alors pour tout j ∈ E on a:
1
Fn (j) → p.s
Ej (τj )
Corollaire 2.4.2. Si une chaı̂ne de Markov est irreductible de matrice de
transition P , la suite P n converge au sens de Cesaro vers la matrice π dont
1
toutes les lignes sont égales et vérifie πij = Ei (Tj)
.
Si la chaı̂ne n’est pas positive, la limite π est nulle.
Si la chaı̂ne est irréductible réccurente positive, toutes les lignes de la matrice
limite π sont égales à l’unique loi de probabilité invariante.
45
Séance du 07 Décembre 2020
46
Chapitre 3
47
3.1 Rappels
3.1.1 Loi exponentielle, loi de Poisson
Définition 3.1.1. Soit λ un réel positif. Une v.a X à valeurs dans R+ a une
loi exponentielle de paramètre λ si et seulement si sa fonction de répartition
est F (x) = 1 − e−λx . On dit que X suit la loi exponentielle de paramètre λ
et on note X ∼ Exp(λ)
Exercice Démontrer que
1) la densité de probabilité d’une loi exponentielle de paramètre λ est:
(λx)k−1
f (x) = λe−λx 1x≥0
(k − 1)!
Proposition 3.1.1. Propriété de non vieillissement d’une loi exponentielle
Soit X une v.a de loi exponentielle alors:
P(X > t + s/X > s) = P(X > t) = e−λt pour tous t, s ≥ 0.
Cette propriété (très facile à prouver et déjà vue en module de Proba-
bilités en première année) signifie que le temps de vie résiduelle d’une v.a
exponentielle de paramètre λ est une loi exponentielle de paramètre λ et
ceci indépendament de l’âge de la v.a.
Les v.a exponentielles sont souvent utilisées pour modéliser le temps de
vie de composants électroniques, des lampes et d’autres matériels qui ne
vieillissent pas. Elles sont aussi utilisées pour modéliser les temps d’attente
entre deux événements successifs.
48
Définition 3.1.2. Une v.a X à valeurs N suit une loi de Poisson de
paramètre λ si et seulement:
k
P(X = k) = e−λ λk! pour tout k ∈ N
Exercice Démontrer que l’espérance et la variance d’une loi de Poisson
de paramètre λ sont égales à λ.
Nt est le nombre d’événements qui se sont produits avant l’instant t. Les v.a
τn = Xn − Xn−1 modélisent les intervalles de temps ou temps d’attente entre
deux évenements successifs. Inversement
Xn = inf {t ≥ 0, Nt ≥ n}
est le nème saut de N
Remarque 3.1.1. 1)Les v.a Xn peuvent modéliser les instants d’arrivées
d’un bus, les instants de naissance d’individus, les instants d’arrivée de
client devant un guichet...
2)Il est facile de voir que:
{Nt ≥ n} = {Xn ≤ t}
et
{Nt = n} = {Xn ≤ t < Xn+1 }
D’où la connaissance de la loi du processus X donne la loi de la fonction
aléatoire de comptage.
Définition 3.1.4. Le processus N ou X est un processus de Poisson si et
seulement s’il vérifie les deux conditions suivantres:
(1)pour tous t0 < t1 < . . . < tn dans R+ , les accroissements (Nti − Nti−1 ,
1 ≤ i ≤ n) sont des v.a indépendantes.
(2) pour tous 0 ≤ s < t, la v.a Nt − Ns a la même loi que Nt−s . Elle ne
dépend donc de s et de t que par la différence t − s.
la propiété (2) signifie que les accroissements sont stationnaires. Donc un
processus de Poisson est un processus à accroissement indépendant et sta-
tionnaire que l’on note par PAIS
49
Proposition 3.1.2. ( A admettre) Soit {Nt , t ≥ 0} un processus de Poisson.
Alors il existe λ > 0 tel que pour tous 0 < t, Nt − Ns est une v.a de Poisson
de paramètre λ(t − s). On a donc:
(λ(t − s))k
P(Nt − Ns = k) = e−λ(t−s)
k!
Cette propriété justifie le nom de processus Poisson.
E(Nt+1 − Nt ) = λ
50
Séance du 28 Décembre 2020
51
3.1.3 Chaı̂nes de Markov à temps continu
Définition 3.1.6. Une chaı̂ne de Markov à temps continu est un processus
stochastique {Xt , t ≥ 0} à temps continu défini sur un espace de probabilité
et à valeurs dans un ensemble d’états E fini ou dénombrable vérifiant la
propriété de Markov:
Définition 3.1.9. On dit que l’état i conduit à l’état j s’il existe t ≥ 0 tel
que pt (i, j) > 0. Deux états i, j communiquent s’ils existent s, t > à tels que
pt (i, j) > 0 et ps (j, i) > 0.
52
Un processus de Markov est irrecductible si tous ses états communiquent deux
à deux. Un état i est absorbant si pour tout t > 0 pt (i, i) = 1. Un processus
de Markov n’est jamais périodique.
• dont la loi est sans mémoire car le processus est markovien, On a alors
la proposition suivante
Le temps de séjour Si dans l’état i d’un processus de Markov est une v.a
exponentielle de paramètre qi = −ai,i ne dépendant que de l’état i
53
Exercice Montrer que le générateur infinitésimal d’un processus de
Poisson de paramètre λ est:
ai,i = −λ, ai,i+1 = λ et ai,j = 0 si i 6= j ou j 6= i + 1.
d
Pt = APt
dt
ainsi que l’équation de Kolmogorove progressive:
d
P t = Pt A
dt
54
Définition 3.1.12. un état i est reccurent (resp transient) s’il l’est pour
la chaı̂ne incluse X̂ . Un processus de Markov est dit reccurent(resp
transient) si tous ses états le sont.
Soit
τi = Inf {t > 0, Xt = i et Xt− 6= i}
le temps d’atteinte de l’état i.
Définition 3.1.13. Un état reccurent i est recurrent positif (resp re-
current nul) si et seulement s’il est recurrent et Ei (τi ) < ∞ (resp
Ei (τi ) = +∞.
1 t
Z X
limt→∞ f (Xs )ds = f (i)ν(i) < ∞ = Eν (f )
t 0 i
55
Théorème 3.1.4. Si la condition d’équilbre est satisfaire pour un pro-
cessus de Markov alors ν est une loi invariante.
56
Figure 3.1: Processus de vie et de mort
57