Processus, Modèles et Simulation stochastiques
N . Bessah
12 avril 2022
Table des matières
1 Processus de Poisson 1
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Processus de comptage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Processus de Poisson et loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Propriétés de la loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2 Intervalle séparant deux événements consécutifs . . . . . . . . . . . . . . 3
1.3.3 Somme de deux processus de Poisson . . . . . . . . . . . . . . . . . . . . 4
1.3.4 Suppression d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . 4
i
Chapitre 1
Processus de Poisson
1.1 Définitions
1.1.1 Processus de comptage
Soit N (t) la variable aléatoire discrète définie par
N (t) : " nombre d’événements se produisant dans l’intervalle [0, t]". Le processus (N (t))t≥0
est appelé processus de comptage.
Remarque l’accroissement N (t + u) − N (t) indique le nombre aléatoire d’événements se
produisant dans l’intervalle ]t, t + u]
1.1.2 Processus de Poisson
On dit qu’un processus de comptage est un processus de Poisson homogène s’il satisfait les 3
conditions suivantes :
1. Le processus N (t) est homogène dans le temps i.e.
P (N (t + s) − N (s) = k) = P (N (t) = k) = Pk (t)
• La probabilité est indépendante de la position de l’intervalle par rapport à l’axe
temporel.
2. Le processus (N (t))t est à accroissement indépendant, ce qui signifie que pour tout
système d’intervalles disjoints, les nombres d’événements s’y produisant sont des variables
aléatoires indépendantes en particulier,
P (N (t + s) − N (s) = j, N (s) = k) = P (N (t + s) − N (s) = j).P (N (s) = k) = Pj (t).Pk (s)
(1.1)
pour tous s et t positifs.
3. La probabilité que deux événements ou plus se produisent dans un petit intervalle ∆t est
négligeable par rapport à la probabilité qu’il n’ y ait qu’un seul événement ; i.e.
o(∆t) si k ≥ 2
Pk (∆t) = λ∆t + o(∆t) si k = 1
1 − λ∆t + o(∆t)
si k = 0
1
CHAPITRE 1. PROCESSUS DE POISSON 2
1.2 Propriétés
Théorème 1 Si un processus de comptage {N (t), t ≥ 0} satisfait aux conditions 1), 2) et 3)
alors
(λt)k
P (N (t) = k) = Pk (t) = exp (−λt) t ≥ 0 et k = 1, 2, . . .
k!
par conséquent E(N (t)) = var(N (t)) = λt.
Preuve D’après le théorème des probabilités totales et en tenant compte des conditions 2) et
3) on a pour n = 1, 2, . . .
n
X
Pn (t + ∆t) = Pn (t)P0 (∆t) + Pn−1 (t)P1 (∆t) + Pn−i (t)Pi (∆t)
i=2
= Pn (t)[1 − λ∆t] + Pn−1 (t).λ∆t + o(∆t).
d’où
Pn (t + ∆t) − Pn (t) o(∆t)
= λ[−Pn (t) + Pn−1 (t)] +
∆t ∆t
quand ∆t −→ 0 on a
Pn0 (t) = λ[−Pn (t) + Pn−1 (t)] (1.2)
De plus
P00 (t) = −λP0 (t) (1.3)
Ce système d’équations différentielles est connu sous le nom d’équation de Kolmogorov
L’équation (1.3) =⇒ P0 (t) = exp (−λt) .
pour la résolution de l’équation ( 1.2) on introduit les fonctions
Qm (t) = Pm (t).eλt .
En substituant dans ( 1.2) on a
Q0m (t) = λQm−1 (t) (1.4)
les conditions initiales étant P (N (0) = 0) = P0 (0) = 1 donc Q0 (t) = 1 et Qm (0) = 0
on résout ( 1.4) par récurrence
Q01 (t) = λQ0 (t) = λ =⇒ Q1 (t) = λt.
0 2 λ2 t2
Q2 (t) = λ t =⇒ Q2 (t) =
2
(λt)m (λt)m −λt
De proche en proche on arrive à Qm (t) = i.e. Pm (t) = e .
m! m!
Proposition Le processus de Poisson (N (t))t≥0 est un processus de Markov.
Preuve il s’agit de montrer que quelque soit t1 < t2 < · · · < tn+1 nous avons :
P (N (tn+1 ) = j/N (t1 ) = i1 , N (t2 ) = i2 , . . . , N (tn ) = in ) = P (N (tn+1 ) = j/N (tn ) = in )
En effet
P (N (tn+1 ) = j/N (t1 ) = i1 , . . . , N (tn ) = in )
P (N (t1 ) = i1 , N (t2 ) = i2 , . . . , N (tn ) = in , N (tn+1 ) = j)
=
P (N (t1 ) = i1 , N (t2 ) = i1 , . . . , N (tn ) = in )
P (N (t1 ) = i1 , N (t2 ) − N (t1 ) = i2 − i1 , . . . , N (tn+1 ) − N (tn ) = j − in )
=
P (N (t1 ) = i1 , N (t2 ) − N (t1 ) = i2 − i1 , . . . , N (tn ) − N (tn−1 ) = in − in−1 )
CHAPITRE 1. PROCESSUS DE POISSON 3
les intervalles sont deux à deux disjoints donc les événements sont indépendants car (N (t))t≥0
est un processus de Poisson, cette probabilité est donc égale à
P (N (tn+1 ) − N (tn ) = j − in ) i.e que le processus est de Markov.
1.3 Processus de Poisson et loi exponentielle
1.3.1 Propriétés de la loi exponentielle
Considérons la v.a. T de loi exponentielle de paramètre λ
1. la loi exponentielle est sans mémoire i.e.
P [T > t + u, T > u]
P [T > t + u/T > u] =
P [T > u]
P [T > t + u]
=
P [T > u]
= P [T > t]
Si, par exemple, T représente la durée de bon fonctionnement d’un appareil, alors cette
durée sur [u, t + u] dépend de la longueur t de cet intervalle et non de sa position.
2. P [T < t + ∆t/T > t] est la probabilité de panne entre [t, t + ∆t]
P [T < t + ∆t, T > t]
P [T < t + ∆t/T > t] =
P [T > t]
P [T < t + ∆t] − P [T < t]
=
P [T > t]
1 − exp (λ(t + ∆t)) + exp (λt) − 1
=
exp (−λt)
= 1 − exp (−λ∆t) = λ∆t + o(∆t)
Exercice Soient X et Y deux variables aléatoires indépendantes de loi exponentielle de
paramètres respectifs λ et µ. Alors T = min(X, Y ) est une variable aléatoire de loi exponentielle
de paramètre λ + µ.
λ
et P (T = X) = .
λ+µ
1.3.2 Intervalle séparant deux événements consécutifs
Soit {N (t), t ≥ 0} un processus de Poisson de paramètre λ et Tn la durée séparant le (n−1)ème
et le n-ème événement.
Théorème 1 Les temps d’attente Tn d’un processus de Poisson de paramètre λ sont des
[Link] loi E(λ).
Preuve
P (T1 > t) = P (N (t) = 0)
= e−λt
Z
P (T2 > t) = P (T2 > t/T1 = s)λe−λs ds
CHAPITRE 1. PROCESSUS DE POISSON 4
or
P (T2 > t/T1 = s) = P (N (t + s) − N (s) = 0)
= P (N (t) = 0) = e−λt
d’où
Z
P (T2 > t) = e−λt λe−λs ds
par récurrence sur n on obtient le résultat.
Généralisation du théorème 1 Le temps V qui sépare un instant quelconque du prochain
événement est une variable aléatoire exponentielle de paramètre λ.
Théorème 2 La durée séparant (n + 1) événements consécutifs, obéit à la loi Gamma de
paramètres λ et n.
Théorème 3 Un processus de comptage {N (t), t ≥ 0} est un processus de Poisson de paramètre
λ si les intervalles entre deux événements consécutifs sont des v.a.i. obéissant à la même loi
exponentielle de paramètre λ.
1.3.3 Somme de deux processus de Poisson
Soient (N1 (t))t≥0 et (N2 (t))t≥0 deux processus de Poisson indépendants de paramètres
respectifs λ1 et λ2 . Le processus somme (N (t))t≥0 tel que (N (t) = N1 (t) + N2 (t) pour tout t > 0)
est un processus de Poisson de paramètre λ = λ1 + λ2 .
1.3.4 Suppression d’événements
(ou décomposition d’un processus de Poisson). Si chaque événement a une probabilité p
d’être supprimé, les suppressions d’événements distincts étant mutuellement indépendantes, les
événements non supprimés forment un processus de Poisson de paramètre λ(1 − p).
Preuve soit (N (t))t≥0 le processus de Poisson de paramètre λ (NR (t))t≥0 le processus des
événements restants et p la probabilité de supprimer un événement on a
∞
X
P (NR (t) = k) = P (N (t) = j, NR (t) = k)
j=k
X∞
= P (NR (t) = k/N (t) = j)P (N (t) = j)
j=k
Or
NR (t)/N (t) = j) ∼ B(j, p)
CHAPITRE 1. PROCESSUS DE POISSON 5
on a donc
∞
(λt)j
Cjk (1 − p)k pj−k
X
P (NR (t) = k) = exp (−λt)
j=k j!
∞
(1 − p)k pj−k
(λt)j
X
= exp (−λt)
k! j=k (j − k)!
∞
(λt(1 − p))k X (pλt)m
= exp (−λt)
k! m=0 m!
(λt(1 − p))k
= exp (−λt) exp (λpt)
k!
(λt(1 − p))k
= exp (λ(1 − p)t) .
k!
Bibliographie
[1] A.H.S. Ang and W.H. Tang. Probability Concepts in Engineering Planning and Design :
Decision, risk and reliability. Probability Concepts in Engineering Planning and Design.
Wiley, 1975.
[2] T Bodineau. Modélisation de phénomènes aléatoires : introduction aux chaînes de markov
et aux martingales. Ecole Polytechnique, 2015.
[3] Pierre Brémaud. Initiation aux Probabilités : et aux chaînes de Markov. Springer Science
& Business Media, 2009.
[4] JT Byron. Morgan, elements of simulation, 1984.
[5] J S Dagpunar. Simulation and Monte Carlo With applications in finance and MCMC. 2007.
[6] Arthur P Dempster, Nan M Laird, and Donald B Rubin. Maximum likelihood from
incomplete data via the em algorithm. Journal of the Royal Statistical Society : Series B
(Methodological), 39(1) :1–22, 1977.
[7] Luc Devroye. Non-uniform random variate generation (1986), 2008.
[8] Yadolah Dodge and Giuseppe Melfi. Premiers pas en simulation. Springer edition, 2008.
[9] [Link]. simulation. 1999.
[10] James E Gentle. Random number generation and Monte Carlo methods. Springer Science
& Business Media, 2006.
[11] WR Gilks, S Richardson, and DJ Spiegelhalter. Markov chain monte carlo in practice
chapman & hall : London. Markov Chain Monte Carlo in practice. Chapman and Hall,
London., 1996.
[12] Lena Gorelick, Meirav Galun, Eitan Sharon, Ronen Basri, and Achi Brandt. Shape
representation and classification using the poisson equation. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 28(12) :1991–2005, 2006.
[13] Marco Gori and Augusto Pucci. Research paper recommender systems : A random-walk
based approach. In 2006 IEEE/WIC/ACM International Conference on Web Intelligence
(WI 2006 Main Conference Proceedings)(WI’06), pages 778–781. IEEE, 2006.
[14] Geoffrey Grimmett, David Stirzaker, et al. Probability and random processes. Oxford
university press, 2001.
[15] Jean-François Hêche, Thomas M Liebling, and Dominique De Werra. Recherche opération-
nelle pour ingénieurs, volume 2. PPUR presses polytechniques, 2003.
[16] Dirk P Kroese, Thomas Taimre, and Zdravko I Botev. Handbook of monte carlo methods,
volume 706. John Wiley & Sons, 2013.
[17] Linyuan Lü and Tao Zhou. Link prediction in complex networks : A survey. Physica A :
statistical mechanics and its applications, 390(6) :1150–1170, 2011.
[18] Marina Meilă and Jianbo Shi. A random walks view of spectral segmentation. In Interna-
tional Workshop on Artificial Intelligence and Statistics, pages 203–208. PMLR, 2001.
6
BIBLIOGRAPHIE 7
[19] Lawrence Page, Sergey Brin, Rajeev Motwani, and Terry Winograd. The pagerank citation
ranking : Bringing order to the web. Technical report, Stanford InfoLab, 1999.
[20] Adam Prügel-Bennett. The Probability Companion for Engineering and Computer Science.
Cambridge University Press, 2020.
[21] Lawrence R Rabiner. A tutorial on hidden markov models and selected applications in
speech recognition. Proceedings of the IEEE, 77(2) :257–286, 1989.
[22] Christian Robert and George Casella. Monte Carlo statistical methods. Springer Science &
Business Media, 2013.
[23] Sheldon M. Ross. Simulation. USA, fourth edition, 2006.
[24] Reuven Y Rubinstein and Dirk P Kroese. Simulation and the Monte Carlo method,
volume 10. John Wiley & Sons, 2016.
[25] Alan Ruegg. Processus stochastiques : avec applications aux phénomènes d’attente et de
fiabilité, volume 6. PPUR presses polytechniques, 1989.
[26] Purnamrita Sarkar and Andrew W Moore. Random walks in social networks and their
applications : a survey. In Social Network Data Analytics, pages 43–77. Springer, 2011.
[27] Feng Xia, Jiaying Liu, Hansong Nie, Yonghao Fu, Liangtian Wan, and Xiangjie Kong.
Random walks : A review of algorithms and applications. IEEE Transactions on Emerging
Topics in Computational Intelligence, 4(2) :95–107, 2019.