0% ont trouvé ce document utile (0 vote)
92 vues9 pages

Processus de Poisson et Propriétés

Transféré par

LI NA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
92 vues9 pages

Processus de Poisson et Propriétés

Transféré par

LI NA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Processus, Modèles et Simulation stochastiques

N . Bessah

12 avril 2022
Table des matières

1 Processus de Poisson 1
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Processus de comptage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Processus de Poisson et loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Propriétés de la loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2 Intervalle séparant deux événements consécutifs . . . . . . . . . . . . . . 3
1.3.3 Somme de deux processus de Poisson . . . . . . . . . . . . . . . . . . . . 4
1.3.4 Suppression d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . 4

i
Chapitre 1

Processus de Poisson

1.1 Définitions
1.1.1 Processus de comptage
Soit N (t) la variable aléatoire discrète définie par
N (t) : " nombre d’événements se produisant dans l’intervalle [0, t]". Le processus (N (t))t≥0
est appelé processus de comptage.

Remarque l’accroissement N (t + u) − N (t) indique le nombre aléatoire d’événements se


produisant dans l’intervalle ]t, t + u]

1.1.2 Processus de Poisson


On dit qu’un processus de comptage est un processus de Poisson homogène s’il satisfait les 3
conditions suivantes :
1. Le processus N (t) est homogène dans le temps i.e.

P (N (t + s) − N (s) = k) = P (N (t) = k) = Pk (t)

• La probabilité est indépendante de la position de l’intervalle par rapport à l’axe


temporel.
2. Le processus (N (t))t est à accroissement indépendant, ce qui signifie que pour tout
système d’intervalles disjoints, les nombres d’événements s’y produisant sont des variables
aléatoires indépendantes en particulier,

P (N (t + s) − N (s) = j, N (s) = k) = P (N (t + s) − N (s) = j).P (N (s) = k) = Pj (t).Pk (s)


(1.1)
pour tous s et t positifs.
3. La probabilité que deux événements ou plus se produisent dans un petit intervalle ∆t est
négligeable par rapport à la probabilité qu’il n’ y ait qu’un seul événement ; i.e.


 o(∆t) si k ≥ 2
Pk (∆t) = λ∆t + o(∆t) si k = 1
1 − λ∆t + o(∆t)


si k = 0

1
CHAPITRE 1. PROCESSUS DE POISSON 2

1.2 Propriétés
Théorème 1 Si un processus de comptage {N (t), t ≥ 0} satisfait aux conditions 1), 2) et 3)
alors
(λt)k
P (N (t) = k) = Pk (t) = exp (−λt) t ≥ 0 et k = 1, 2, . . .
k!
par conséquent E(N (t)) = var(N (t)) = λt.

Preuve D’après le théorème des probabilités totales et en tenant compte des conditions 2) et
3) on a pour n = 1, 2, . . .
n
X
Pn (t + ∆t) = Pn (t)P0 (∆t) + Pn−1 (t)P1 (∆t) + Pn−i (t)Pi (∆t)
i=2
= Pn (t)[1 − λ∆t] + Pn−1 (t).λ∆t + o(∆t).

d’où
Pn (t + ∆t) − Pn (t) o(∆t)
= λ[−Pn (t) + Pn−1 (t)] +
∆t ∆t
quand ∆t −→ 0 on a
Pn0 (t) = λ[−Pn (t) + Pn−1 (t)] (1.2)
De plus
P00 (t) = −λP0 (t) (1.3)
Ce système d’équations différentielles est connu sous le nom d’équation de Kolmogorov
L’équation (1.3) =⇒ P0 (t) = exp (−λt) .
pour la résolution de l’équation ( 1.2) on introduit les fonctions
Qm (t) = Pm (t).eλt .
En substituant dans ( 1.2) on a
Q0m (t) = λQm−1 (t) (1.4)
les conditions initiales étant P (N (0) = 0) = P0 (0) = 1 donc Q0 (t) = 1 et Qm (0) = 0
on résout ( 1.4) par récurrence
Q01 (t) = λQ0 (t) = λ =⇒ Q1 (t) = λt.
0 2 λ2 t2
Q2 (t) = λ t =⇒ Q2 (t) =
2
(λt)m (λt)m −λt
De proche en proche on arrive à Qm (t) = i.e. Pm (t) = e .
m! m!

Proposition Le processus de Poisson (N (t))t≥0 est un processus de Markov.

Preuve il s’agit de montrer que quelque soit t1 < t2 < · · · < tn+1 nous avons :
P (N (tn+1 ) = j/N (t1 ) = i1 , N (t2 ) = i2 , . . . , N (tn ) = in ) = P (N (tn+1 ) = j/N (tn ) = in )
En effet
P (N (tn+1 ) = j/N (t1 ) = i1 , . . . , N (tn ) = in )
P (N (t1 ) = i1 , N (t2 ) = i2 , . . . , N (tn ) = in , N (tn+1 ) = j)
=
P (N (t1 ) = i1 , N (t2 ) = i1 , . . . , N (tn ) = in )
P (N (t1 ) = i1 , N (t2 ) − N (t1 ) = i2 − i1 , . . . , N (tn+1 ) − N (tn ) = j − in )
=
P (N (t1 ) = i1 , N (t2 ) − N (t1 ) = i2 − i1 , . . . , N (tn ) − N (tn−1 ) = in − in−1 )
CHAPITRE 1. PROCESSUS DE POISSON 3

les intervalles sont deux à deux disjoints donc les événements sont indépendants car (N (t))t≥0
est un processus de Poisson, cette probabilité est donc égale à
P (N (tn+1 ) − N (tn ) = j − in ) i.e que le processus est de Markov.

1.3 Processus de Poisson et loi exponentielle


1.3.1 Propriétés de la loi exponentielle
Considérons la v.a. T de loi exponentielle de paramètre λ
1. la loi exponentielle est sans mémoire i.e.
P [T > t + u, T > u]
P [T > t + u/T > u] =
P [T > u]
P [T > t + u]
=
P [T > u]
= P [T > t]

Si, par exemple, T représente la durée de bon fonctionnement d’un appareil, alors cette
durée sur [u, t + u] dépend de la longueur t de cet intervalle et non de sa position.
2. P [T < t + ∆t/T > t] est la probabilité de panne entre [t, t + ∆t]

P [T < t + ∆t, T > t]


P [T < t + ∆t/T > t] =
P [T > t]
P [T < t + ∆t] − P [T < t]
=
P [T > t]
1 − exp (λ(t + ∆t)) + exp (λt) − 1
=
exp (−λt)
= 1 − exp (−λ∆t) = λ∆t + o(∆t)

Exercice Soient X et Y deux variables aléatoires indépendantes de loi exponentielle de


paramètres respectifs λ et µ. Alors T = min(X, Y ) est une variable aléatoire de loi exponentielle
de paramètre λ + µ.
λ
et P (T = X) = .
λ+µ

1.3.2 Intervalle séparant deux événements consécutifs


Soit {N (t), t ≥ 0} un processus de Poisson de paramètre λ et Tn la durée séparant le (n−1)ème
et le n-ème événement.

Théorème 1 Les temps d’attente Tn d’un processus de Poisson de paramètre λ sont des
[Link] loi E(λ).

Preuve

P (T1 > t) = P (N (t) = 0)


= e−λt
Z
P (T2 > t) = P (T2 > t/T1 = s)λe−λs ds
CHAPITRE 1. PROCESSUS DE POISSON 4

or

P (T2 > t/T1 = s) = P (N (t + s) − N (s) = 0)


= P (N (t) = 0) = e−λt

d’où
Z
P (T2 > t) = e−λt λe−λs ds

par récurrence sur n on obtient le résultat.

Généralisation du théorème 1 Le temps V qui sépare un instant quelconque du prochain


événement est une variable aléatoire exponentielle de paramètre λ.

Théorème 2 La durée séparant (n + 1) événements consécutifs, obéit à la loi Gamma de


paramètres λ et n.

Théorème 3 Un processus de comptage {N (t), t ≥ 0} est un processus de Poisson de paramètre


λ si les intervalles entre deux événements consécutifs sont des v.a.i. obéissant à la même loi
exponentielle de paramètre λ.

1.3.3 Somme de deux processus de Poisson


Soient (N1 (t))t≥0 et (N2 (t))t≥0 deux processus de Poisson indépendants de paramètres
respectifs λ1 et λ2 . Le processus somme (N (t))t≥0 tel que (N (t) = N1 (t) + N2 (t) pour tout t > 0)
est un processus de Poisson de paramètre λ = λ1 + λ2 .

1.3.4 Suppression d’événements


(ou décomposition d’un processus de Poisson). Si chaque événement a une probabilité p
d’être supprimé, les suppressions d’événements distincts étant mutuellement indépendantes, les
événements non supprimés forment un processus de Poisson de paramètre λ(1 − p).

Preuve soit (N (t))t≥0 le processus de Poisson de paramètre λ (NR (t))t≥0 le processus des
événements restants et p la probabilité de supprimer un événement on a

X
P (NR (t) = k) = P (N (t) = j, NR (t) = k)
j=k
X∞
= P (NR (t) = k/N (t) = j)P (N (t) = j)
j=k

Or

NR (t)/N (t) = j) ∼ B(j, p)


CHAPITRE 1. PROCESSUS DE POISSON 5

on a donc

(λt)j
Cjk (1 − p)k pj−k
X
P (NR (t) = k) = exp (−λt)
j=k j!

(1 − p)k pj−k
(λt)j
X
= exp (−λt)
k! j=k (j − k)!

(λt(1 − p))k X (pλt)m
= exp (−λt)
k! m=0 m!
(λt(1 − p))k
= exp (−λt) exp (λpt)
k!
(λt(1 − p))k
= exp (λ(1 − p)t) .
k!
Bibliographie

[1] A.H.S. Ang and W.H. Tang. Probability Concepts in Engineering Planning and Design :
Decision, risk and reliability. Probability Concepts in Engineering Planning and Design.
Wiley, 1975.
[2] T Bodineau. Modélisation de phénomènes aléatoires : introduction aux chaînes de markov
et aux martingales. Ecole Polytechnique, 2015.
[3] Pierre Brémaud. Initiation aux Probabilités : et aux chaînes de Markov. Springer Science
& Business Media, 2009.
[4] JT Byron. Morgan, elements of simulation, 1984.
[5] J S Dagpunar. Simulation and Monte Carlo With applications in finance and MCMC. 2007.
[6] Arthur P Dempster, Nan M Laird, and Donald B Rubin. Maximum likelihood from
incomplete data via the em algorithm. Journal of the Royal Statistical Society : Series B
(Methodological), 39(1) :1–22, 1977.
[7] Luc Devroye. Non-uniform random variate generation (1986), 2008.
[8] Yadolah Dodge and Giuseppe Melfi. Premiers pas en simulation. Springer edition, 2008.
[9] [Link]. simulation. 1999.
[10] James E Gentle. Random number generation and Monte Carlo methods. Springer Science
& Business Media, 2006.
[11] WR Gilks, S Richardson, and DJ Spiegelhalter. Markov chain monte carlo in practice
chapman & hall : London. Markov Chain Monte Carlo in practice. Chapman and Hall,
London., 1996.
[12] Lena Gorelick, Meirav Galun, Eitan Sharon, Ronen Basri, and Achi Brandt. Shape
representation and classification using the poisson equation. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 28(12) :1991–2005, 2006.
[13] Marco Gori and Augusto Pucci. Research paper recommender systems : A random-walk
based approach. In 2006 IEEE/WIC/ACM International Conference on Web Intelligence
(WI 2006 Main Conference Proceedings)(WI’06), pages 778–781. IEEE, 2006.
[14] Geoffrey Grimmett, David Stirzaker, et al. Probability and random processes. Oxford
university press, 2001.
[15] Jean-François Hêche, Thomas M Liebling, and Dominique De Werra. Recherche opération-
nelle pour ingénieurs, volume 2. PPUR presses polytechniques, 2003.
[16] Dirk P Kroese, Thomas Taimre, and Zdravko I Botev. Handbook of monte carlo methods,
volume 706. John Wiley & Sons, 2013.
[17] Linyuan Lü and Tao Zhou. Link prediction in complex networks : A survey. Physica A :
statistical mechanics and its applications, 390(6) :1150–1170, 2011.
[18] Marina Meilă and Jianbo Shi. A random walks view of spectral segmentation. In Interna-
tional Workshop on Artificial Intelligence and Statistics, pages 203–208. PMLR, 2001.

6
BIBLIOGRAPHIE 7

[19] Lawrence Page, Sergey Brin, Rajeev Motwani, and Terry Winograd. The pagerank citation
ranking : Bringing order to the web. Technical report, Stanford InfoLab, 1999.
[20] Adam Prügel-Bennett. The Probability Companion for Engineering and Computer Science.
Cambridge University Press, 2020.
[21] Lawrence R Rabiner. A tutorial on hidden markov models and selected applications in
speech recognition. Proceedings of the IEEE, 77(2) :257–286, 1989.
[22] Christian Robert and George Casella. Monte Carlo statistical methods. Springer Science &
Business Media, 2013.
[23] Sheldon M. Ross. Simulation. USA, fourth edition, 2006.
[24] Reuven Y Rubinstein and Dirk P Kroese. Simulation and the Monte Carlo method,
volume 10. John Wiley & Sons, 2016.
[25] Alan Ruegg. Processus stochastiques : avec applications aux phénomènes d’attente et de
fiabilité, volume 6. PPUR presses polytechniques, 1989.
[26] Purnamrita Sarkar and Andrew W Moore. Random walks in social networks and their
applications : a survey. In Social Network Data Analytics, pages 43–77. Springer, 2011.
[27] Feng Xia, Jiaying Liu, Hansong Nie, Yonghao Fu, Liangtian Wan, and Xiangjie Kong.
Random walks : A review of algorithms and applications. IEEE Transactions on Emerging
Topics in Computational Intelligence, 4(2) :95–107, 2019.

Vous aimerez peut-être aussi