0% ont trouvé ce document utile (0 vote)
248 vues5 pages

Introduction aux RdP Stochastiques

Transféré par

Youssef El Ajraoui
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
248 vues5 pages

Introduction aux RdP Stochastiques

Transféré par

Youssef El Ajraoui
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Partie B : Réseaux de Petri

RdP Stochastiques
• RdP stochastiques de base
• RdP stochastiques généralisés

 Modèle de base:
Un RdP stochastique est un RdP temporisé dans lequel
les durées associées aux transitions ont des valeurs
stochastiques.

P1  P1 
T1 d1 t.q. Pr[d1t] = 1 – e-mt T1 m
P2 P2

La Variable Aléatoire d1 suit une loi exponentielle de taux m :

Pr[d1  t+dt / d1 > t] = m dt

Densité de probabilité : h(t) = m e-mt

Fonction de répartition : H(t) = Pr[d1t] = 1 – e-mt

Valeur moyenne (durée moyenne): 1/m


Variance : 1/m2
1
Partie B : Réseaux de Petri

 Définition :

Un RdP stochastique est une paire (R, Rate) t.q. :


- R est un RdP marqué.
- Rate est une fonction de T vers l’ensemble des
réels positifs. Rate(Tj) = mj = taux de
franchissement associé à Tj.

Une caractéristique fondamentale de la loi exponentielle


est sa propriété sans mémoire :

Pr[d1  t0+t / d1 > t0] = Pr[d1  t ]

Interprétation : Savoir qu’une activité distribuée


exponentiellement a déjà eu lieu pendant un temps t0 ne va
pas affecter la distribution de la durée résiduelle.

Exemple : Si la durée de vie d’une machine est distribuée


exponentiellement, le temps qui reste avant la panne ne
dépend pas de la durée pendant laquelle la machine a
fonctionné.

2
Partie B : Réseaux de Petri

 Propriété :

Si une transition Tj de taux de franchissement mj est q-


validée à l’instant t, alors :

Pr[Tj sera franchie entre t et t+dt] = q. mj . dt


indépendamment des instants auxquels les validations ont
eu lieu (simultanément ou pas)

q . mj = mj (m) est le taux de franchissement


associé à Tj pour le marquage m.

Le marquage m(t) d’un RdP stochastique est donc un


processus Markovien homogène, et par conséquent, une
chaîne de Markov homogène peut être associée à
chaque RdP stochastique.

3
Partie B : Réseaux de Petri

 Exemple:

Système de production à 2 machines :


 traitement par M1 (T1, m1 pour chaque serveur),
traitement par M2 (T2).
 M1 : 2 serveurs (P3), pouvant tomber en panne (T3,
m3 ) et être réparés (T4, m4).
 M2 : infinité de serveurs (en fait au moins 3) ne
tombant jamais en panne (m2 pour chacun)
 pièces en attente ou en cours de service par M1 (P1)

P1

 T3 m3

P3 P4
m1
T1 

P2
T4 m4

T2 m0
m2

Graphe des marquages


Chaîne de Markov
4
Partie B : Réseaux de Petri

 RdP stochastiques généralisés :

Transitions exponentiellement temporisées


+ transitions immédiates (taux de franchissement )

Voir exemple

Vous aimerez peut-être aussi