Programmation Dynamique (Bellman, 1954)
La programmation dynamique est une méthode
d’optimisation parmi les plus utilisées en recherche
opérationnelle.
Cependant modéliser un problème pour le faire
entrer dans le cadre de la programmation
S
dynamique n’est pas toujours facile et il n’y a
TE
malheureusement aucune recette particulière pour
trouver la bonne modélisation. Done chaque cas
O
étudié nécessitera une approche bien spécifique.
N
Formulation Générale
E
i. Le problème peut être partagé en un nombre
R
d’étapes (ça peut être fini ou infini) où une
décision doit être prise pendant chaque étape.
TU
ii. A chaque étape (stage) le système prend un
nombre d’états (state).
C
iii. L’effet d’une décision (policy decision) en
LE
chaque étape est faire la transition de l’état
actuel à un état d’une étape suivante.
iv. Le coût ressenti à l’étape n est fonction de l’état
s et de la décision xn : fn(s, xn)
PROF. DR. E. E. KARSAK 1
La programmation dynamique est fondée sur le
principe d’optimalité de Bellman.
Le Principe d’Optimalité de Bellman
[Principle of Optimality]
Quels que soient l’état initial et la décision initiale,
les décisions restantes doivent constituer une
S
politique optimale vis-à-vis de l’état résultant de la
TE
première décision.
O
N
E
R
TU
C
LE
PROF. DR. E. E. KARSAK 2