Travaux Dirigés d’Optimisation Dynamique :
Contrôle optimal
Cyrille Combété
[Link]@[Link]
Exercice 1. Soit T > 0. On considère le problème d’optimisation suivant
Z T 3 1 1
inf J(u), avec J(u) = x2 (t) + u2 (t) dt − x2 (T )
u∈U 0 2 2 2
où U est l’ensemble des processus de contrôle (u(t))t∈[0,1] à valeurs dans U = R, et x(t) la solution
de (
ẋ(t) = x(t) + u(t)
x(0) = x0
1. Calculer le Hamiltonien H = H(t, x, p) du système.
2. Soit u∗ (t) un contrôle optimal et x∗ (t) une solution optimale. Donner les conditions néces-
saires d’optimalité par le principe de Pontryagin. On rappelle que ces conditions portent sur
le couple (x∗ , p∗ ) où p∗ peut être vu comme un état adjoint à x∗ 0.
3. Résoudre ce système
4. En déduire le contrôle optimal u∗ ainsi que la valeur J(u∗ ).
Exercice 2. Pour x ∈ R, on considère le problème de contrôle optimal
nZ T
1 2 o
inf u (s) ds + x(T ) : x(0) = x, ẋ(t) = x(t) + u(t), u(t) ∈ R
0 2
1. Former le préhamiltonien h(t, x, u, p) du problème et calculer le Hamiltonien H(t, x, p) =
inf h(t, x, u, p).
u
2. Ecrire le système d’équations différentielles et les conditions aux limites satisfaites par une
trajectoire optimale et la variable ajointe associée.
3. Résoudre le système précédent ; on notera (x∗ , p∗ ) sa solution.
4. Donner une équations aux dérivées partielles et une condition aux limites vérifiées par la
fonction valeur du problème.
5. Trouver une solution de l’équation d’Hamilton-Jacobi-Bellman précédentes (avec la même
condition aux limites).
6. Montrer que x∗ est une trajectoire optimale, donner un contrôle optimal u∗ , donner également
un contrôle optimale en feedback (i.e. sous la forme de V (t, x)).
7. Résoudre le problème initial en utilisant le formalisme du calcul des variations.