Calcul Variation
Calcul Variation
Adama COULIBALY
UFR de Mathématiques et Informatique,
Université Félix Houphouët-Boigny
27 novembre 2017
2
Table des matières
1 Optimisation statique 5
1.1 Ensembles convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Sous espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Premières définitions sur les ensembles convexes . . . . . . . . . . . . . . . 6
1.1.3 Opérations préservant la convexité . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Propriétés topologiques des convexes . . . . . . . . . . . . . . . . . . . . . 7
1.1.5 Enveloppes convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Cônes convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Généralités sur les cônes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Cônes tangents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Notion de semi continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.1 Quelques fonctions convexes particulières . . . . . . . . . . . . . . . . . . . 19
1.4.2 Caractérisation des fonctions convexes différentiables . . . . . . . . . . . . 20
1.4.3 Notions sur les fonctions quasi convexes . . . . . . . . . . . . . . . . . . . 21
1.5 Optimisation statique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5.1 Notion d’infimum, supremum, minimum, maximum . . . . . . . . . . . . . 23
1.5.2 Notion de programme mathématique . . . . . . . . . . . . . . . . . . . . . 24
1.5.3 Optimisation sans contraintes . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5.4 Optimisation avec contraintes . . . . . . . . . . . . . . . . . . . . . . . . . 28
3
4 TABLE DES MATIÈRES
4 Programmation dynamique 67
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2 Programmation dynamique en temps discret : optimisation combinatoire . . . . . 67
4.2.1 Horizon fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.3 Programmation dynmique en temps discret : Problèmes de commande . . . . . . . 71
4.3.1 Problème en horizon fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3.2 Problème en horizon infini . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.4 Programmation dynamique en temps continu : calcul des variations . . . . . . . . 77
4.4.1 Principe de la programmation dynamique . . . . . . . . . . . . . . . . . . 77
4.5 Programmation dynamique en temps continu : problème de commande . . . . . . 77
4.5.1 Formulation dynamique du problème . . . . . . . . . . . . . . . . . . . . . 78
4.5.2 Principe de la programmation dynamique . . . . . . . . . . . . . . . . . . 78
4.5.3 Equation de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.5.4 Théorème de vérification . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Chapitre 1
Optimisation statique
∀ x y ∈ M, ∀α ∈ R, (1 − α)x + αy ∈ M.
Autrment dit, un sous espace affine contient toujours la ”droite” passant par deux de ses points.
On montre que si A est un sous-espace affine contenant 0, alors c’est un sous-espace vectoriel.
Aussi, pour tout a ∈ A, le translaté A − a est un sous-espace vectoriel.
Parce que l’intersection de sous-espaces affines est un sous-espace affine, et que l’ensemble des
sous-espaces affines contenant A n’est pas vide (puisque E en est un), la définition suivante a du
sens.
Définition 1.1.2 L’enveloppe affine d’un sous-ensemble A de E, noté aff(S) est l’intersection de
tous les sous espaces affines contenant A. C’est le plus petit sous espace affine contenant A.
On montre que
Proposition 1.1.1
( Pp )
α i = 1,
aff(S) = x ∈ Rn : ∃p ∈ N∗ , ∃(αi , xi ) ∈ (R × S)p : Pi=1
p i
i=1 αi x = x
ou encore
( p
)
X p ∈ N, xi ∈ S, λi ∈ R, ∀i = 1, · · · , p,
aff(S) = x=a+ λi (xi − a) : Pp .
i=1 i=1 λi = 1
5
6 CHAPITRE 1. OPTIMISATION STATIQUE
En particulier, une combinaison linéaire convexe de deux points x et y, est tout point z =
(1 − λ)x + λy avec λ ∈ [0, 1]
On a les définitions suivantes
Définition 1.1.5 On appelle segment ”ouvert” d’extrémités x et y, et on le note ]x, y[, l’ensemble
On définit aussi ]x, y] et [x, y[ qui sont appelés segment semi ouvert en x respectivement en y.
Définition 1.1.6 Soit C une partie de E. C est convexe si seulement si pour tout x, y ∈ C,
(1 − λ) x + λy ∈ C pour tout λ ∈ [0, 1]. Autrement dit, C est convexe si seulement si C contient
tout segment fermé d’extrémités deux quelconques de ses points.
On a la proposition suivante :
Proposition 1.1.2 Une partie C de E est convexe si seulement si elle contient toute combinaison
linéaire convexe de toute famille finie d’éléments qui lui appartiennent.
Proposition 1.1.3 1) Toute combinaison linéaire de convexes dans E est convexe. C’est-à-dire
que si C1 , · · · , Ck sont convexes dans E alors pour tous α1 , · · · , αk dans R, α1 C1 + · · · + αk Ck est
convexe.
En particulier :
pour a ∈ E et tout convexe C de E, le translaté,
a + C = {a + x : x ∈ C}
est convexe.
1.1. ENSEMBLES CONVEXES 7
αC = {αx : x ∈ C}
est convexe.
2) Toute intersection de parties convexes est convexe.
3) L’union de sous ensembles convexes n’est pas convexe en général, mais l’union croissante
de convexes (famille emboı̂tée) est convexe.
4) Si E et E ′ sont deux espaces vectoriels, le produit cartésien de deux convexes C ⊂ E et
C ′ ⊂ E ′ est convexe dans E × E ′ .
5) Inversement, la projection d’un sous ensemble convexe d’un espace produit sur l’un de ses
sous-espaces composants est convexe.
6) Si f est une application affine de E dans un autre espace vectoriel E ′ , l’image d’un convexe
C de E par f est convexe dans E ′ . En outre l’image réciproque d’un convexe de E ′ par f est un
convexe de E.
Une conséquence de ce qui précède est que les solutions d’un ensemble d’égalités et d’inégalités
affines constitue un sous-ensemble convexe.
On a la proposition suivante
αC + βC = (α + β)C.
Proposition 1.1.5 Si C est un convexe de E, alors son intérieur et son adhérence sont aussi
convexes.
B(x, ε) ⊂ C, B(y, ε) ⊂ C.
Comme
B(z, ε) = z + B(0, ε)
= (1 − λ)x + λy + B(0, ε)
= (1 − λ)x + λy + ((1 − λ) + λ)B(0, ε)
= (1 − λ) [x + B(0, ε)] + λ [y + B(0, ε)]
= (1 − λ)B(x, ε) + λB(y, ε)
8 CHAPITRE 1. OPTIMISATION STATIQUE
et
(1 − λ)B(x, ε) + λB(y, ε) ⊂ (1 − λ)C + λC = C,
car C est convexe, on conclut que B(z, ε) ⊂ C. Par suite z ∈ int(C). Donc int(C) est convexe.
On montre aussi que :
On montre que :
Preuve :
Posons ( )
k
X xi ∈ S, ∀i = 1, · · · , k,
C= x= λi xi : k ∈ N∗ , P
λi ≥ 0, ∀i = 1, · · · , k, ki=1 λi = 1
i=1
Soit C un convexe de E contenant S. Donc C contient toute combinaison linéaire convexe de toute
famille finie d’éléments de C. Comme C contient S alors C contient toute combinaison linéaire
convexe de toute famille finie d’éléments de S et donc C contient C. Par suite C est contenu dans
tous les convexes contenant S. On a alors C ⊂ conv(S).
D’autre part, on vérifie facilement que C est convexe et contient S. Et comme conv(S) est le
plus petit convexe contenant S, on a alors conv(S) ⊂ C. D’où l’égalité conv(S) = C.
Preuve : Si S est convexe alors il est le plus petit convexe contenant S. Donc conv(S) = S.
Réciproquement si on a conv(S) = S alors S est convexe.
Exemple 1.1.1
Soit
S = {(x, y) ∈ R2 : x ≥ 0, xy ≥ 1} ∪ {(0, 0)}
On a :
conv(S) = {(x, y) : x > 0, y > 0} ∪ {(0, 0)}
qui n’est pas un fermé.
Preuve :
On peut supposer que E = Rn .
1) Immédiat
2) On a
n+1
X n+1
X
conv(S) = {x = λi xi : λi ≥ 0, xi ∈ S, ∀i = 1, · · · , n + 1, λi = 1}.
i=1 i=1
Posons
n+1
X
n+1
K = {λ ∈ R : λi ≥ 0, ∀i = 1, · · · , n + 1, λi = 1}.
i=1
K est compact.
Soit
S n+1 × K −→ Rn
f: P
(x1 , · · · xn+1 , λ) 7−→ n+1
i=1 λi xi
f est continue et S n+1 × K est compact ce qui implique que f (S n+1 × K) est compact. Or
f (S n+1 × K) = conv(S). D’où la proposition.
Définition 1.1.8 Etant donné S une partie de E, l’enveloppe convexe fermée de S est l’intersec-
tion de tous les convexes fermés contenant S. C’est le plus petit convexe fermé contenant S. On
le note conv(S).
conv(S) ⊂ conv(S).
D’autre part, on a
conv(S) ⊂ conv(S)
et S ⊂ S : donc
conv(S) ⊂ conv(S) ⊂ conv(S).
On en déduit alors que
conv(S) ⊂ conv(S) = conv(S).
Ce qui donne la deuxième inclusion et donc l’égalité recherchée.
En pratique lorsqu’on parle de cône sans préciser le sommet il s’agit d’un cône de sommet
l’origine de l’espace vectoriel, (a = 0). C’est-à-dire un ensemble A ⊂ E tel que pour tout x ∈ A
et λ > 0, λx ∈ A.
On remarque que :
Définition 1.2.2 On dit qu’un cône K de sommet l’origine est dit saillant si pour tout x ∈ K,
x 6= 0 alors −x ∈
/ K.
Définition 1.2.3 Soit S ⊂ E. On appelle enveloppe conique de S, l’intersection de tous les cônes
contenant S. C’est le plus petit cône qui contient S.
On appelle cône généré ou engendré par S, le cône obtenu en adjoignant l’origine à l’enveloppe
conique de S.
On a les propositions suivantes.
Proposition 1.2.4 Si S est convexe alors l’enveloppe conique de S et le cône généré par S sont
convexes.
ou encore ( )
X k
xi ∈ S, i = 1, · · · , k,
cone(S) = x : ∃k ∈ N∗ , :x= λi xi
λi ≥ 0, i = 1, · · · , k, i=1
Définition 1.2.5 Soit S ⊂ E. On appelle cône convexe fermé généré ou engendré par S, l’inter-
section de tous les cônes convexes fermés contenant S. C’est le plus petit cône convexe fermé qui
contient S. On le note cone(S).
a + λk dk ∈ S ∀ k ∈ N.
et
a + µk δ k = a + λk dk ∈ S ∀k ∈ N.
Par suite λd est un vecteur tangent à S en a.
T (A ∩ V, a) ⊂ T (A, a).
∃ {dk } ⊂ E, dk −→ d,
: a + λk dk ∈ A, ∀ k ∈ N.
∃ {λk } ⊂ R∗+ , λk −→ 0,
On a
lim a + λk dk = a.
k→+∞
∃k0 ∈ N : ∀ k ≥ k0 , a + λk dk ∈ A ∩ V.
Considérons
δ k = dk0 +k , et µk = λk0 +k .
On a
{δ k } ⊂ E, {µk } ⊂ R∗+ , δ k −→ d, µk −→ 0,
et
a + µk δ k ∈ A ∩ V ∀ k ∈ N.
Donc
d ∈ T (A ∩ V, a).
D’où l’égalité
T (A, a) = T (A ∩ V, a).
Dans certains cas le cône tangent est un cône convexe comme le montre la proposition ci-
dessous.
Proposition 1.2.10 Si C est un convexe non vide, de E, et a ∈ C alors T (C, a) est un cône
convexe fermé.
Preuve : On sait que T (C, a) est un cône fermé. Il reste à montrer qu’il est convexe. Pour cela il
suffit de montrer que
T (C, a) + T (C, a) ⊂ T (C, a).
Soient d et δ deux éléments de T (C, a).
Par définition, on sait que :
∃ {dk } ⊂ E, dk −→ d,
: a + αk dk ∈ C ∀ k ∈ N,
∃ {αk } ⊂ R∗+ , αk −→ 0,
et
∃ {δ k } ⊂ E, δ k −→ δ,
: a + βk δ k ∈ C ∀ k ∈ N.
∃ {βk } ⊂ R∗+ , βk −→ 0,
Soit
αk βk
λk = .
αk + βk
14 CHAPITRE 1. OPTIMISATION STATIQUE
On a
λk > 0 ∀k, et λk −→ 0.
En outre on a
αk βk
a + λk (dk + δ k ) = a + (dk + δ k ).
αk + βk
Or
αk βk βk αk
a+ (dk + δ k ) = (a + αk dk ) + (a + βk δ k )
αk + βk αk + βk αk + βk
qui est une combinaison linéaire convexe de deux éléments de C et il appartient donc à C car il
est convexe.
Alors
a + λk (dk + δ k ) ∈ C ∀k ∈ N.
Donc T (C, a) est convexe.
Plus précisément on a
1.3.1 Définitions
Définition 1.3.1 Soit f : E → R̄ = [−∞, +∞].
On appelle domaine effectif de f , l’ensemble :
Sλ (f ) = {x ∈ E : f (x) ≤ λ} .
En partculier si f est à valeurs dans R ∪ +∞, elles dite propre si domf est non vide.
Proposition 1.3.1 Une fonction f est s.c.s. en x0 si et seulement si la fonction −f est s.c.i. en
x0 .
Exemple 1.3.1
est s.c.i. en 0.
Exemple 1.3.2
1.3.2 Propriétés
On a les propriétés suivantes :
Définition 1.3.5 Une fonction f : E → R est s.c.i. sur un sous ensemble C de E si elle est s.c.i.
en tout point de C.
Si C = E, on dit que la fonction est s.c.i. .
Proposition 1.3.3 Une fonction f : E → R est s.c.i. si et seulement si son épigraphe est fermé.
Proposition 1.3.5 - L’enveloppe supérieure d’une famille quelconque de fonctions de s.c.i. , est
s.c.i. .
- L’enveloppe inférieure d’une famille finie de fonctions s.c.i. , est s.c.i. .
On en déduit que
Proposition 1.3.6 1) L’enveloppe supérieure de toute famille de fonctions continues est s.c.i. .
Aussi, si {fk } est une suite croissante de fonctions continues, sa limite f qui est identique à
supk fk est alors s.c.i. .
2) L’enveloppe inférieure de toute famille finie de fonctions continues est s.c.i. .
1.4. FONCTIONS CONVEXES 17
∀ x, y ∈ domf, x 6= y, f ((1 − λ)x + λy) < (1 − λ)f (x) + λf (y) ∀ λ ∈]0, 1[.
Définition 1.4.3 Une fonction f : Rn → R ∪ {+∞} est fortement convexe de module r > 0, si
∀ x, y ∈ domf, f ((1 − λ)x + λy) ≤ (1 − λ)f (x) + λf (y) − 2r λ(1 − λ)ky − xk2 ∀ λ ∈ [0, 1].
∀ x, y ∈ dom(−f ), x 6= y, f ((1 − λ)x + λy) > (1 − λ)f (x) + λf (y) ∀ λ ∈]0, 1[.
Définition 1.4.6 Une fonction f : Rn → R ∪ {−∞} est fortement concave de module r > 0, si
∀ x, y ∈ dom(−f ), f ((1 − λ)x + λy) ≥ (1 − λ)f (x) + λf (y) − 2r λ(1 − λ)ky − xk2 .∀ λ ∈ [0, 1].
Proposition 1.4.1 Si C est un convexe non vide de E et f : C → R, alors : f est convexe sur
C si et seulement si, la fonction étendue (on dit aussi prolongement canonique) de f , définie sur
E par : (
f (x) si x ∈ C
f˜(x) =
+∞ sinon
est convexe sur E.
Ainsi, pour étudier la convexité des fonctions on peut supposer sans perte de généralités, que
les fonctions sont définies sur E tout entier.
On a le lemme suivant :
f ) est convexe.
Lemme 1.4.1 Soit f : E → R ∪ {+∞}, epi(f ) est convexe si et seulement si epi(f
On montre que :
Proposition 1.4.5 Si f : E → R ∪ {+∞} est convexe, alors les sections de niveau λ, Sλ (f ), pour
λ ∈ R sont convexes.
Remarque 1.4.1 Comme on peut le prouver facilement, la réciproque de cette proposition n’est
pas vraie.
Donc
sup fi ((1 − λ)x + λy) ≤ (1 − λ) sup fk (x) + λ sup fk (y).
i∈I k∈I k∈I
Ce qui signifie que f est convexe.
Dans le cas où la fonction est deux fois différentiable, on a aussi les caractérisations suivantes.
∀ x ∈ E, hf ′′ (x)(h, h) > 0, ∀ h ∈ E, h 6= 0,
∀ x, y ∈ domf, f (x) 6= f (y), ∀λ ∈]0, 1[, f ((1 − λ)x + λy) < max{f (x), f (y)}.
∀ x, y ∈ domf, x 6= y, ∀λ ∈]0, 1[, f ((1 − λ)x + λy) < max{f (x), f (y)}.
∀ x, y ∈ dom(−f ), f (x) 6= f (y), ∀λ ∈]0, 1[, f ((1 − λ)x + λy) > min{f (x), f (y)}.
∀ x, y ∈ dom(−f ), x 6= y, ∀λ ∈]0, 1[, f ((1 − λ)x + λy) > min{f (x), f (y)}.
En d’autres termes, une fonction f est quasi concave, respectivement strictement quasi concave,
fortement quasi concave si, la fonction −f est quasi convexe, respectivement strictement quasi
convexe, fortement quasi convexe.
On a les exemples suivants.
p
Exemple 1.4.1 1) La fonction ϕ définie sur R par ϕ(t) = |t| est quasi convexe sur R.
2) Les fonctions monotones sur R sont quasi convexes et quasi concaves. D’ailleurs on peut
montrer qu’une fonction ϕ définie sur R est monotone si et seulement si les fonctions ϕ et −ϕ
sont quasi convexes.
On a la caractérisation suivante.
22 CHAPITRE 1. OPTIMISATION STATIQUE
Proposition 1.4.12 L’enveloppe supérieure d’une famille de fonctions quasi convexes est quasi
convexe.
Proposition 1.4.13 Toute fonction fortement quasi convexe est strictement quasi convexe et
quasi convexe.
On n’a pas par contre la relation stricte quasi convexité implique quasi convexité comme on
pouvait s’attendre. Il faut en plus l’hypothèse de semi continuité inférieure comme le montre la
proposition suivante.
Proposition 1.4.14 Toute fonction strictement quasi convexe et s.c.i. est quasi convexe.
Preuve : Soit f : E → R ∪ {+∞} une fonction s.c.i. et strictement quasi convexe. Montrons
qu’elle est quasi convexe.
Soit x, y dans domf et λ ∈ [0, 1].
1) Si f (x) 6= f (y), alors comme f est strictement quasi convexe on a
Posons u = (1 − α)x + αy. On a u ∈ / Sf (x) (f ) qui est fermé car f est s.c.i. . Il existe alors
un voisinage de u inclus dans le complémentaire de Sf (x) (f ). Il existe alors β ∈]0, 1[ tel que :
f (u) > f ((1 − β)u + βx) > f (x).
Posons v = (1 − β)u + βx. On obtient alors :
Ce qui est en contradiction avec la relation (1.2). Par suite la fonction est quasi convexe.
1.5. OPTIMISATION STATIQUE 23
∀ x ∈ X, m ≤ x.
∀ x ∈ X, x ≤ M.
On a le résultat suivant.
Définition 1.5.3 (Suite minimisante/Suite maximisante) Soit X une partie non vide de R.
On appelle suite minimisante de X, toute suite {xk } d’éléments de X telle que
lim xk = inf(X).
k→+∞
lim xk = sup(X).
k→+∞
On montre que
Proposition 1.5.3 Si X est une partie non vide R, alors il existe toujours une suite minimisante
de X et une suite maximisante de X.
Preuve : Montrons d’abord l’existence d’une suite minimisante. Comme X est non vide, alors
nécessairement inf(X) ∈ R ∪ {−∞}
i) inf(X) ∈ R. D’après la proposition (1.5.1)
1
∀k ∈ N∗ , ∃xk ∈ X : inf(X) ≤ xk ≤ inf(X) + .
k
La suite {xk } ainsi construite converge vers inf(X).
ii) inf(X) = −∞. X admet seulement −∞ comme minorant. Par conséquent pour tout k ∈ N,
il existe xk ∈ X tel que
xk ≤ −k
La suite {xk } ainsi construite converge vers −∞.
On montre de façon analogue l’existence d’une suite maximisante.
S’il existe un élément x∗ ∈ C tel que f (x∗ ) = α (respectivement β), le problème est dit
problème de minimisation (respectivement maximisation) et se note symboliquement :
Proposition 1.5.4
sup f (x) = − inf (−f )(x).
x∈C x∈C
Outre les solutions optimales, on distingue aussi les solutions optimales locales définies comme
suit.
Définition 1.5.7 x∗ ∈ C est dite solution optimale locale de (P ) si
∃ V ∈ V(x∗ ) tel que f (x) ≥ f (x∗ ) ∀ x ∈ C ∩ V.
Ce minimum est dit strict si on a en plus
f (x∗ ) < f (x) ∀ x ∈ C ∩ V ∀ x 6= x∗ ,
où V(x∗ ) désigne l’ensemble des voisinages de x∗ .
Par opposition les solutions optimales sont dites solutions optimales globales.
On a le résultat suivant :
Proposition 1.5.6 Si (P ) est convexe (i.e C et f sont convexes), toute solution optimale locale
de (P ) est globale.
La démonstration est immédiate.
On distingue les problèmes d’optimisation sans contraintes c’est le cas où C = E et avec
contraintes dans le cas contraire.
Dans le cas avec contraintes, très souvent l’ensemble C est défini à l’aide d’équations et/ou
d’inéquations. Par exemple,
gi (x) ≤ 0, i = 1, · · · , p
C= x∈E: ,
hj (x) = 0, j = 1, · · · , m
où les fonctions gi et hj sont définies sur E et à valeurs dans R ∪ {+∞}. Dans ce cas les conditions
gi (x) ≤ 0, i = 1, · · · , p et hj (x) = 0, j = 1, · · · , m sont appélées respectivement contraintes
d’inégalité et contraintes d’égalité.
26 CHAPITRE 1. OPTIMISATION STATIQUE
α = inf f (x) (P )
x∈E
Définition 1.5.8 Une fonction f : E → R ∪ {+∞} est dite inf-compacte si, pour tout λ ∈ R, la
section de niveau inférieure de f , Sλ (f ) = {x ∈ E : f (x) ≤ λ} est compact.
Théorème 1.5.1 Considérons le problème (P ). Si f est propre inf-compacte, l’ensemble des so-
lutions optimales globales de (P ) est un compact non vide et α > −∞.
S = ∩λ>α Sλ (f )
Les ensembles Sλ (f ) sont des compacts non vides emboı̂tés car f est inf-compacte. On en déduit
alors que S est un compact non vide. Soit alors x ∈ S, on a α = f (x) > −∞. Ce qui termine la
démonstration.
Les résultats qui suivent nous donnent des conditions pour qu’une fonction soit inf-compacte.
Définition 1.5.9 Une fonction f : E → R ∪{+∞} est dite coercive si on a : f (x) −→ +∞ quand
kxk −→ +∞.
Théorème 1.5.2 Si f est strictement convexe, alors le problème (P ) a au plus une solution
optimale globale.
Les conditions que nous donnons ici sont des conditions différentielles qui portent sur la dérivée
de la fonction à minimiser.
On définit :
Définition 1.5.10 Soit f : E → R une fonction différentiable. On dit que x∗ est un point sta-
tionnaire ou critique de f si f ′ (x∗ ) = 0.
On a le théorème :
Preuve : Soit x∗ réalisant un minimum local de f sur E. Alors pour tout h ∈ E et t > 0
suffisamment petit,
On obtient alors
tf (x∗ )(h) + kthkε(th) ≥ 0.
En divisant par t > 0, et faisant tendre t vers 0, on obtient
f ′ (x∗ )(h) ≥ 0
Preuve : On sait que la condition est nécessaire. Montrons à présent qu’elle est suffisante.
Soit x∗ un point tel que f ′ (x∗ ) = 0. Comme f est convexe alos, on a
f (x) ≥ f (x∗ ) ∀ x ∈ E.
Preuve : Soit x∗ un minimum local de f sur E. On sait que la condition 1) est satisfaite. Il reste
à montrer la condition 2). Par définition du minimum local, il existe un voisinage V de x∗ dans E
tel que f (x) ≥ f (x∗ ) pour tout x ∈ V .
Soit h ∈ E. En utilisant le developpement de Taylor au voisinage de x∗ , à l’ordre deux et la
condition 1), on a : pour t suffisamment petit,
t2 ′′ ∗
∗ ∗
f (x + th) = f (x ) + f (x )(h, h) + t2 ε(th),
2
avec ε continue et limt→0 ε(th) = 0.
Pour t 6= 0 suffisamment petit de sorte que x∗ + th ∈ V , on a :
f (x∗ + th) − f (x∗ ) 1
0≤ 2
= f ′′ (x∗ )(h, h) + ε(th).
t 2
En passant à la limite, t tendant 0, on obtient : f ′′ (x∗ )(h, h) ≥ 0.
On a aussi une condition suffisante d’optimalité.
28 CHAPITRE 1. OPTIMISATION STATIQUE
α = inf f (x) (P )
x∈C
Théorème 1.5.7 Si C est compact, f est s.c.i. propre, C ∩ domf 6= ∅, alors le problème (P )
admet au moins une solution optimale et α > −∞.
En ce qui concerne le cas où C est non borné, on définit d’abord la notion de fonction coercive.
lim f (x) = +∞
kxk → +∞ .
x∈C
Théorème 1.5.8 Si f est inf compacte, propre, C fermé et C ∩ domf 6= ∅, alors le problème (P )
admet au moins une solution optimale et α > −∞.
Preuve :
Soit {xk } une suite minimisante de f sur C.
La suite {xk } est bornée. En effet si ça n’était pas le cas, il existerait une sous suite {xkl } de {xk }
telle que kxkl k −→ +∞. Comme f est inf compacte, cela impliquerait que α = liml f (xkl ) = +∞.
Ce qui est impossible car f est finie en au moins un point de C (C ∩ domf 6= ∅).
1.5. OPTIMISATION STATIQUE 29
La suite {xk } étant bornée, il existe une sous suite {xkl } de {xk } qui converge vers un point x̄
de C car C est fermé.
Comme f est inf compacte, elle est s.c.i. et donc on a
Corollaire 1.5.2 Si f est s.c.i. propre, coercive sur C, fermé, avec C ∩ domf 6= ∅, alors (P )
admet au moins une solution optimale.
Théorème 1.5.9 Si C est convexe et f strictement convexe sur C alors (P ) admet au plus une
solution optimale.
A présent, on donne des conditions d’optimalité dans le cas où f est différentiable.
Corollaire 1.5.3 Si f est différentiable en x∗ ∈ int(C), alors si x∗ est un point de minimum local
de f sur C, on a f ′ (x∗ ) = 0.
31
32 CHAPITRE 2. CALCUL DES VARIATIONS
L’objectif de l’entreprise est de déterminer la vitesse de production ẋ(t) (et donc le stock x(t))
pour 0 ≤ t ≤ T de façon à minimiser
Z T
J(x) = F (t, x(t), ẋ(t))dt
0
sachant que
x(0) = 0
x(T ) = B
ẋ(t) ≥ 0 ∀t ∈ [0, T ].
2) Un capital productif K(t) génère un profit brut P (K(t)) Il se déprécie à un taux constant
b. Donc sa variation instantanée est
3) Soit déterminer la plus courte distance dans le plan entre deux points (t0 , x0 ) et (t1 , x1 ). On
sait que dans le triangle rectangle le carré de l’hypothénuse est égal à la somme des carrés des
autres côtés
Pour une petite distance dl on aura alors
p p
dl = (dt)2 + (dx)2 = 1 + ẋ(t)2 dt.
Ces trois exemples mettent en évidence l’importance du calcul des variations c’est-à-dire de la
résolution des problèmes pouvant s’énoncer de la façon suivante :
Etant donnés t0 , t1 ∈ R avec t0 < t1 , et F : [t0 , t1 ] × Rn × Rn → R une fonction de classe C 1 ,
déterminer les applications
x : [t0 , t1 ] → Rn
1) minimisant (maximisant) la fonctionnelle
Z t1
f (x) = F (t, x(t), ẋ(t))dt
t0
On le note symboliquement
Z t1 x ∈ C 1 ([t0 , t1 ], Rn ),
(P)
α = inf f (x) = F (t, x(t), ẋ(t))dt : x(t0 ) = x0 , .
t0 x(t1 ) − x1 ∈ C(I, J, K)
Dans ce problème, x est appelée variable d’état, les conditions x(t0 ) = x0 et x(t1 ) − x1 ∈
C(I, J, K) sont dites conditions aux limites.
Si I = J = K = ∅, on dit que la valeur terminale de la variable d’état n’est pas astreinte.
On dira que le critère du problème (P) est à coût terminal si on a
Z t1
f (x) = F (t, x(t), ẋ(t))dt + G(x(t1 ))
t0
Cette règle permet de dériver une intégrale par rapport à un paramètre sous le signe intégral.
Exemple 2.2.1
Si Z r
V (r) = e−rx P (x)dx
r2
alors Z r
dV (r) 2 3
= P (r)e−r − 2P (r 2)re−r − xe−rx P (x)dx.
dr r2
Rt
Proposition 2.2.2 Si g est une fonction donnée continue sur [t0 , t1 ] et vérifie t01 g(t)h′ (t)dt = 0
pour toute fonction h de classe C 1 sur [t0 , t1 ] avec h(t0 ) = h(t1 ) = 0, alors la fonction g est
constante sur [t0 , t1 ].
Preuve :
Soit c la valeur moyenne de g sur [t0 , t1 ] c’est-à-dire :
Z t1
1
c= g(t)dt.
t1 − t0 t0
En particulier pour Z t
h(t) = [g(s) − c]ds,
t0
pour toute fonction h C 1 sur [t0 , t1 ] avec h(t1 ) = h(t0 ) = 0, alors la fonction ϕ est dérivable et
ϕ′ (t) = g(t) ∀t ∈ [t0 , t1 ].
Preuve :
Puisque h est dérivable, on peut intégrer par partie
Z t1 Z t1
g(t)h(t)dt = − G(t)h′ (t)dt
t0 t0
2.2. PROBLÈME ÉLÉMENTAIRE DU CALCUL DES VARIATIONS CLASSIQUE 35
où Z t
G(t) = g(s)ds
t0
car h(t1 ) = h(t0 ) = 0.
Il vient alors
Z t1 Z t1
′
0= [g(t)h(t) + ϕ(t)h (t)]dt = [ϕ(t) − G(t)]h′ (t)dt.
t0 t0
pour toute fonction h continue sur [t0 , t1 ] telle que h(t1 ) = h(t0 ) = 0 alors g(t) = 0 ∀t ∈ [t0 , t1 ].
Preuve :
Supposons qu’il existe t tel que g(t) > 0. Comme g est continue, on a g(t) > 0 sur un intervalle
[a, b] ⊂ [t0 , t1 ].
Soit
(t − a)(b − t) si a ≤ t ≤ b
h̄(t) =
0 sinon
On a Z Z
t1 b
g(t)h̄(t)dt = g(t)(t − a)(b − t)dt > 0.
t0 a
car g(t)(t − a)(b − t) > 0 sur ]a, b[.
Or h̄ est continue sur [t0 , t1 ] et vérifie h̄(t0 ) = h̄(t1 ) = 0. Ce qui est contradictoire.
Théorème 2.2.1 Soit F : [t0 , t1 ] × R × R → R une fonction continue en (t, x, ẋ) et de classe C 1
par rapport à la 2ème et 3ème variable.
Une condition nécessaire d’optimalité pour le problème
R t1
min
f (x) = t0
F (t, x(t), ẋ(t))dt
1
x ∈ C ([t0 , t1 ], R) (P)
x(t0 ) = x0
x(t ) = x
1 1
est :
d
Fẋ (t, x(t), ẋ(t)) = Fx (t, x(t), ẋ(t)) ∀t ∈ [t0 , t1 ] (Equation d’Euler)
dt
(les solutions de l’équation d’Euler sont dites extrémales du critère).
36 CHAPITRE 2. CALCUL DES VARIATIONS
Preuve :
Supposons que x∗ définie sur [t0 , t1 ] est une solution optimale du problème.
Soit x une solution réalisable. On définit la fonction h telle que h(t) est égale à la déviation
entre la courbe optimale et celle de x(t) à l’instant t : h(t) = x(t) − x∗ (t).
Puisque x∗ et x sont réalisables, on a :
h(t0 ) = x(t0 ) − x∗ (t0 ) = x0 − x0 = 0,
h(t1 ) = x(t1 ) − x∗ (t1 ) = x1 − x1 = 0
(on dira qu’une déviation d est réalisable si la fonction x∗ + d est réalisable.)
Pour toute constante réelle a, la fonction y telle que y(t) = x∗ (t) + ah(t) est réalisable.
Pour x∗ et h fixés on a
Z t1 Z t1
∗
f (x + ah) = F (t, y(t), ẏ(t)dt = F (t, x∗ (t) + ah(t), ẋ∗ (t) + ah′ (t)dt.
t0 t0
Remarque 2.2.1 1) Il est important de noter que l’équation d’Euler est vérifiée pour tout t ∈
[t0 , t1 ].
2) L’équation d’Euler est aussi une condition nécessaire d’optimalité pour un problème de
maximisation.
2.2. PROBLÈME ÉLÉMENTAIRE DU CALCUL DES VARIATIONS CLASSIQUE 37
L’équation d’Euler est alors une équation différentielle du second ordre de x(t) à résoudre avec les
conditions aux limites.
En général les coefficients dans (2.1) (les dérivées partielles de F ) ne sont pas constants et
l’équation différentielle est assez difficile à résoudre.
Exemple 2.2.2
2ẍ(t) = 0 ⇔ ẍ(t) = 0,
soit
ẋ(t) = c1 ⇒ x(t) = c1 t + c2 .
Comme x(0) = 0, alors c2 = 0.
Aussi on a x(T ) = B : alors c1 = B
T
.
B
Donc x(t) = T t pour tout t tel que 0 ≤ t ≤ T.
2) Soit le problème : R1
min
0
[[ẋ(t)]2 + 10tx(t)]dt
x(0) = 1
x(1) = 2
Puisque F (t, x, ẋ) = ẋ2 + 10tx on a
dFẋ
Fx = 10t, Fẋ = 2ẋ et = 2ẍ.
dt
Donc l’équation d’Euler est :
10t = 2ẍ ⇔ ẍ(t) = 5t.
38 CHAPITRE 2. CALCUL DES VARIATIONS
2
Ce qui implique que ẋ(t) = 5t2 + c1 avec c1 une constante.
Donc x(t) = 65 t3 + c1 t + c2 avec c2 une constante.
Comme x(0) = 1 on obtient c2 = 1. On a aussi la condition x(1) = 2 soit donc l’équation
2 = 56 + c1 + c2 . On trouve alors c1 = 61 .
En définitive on a :
5 1
x(t) = t3 + t + 1.
6 6
Une autre forme de l’Equation d’Euler est
Z t
∗ ∗
Fẋ (t, x (t), ẋ (t)) = Fx (s, x∗ (s), ẋ∗ (s))ds.
t0
Exemple 2.2.4
Soit à résoudre le problème qui consiste à déterminer parmi toutes les courbes joignant (t0 , x0 )
et (t1 , x1 ), celle qui génère une surface de révolution minimale autour de l’axe de t.
Cela revient à résoudre le problème :
R t1 2 21
min
t0
2πx[1 + ẋ ] dt
x(t0 ) = x0 ,
x(t1 ) = x1 .
Sans perdre de généralités on peut ignorer la constante 2π.
On a
xẋ
Fẋ = 1
(1 + ẋ2 ) 2
l’équation d’Euler est : F − ẋFẋ = cte. Soit :
2 1 xẋ2 1
x(1 + ẋ ) − 2
1 = c ⇔ x = c(1 + ẋ2 ) 2 .
(1 + ẋ2 ) 2
D’où
x2 − c2
x2 = c2 + c2 ẋ2 ⇔ ẋ2 = .
c2
On a alors r
x2 − c2
ẋ = ± ,
c2
et donc
cdx 1
1 = dt ⇒ c ln(x + (x2 − c2 ) 2 ) = t + k.
(x2 − c2 ) 2
Attention
les méthodes spéciales (c’est-à-dire les équations d’Euler simplifiées ) ci-dessus ne sont pas les
voies les plus simples toujours.
Exemple 2.2.5
Considérons le problème :
R t1
min
t0
(2x2 + 3xẋ − 4ẋ2 )dt
x(t0 ) = x0 on a F = F (x, ẋ)
x(t1 ) = x1
Si on considère l’équation d’Euler sous la forme
F − ẋFẋ = cte
on aura à résoudre l’équation
2x2 + 4ẋ2 = c
qui est une équation différentielle non linéaire. Mais par contre si on considère l’équation d’Euler
Fx = Fẋt + Fẋx ẋ + Fẋẋ ẋ
on obtient
4x + 3ẋ = 3ẋ − 8ẍ
⇔ 4x = −8ẍ
⇔ 2ẍ + x = 0
qui est une équation différentielle du 2ème ordre à coefficients constants et qui est plus facile à
résoudre.
40 CHAPITRE 2. CALCUL DES VARIATIONS
Lemme 2.2.1 Soit P et Q des fonctions continues sur un intervalle ouvert J contenant [t0 , t1 ].
Si on a Z t1
[P (t)(h′ (t))2 + Q(t)(h(t))2 ]dt ≥ 0
t0
pour toute fonction h continue sur J et de classe C 1 sur [t0 , t1 ] avec h(t0 ) = h(t1 ) = 0 alors
P (t) ≥ 0 ∀t ∈ [t0 , t1 ].
Preuve :
Supposons qu’il existe un élément t̄ de [t0 , t1 ] tel que P (t̄) < 0. Puisque P est continue, il existe
un intervalle [s − c, s + c] inclus dans [t0 , t1 ] tel que
Posons
sin2 π( t−s ) pour s−c≤t≤s+c
h(t) = c
0 ailleurs
Alors ∀t ∈ [s − c, s + c]
2π π π(t − s)
h′ (t) = sin θ cos θ = sin 2θ où θ= .
c c c
Alors h est continue sur [t0 , t1 ] et de classe C 1 sur [t0 , t1 ] avec
h(t0 ) = h(t1 ) = 0.
Donc
R t1
t0
[P (t)(h′ (t))2 + Q(t)(h(t))2 ]dt ≥ 0
R s+c R s+c 2
⇔ s−c
Q(t) sin4 dt + s−c
P (t) πc2 sin2 2θdt ≥ 0
or
Z s+c Z 2π
π2 bπ bπ 2 2π(t − s)
P (t) 2 sin2 2θdt ≤ sin xdx = 2
(x = 2θ = ).
s−c c 2c −2π c c
Q étant continue sur [s − c, s + c], il existe un nombre réel M tel que
∀t ∈ [s − c, s + c] − M ≤ Q(t) ≤ M.
Alors Z s+c Z s+c
4
Q(t) sin dt ≤ (M)dt = 2cM.
s−c s−c
Donc Z t1
bπ 2
[P (t)(h′ (t))2 + Q(t)(h(t))2 ]dt ≤ + 2cM.
t0 c
bπ 2 bπ 2
Par ailleurs + 2cM < 0 ⇔ 2M
c
< −c2 .
Donc en choisissant c suffisamment petit nous pouvons obtenir
Z t1
[P (t)(h′ (t))2 + Q(t)(h(t))2 ]dt < 0
t0
pour toute fonction h de classe C 1 sur [t0 , t1 ] tel que h(t1 ) = h(t0 ) = 0. D’où le résultat.
Montrons à présent la condition nécessaire d’optimalité du second ordre de Legendre.
Supposons que F est continue et de classe C 2 par rapport à x et ẋ et Fxẋ est de classe C 1 par
rapport à t.
Une condition nécessaire d’optimalité pour le problème ci-dessus est
dFẋ
i)Fx (t, x(t), ẋ(t)) = dt (t, x(t), ẋ(t)) ∀t ∈ [t0 , t1 ],
ii)F (t, x(t), ẋ(t)) ≥ 0 ∀t ∈ [t , t ].
ẋẋ 0 1
Preuve : Supposons que x∗ est une solution optimale du problème et considérons un élément h
de classe C 1 sur [t0 , t1 ] tel que h(t1 ) = h(t0 ) = 0, et la fonction réelle en a
Z t1
∗
g(a) = f (x (t) + ah(t)) = F (t, x∗ (t) + ah(t), ẋ∗ (t) + ah′ (t))dt.
t0
2) La condition Fẋ2 (t, x∗ (t), ẋ∗ (t)) > 0 ∀t ∈ [t0 , t1 ] n’est pas une condition suffisante d’opti-
malité.
Donc Z t1
′
g (0) = 0 ⇔ [Fx (t, x(t), ẋ(t))h(t) + Fẋ (t, x(t), ẋ(t))h′ (t)]dt = 0.
t0
Comme
R t1 Rt
Fẋ (t, x(t), ẋ(t))h′ (t)dt = [Fẋ (t, x(t), ẋ(t))h(t)]tt10 − t01 dFẋ
(t, x(t), ẋ(t)) h(t)dt
t0 Rt dt
dFẋ
= Fẋ (t1 , x(t1 ), ẋ(t1 ))h(t1 ) − t01 dt
(t, x(t), ẋ(t)) h(t)dt
est (
Fx (t, x(t), ẋ(t)) = dF dt
ẋ
(t, x(t), ẋ(t)) ∀t ∈ [t0 , t1 ]
Fẋ (t1 , x(t1 ), ẋ(t1 )) = 0 (Condition de transversalité)
Exemple 2.3.1
x(t) = c1 t + c2 .
La condition de transversalité donne Fẋ (t1 ) = √ ẋ(t1 ) = 0 c’est-à-dire ẋ(t1 ) = 0 soit alors
1+ẋ(t1 )2
c1 = 0.
Donc x(t) = c2 . Et comme x(t0 ) = x0 , on obtient x(t) = x0 pour tout t vérifiant t0 ≤ t ≤ t1 .
Les deux derniers termes représentent les différences des coordonnées des points terminaux des
courbes x∗ (t) et x(t) non étendues. Donc les deux courbes sont proches si en chaque point du
domaine étendu, leurs valeurs sont proches, leurs pentes sont égales et leurs points terminaux sont
proches.
On définit pour δt1 assez petit,
Z t1 +aδt1
g(a) = F (t, x∗ (t) + ah(t), ẋ∗ (t) + ah′ (t))dt.
t0
et cela pour toute fonction réalisable vérifiant h(t0 ) = h(t1 ) = 0. On obtient alors : Fx (t, x∗ (t), ẋ∗ (t))−
dFẋ
dt
(t, x∗ (t), ẋ∗ (t)) = 0 : c’est l’équation d’Euler. Par suite (2.7) devient
Fẋ (t1 , x∗ (t1 ), ẋ(t1 ))δx1 + [F (t1 , x∗ (t1 ), ẋ∗ (t1 )) − ẋ∗ (t1 )Fẋ (t1 , x∗ (t1 ), ẋ∗ (t1 ))]δt1 = 0 (2.8)
est
i) Equation d’Euler Fx (t, x(t), ẋ(t)) − dF dt
ẋ
(t, x(t), ẋ(t)) = 0, ∀t ∈ [t0 , t1 ]
ii) Condition de transversalité
( ( .
F (t 1 , x(t1 ), ẋ(t1 )) − ẋ(t1 )F (t
ẋ 1 , x(t1 ), ẋ(t 1 )) = 0, F (t1 , x(t1 ), ẋ(t1 )) = 0,
⇐⇒
Fẋ (t1 , x(t1 ), ẋ(t1 )) = 0 Fẋ (t1 , x(t1 ), ẋ(t1 )) = 0.
Fẋ (t1 , x∗ (t1 ), ẋ∗ (t1 ))δx1 + [F (t1 , x∗ (t1 ), ẋ∗ (t1 )) − ẋ∗ (t1 )Fẋ (t1 , x∗ (t1 ), ẋ∗ (t1 ))]δt1 = 0.
Or on a
δx1
R′ (t1 ) = ⇔ δx1 = R′ (t1 )δt1 .
δt1
l’équation ci-dessus s’écrit alors
[R′ (t1 )Fẋ (t1 , x∗ (t1 ), ẋ∗ (t1 )) + F (t1 , x(t1 ), ẋ∗ (t1 )) − ẋ∗ (t1 )Fẋ (t1 , x∗ (t1 ), ẋ∗ (t1 ))]δt1 = 0.
C’est-à-dire
[F (t1 , x∗ (t1 ), ẋ∗ (t1 )) + (R′ (t1 ) − ẋ∗ (t1 ))Fẋ (t1 , x∗ (t1 ), ẋ∗ (t1 ))]δt1 = 0 (2.11)
F (t1 , x∗ (t1 ), ẋ∗ (t1 )) + (R′ (t1 ) − ẋ∗ (t1 ))Fẋ (t1 , x∗ (t1 ), ẋ∗ (t1 )) = 0. (2.12)
est
i) Equation d’Euler
F (t, x(t), ẋ(t)) − dFẋ (t, x(t), ẋ(t)) = 0 pour tout t ∈ [t , t ]
x dt 0 1
ii) Condition de transversalité
F (t1 , x(t1 ), ẋ(t1 )) + (R′ (t1 ) − ẋ(t1 ))Fẋ (t1 , x(t1 ), ẋ(t1 )) = 0.
Remarque 2.3.2 Si la courbe terminale est sous la forme implicite Q(t1 , x1 ) = 0 où Q est une
fonction en (t, x) différentiable, alors on a :
Qt
Qt δt1 + Qx δx1 = 0 ⇔ δx1 = − δt1
Qx
et la condition de transversalité (2.12) devient
Qt (t1 , x(t1 ))
F (t1 , x(t1 ), ẋ(t1 )) − ẋ(t1 ) + Fẋ (t1 , x(t1 ), ẋ(t1 )) = 0. (2.13)
Qx (t1 , x(t1 ))
En plus
R t1
f − f ∗ = F ∗ (t1 )δt1 + [(x(t) − x∗ (t))Fx∗ (t) + (ẋ(t) − ẋ∗ (t))Fẋ∗ (t)]dt
t0 (2.15)
+ termes de degrés supérieurs
avec Fx∗ (t) = Fx (t, x∗ (t), ẋ(t)), Fẋ∗ (t) = Fẋ (t, x∗ (t), ẋ∗ (t)).
Posons h(t) = x(t) − x∗ (t) on a alors
Z t1
∗ ∗
f − f = F (t1 )δt1 + (Fx∗ (t)h(t) + Fẋ∗ (t)h′ (t))dt + . . . (2.16)
t0
Posons Z t1
∗
δJ = F (t1 )δt1 + (Fx∗ (t)h(t) + Fẋ∗ (t)h′ (t))dt (2.17)
t0
On a Z t1
∗ dFẋ∗
δJ = F (t1 )δt1 + Fẋ∗ (t1 )h(t1 ) + (Fẋ∗ (t) − (t))h(t)dt
t0 dt
car h(t0 ) = 0.
Comme h(t1 ) = δx1 − ẋ∗ (t1 )δt1 , alors
Z t1
∗ ∗ dFẋ∗ (t)
δJ = (F (t1 ) − ẋ (t1 )Fẋ∗ (t1 ))δt1 + Fẋ∗ (t1 )δx1 + (Fx∗ (t) − )h(t)dt (2.18)
t0 dt
Comme f − f ∗ ≥ 0, on a nécessairement δJ ≥ 0.
En choisissant les courbes de comparaison tel que δt1 = δx1 = 0, on obtient :
Z t1
dF ∗ (t)
(Fx∗ (t) − ẋ )h(t)dt ≥ 0
t0 dt
dFẋ∗(t)
Fx∗ (t) = , ∀t ∈ [t0 , t1 ].
dt
C’est l’équation d’Euler.
On s’intéresse à présent à la contrainte t1 ≤ T .
On peut alors prendre δx1 = 0. Il vient alors
δJ = (F ∗ (t1 ) − ẋ∗ (t1 )Fẋ∗ (t1 ))δt1 ≥ 0. (2.19)
i) Si on a t1 < T : La courbe de comparaison peut se terminer soit avant t1 soit après t1 donc
δt1 est quelconque.
F ∗ (t1 ) − ẋ∗ (t1 )Fẋ∗ (t1 ) = 0. (2.20)
ii) Si t1 = T alors la courbe de comparaison doit terminer avant t1 et donc δt1 ≤ 0. Ce qui
implique que
F ∗ (t1 ) − ẋ∗ (t1 )Fẋ∗ (t1 ) ≤ 0. (2.21)
On peut combiner (2.20) et (2.21) ce qui donne
F ∗ (t1 ) − ẋ∗ (t1 )Fẋ∗ (t1 ) ≤ 0, (T − t1 )[F (t1 ) − ẋ∗ (t1 )Fẋ∗ (t1 )] = 0. (2.22)
De façon analogue si on s’intéresse à la contrainte x1 ≥ a, on aboutit aux résultats :
Fẋ∗ (t1 ) ≥ 0, (x1 − a)Fẋ∗ (t1 ) = 0. (2.23)
On a alors les propositions suivantes.
On s’intéresse aux conditions nécessaire d’optimalité de ce problème. dans lequel on n’a pas
de condition sur t1 ni sur x(t1 ) = x1 .
Soit x∗ (t), t0 ≤ t ≤ t1 une solution optimale et x(t), t0 ≤ t ≤ t1 + δt1 une solution réalisable
de comparaison. On peut étendre soit x∗ soit x de sorte qu’elles aient les mêmes domaines. On
considère
h(t) = x(t) − x∗ (t), t0 ≤ t ≤ max{t, t1 + δt1 }.
En évaluant f (x∗ + ah) sur l’intervalle [t0 , t1 + aδt1 ] on a
Z t1 +aδt1
∗
g(a) = f (x + ah) = F (t, x∗ (t) + ah(t), x∗ + ah′ (t))dt + G(t1 + aδt1 , x1 + aδx1 ).
t0
Cette équation reste valable pour les courbes de comparaison terminant en (t1 , x1 ) et donc
δt1 = δx1 = h(t1 ) = 0. Ce qui implique que
dFẋ
Fx (t, x∗ (t), ẋ∗ (t)) − (t, x∗ (t), x˙∗ (t)) = 0 tout le long de x∗ (t), t0 ≤ t ≤ t1 .
dt
On a approximativement
h(t1 ) ≃ δx1 − x∗ (t1 )δt1
En tenant compte de ces équations dans (2.25) on tire
(F (t1 , x∗ (t1 ), x˙∗ (t1 )) − x˙∗ Fẋ (t1 , x∗ (t1 ), x˙∗ (t1 )) + Gt (t1 , x1 ))δt1
(2.26)
+(Fẋ (t1 , x∗ (t1 ), x˙∗ (t1 )) + Gx (t1 , x1 ))δx1 = 0.
C’est le résultat fondamental pour déterminer les conditions de transversalité par le problème
considéré ici. On peut à présent tirer les résultats suivants :
i) si t1 est libre dans ce cas δt1 peut avoir n’importe quel signe dans (2.26) donc son coefficient
doit être nul. C’est-à-dire :
F (t1 , x∗ (t1 ), x˙∗ (t1 )) − x˙∗ (t1 )Fẋ (t1 , x∗ (t1 ), x˙∗ (t1 )) + Gt (t1 , x1 ) = 0 (2.27)
ii) si x1 est libre alors dans ce cas on a δx1 quelconque. Par suite on a :
δx1
R′ (t1 ) = ⇔ δx1 = R′ (t1 )δt1
δt1
et en remplaçant δx1 par sa valeur dans (2.26) on obtient
F (t1 , x∗ (t1 ), x˙∗ (t1 )) + (R′ (t1 ) − x˙∗ (t1 ))Fẋ (t1 , x∗ (t1 ), x˙∗ (t1 ))
(2.29)
+R′ (t1 )Gx (t1 , x1 ) + Gt (t1 , x1 ) = 0.
est
:
1) Equation d’Euler
Fx (t, x(t), ẋ(t)) − dF ẋ
(t, x(t), ẋ(t)) = 0 ∀t ∈ [t0 , t1 ]
dt
2) Condition de transversalité
La condition de transversalité étant :
- si t1 est libre,
- si x1 est libre,
Fẋ (t1 , x(t1 ), ẋ(t1 )) + Gx (t1 , x1 ) = 0
- si on a la relation R(t1 ) = x1 ,
F (t1 , x(t1 ), ẋ(t1 )) + (R′ (t1 ) − ẋ(t1 ))Fẋ (t1 , x(t1 ), ẋ(t1 ))
+R′ (t1 )Gx (t1 , x1 ) + Gt (t1 , x1 ) = 0.
52 CHAPITRE 2. CALCUL DES VARIATIONS
Chapitre 3
53
54CHAPITRE 3. CONTRÔLE OPTIMAL EN TEMPS CONTINU : PRINCIPE DU MAXIMUM
de classe C 1 ,
• une fonction f : I × Rn × Rm → Rn de classe C 1 ,
• une fonction réelle A : Rn → R de classe C 1 ,
b) On cherche (x, u) dans C 1 (I, Rn ) × C 0 (I, Rm ) solution de
R t1
min
J(x, u) = t0 F (t, x(t), u(t))dt + A(x(t1 ))
ẋ(t) = f (t, x(t), u(t)) ∀t ∈ [t0 , t1 ] .
x(t0 ) = x0
u(t) ∈ U ⊂ Rm ∀t ∈ [t0 , t1 ]
Dans ce problème :
- x est dite variable d’état
- u variable de contrôle.
- l’équation ẋ = f (t, x(t), u(t)) est dite équation-d’état (d’évolution)
- la fonction J est le critère
- l’ensemble U = C 0 (I, U) avec U ⊂ Rm est l’ensemble des correspondances des contrôles
admissibles.
Etant donné ce problème, on définit :
H : [t0 , t1 ] × Rn × Rm × Rn → R
P .
(t, x, u, λ) 7→ F (t, x(t), u(t)) + ni λi fi (t, x(t), u(t))
Preuve :
Soit (x∗ (t), u∗ (t)) t0 ≤ t ≤ t1 une solution optimale du problème.
Pour toutes solutions (x, u) réalisables et toute fonction de classe C 1 λ définies sur [t0 , t1 ] on
a: Z Z
t1 t1
F (t, x(t), u(t))dt = [F (t, x(t), u(t)) + λ(t)f (t, x(t), u(t)) − λ(t)ẋ(t)]dt. (3.1)
t0 t0
Considérons une famille de contrôles de comparaison u∗ (t) + ah(t) où h est une fonction fixée
et a ∈ R un paramètre.
Soit y(t, a) la variable d’état générée sous le contrôle u∗ (t) + ah(t) pour t0 ≤ t ≤ t1 .
On suppose que y(t, a) est régulière par rapport à (t, a). Il est clair que
Avec les fonctions x∗ , u∗ et h toutes fixées, la valeur de (3.1) évalué le long de y(t, a) et
∗
u (t) + ah(t) dépend de la variable a. Soit J(a) cette valeur. On a :
Z t1
J(a) = F (t, y(t, a), u∗(t) + ah(t))dt.
t0
En utilisant (3.3) on a :
R t1
J(a) = [F (t, y(t, a), u∗(t) + ah(t)) + λ(t)f (t, y(t, a), u∗(t) + ah(t)) + y(t, a)λ̇(t)]dt
t0 (3.5)
−λ(t1 )y(t1, a) + λ(t0 )y(t0 , a)
56CHAPITRE 3. CONTRÔLE OPTIMAL EN TEMPS CONTINU : PRINCIPE DU MAXIMUM
En considérant λ vérifiant
λ̇(t) = −[Fx (t, x∗ (t), u∗ (t)) + λ(t)fx (t, x∗ (t), u∗ (t))] (3.7)
de sorte que
Z t1
[Fu (t, x∗ (t), u∗(t)) + λ(t)fu (t, x∗ (t), u∗ (t))]2 dt = 0. (3.9)
t0
En conclusion, si (x∗ , u∗ ) est solution du problème alors il existe λ de classe C 1 tel que x∗ , u∗ ,
λ vérifient simultanément les équations :
- l’équation d’état : ẋ(t) = f (t, x(t), u(t)),
- l’équation du multiplicateur : λ̇(t) = −[fx (t, x(t), u(t)) + λ(t)fx (t, x(t), u(t))]
- la condition d’optimalité : Fu (t, x(t), u(t)) + λ(t)fu (t, x(t), u(t)) = 0
qui n’est rien d’autre que celle du problème :
max F (t, x(t), u(t)) + λ(t)f (t, x(t), u(t)) = H(t, x(t), u(t), λ(t)).
u
Exemple 3.2.1
Théorème 3.3.1 Si (x, u) est solution optimale du problème (P CT H), alors il existe λ de classe
C 1 sur [t0 , t1 ] tel que (x, u, λ) est solution du système :
où H(t, x(t), u(t), λ(t)) = F (t, x(t), u(t)) + λ(t)f (t, x(t), u(t)) est le hamiltonien associé.
Pour terminer, on s’intéresse aux conditions d’optimalité des problèmes avec contrainte d’inégalité
au point terminal. On considère les problèmes ci-dessous :
R t1 R t1
J(x,
u) = max t0
F (t, x(t), u(t))dt J(x,
u) = max t0
F (t, x(t), u(t))dt
x(t0 ) = x0
x(t0 ) = x0
x(t1 ) = x1 x(t1 ) = x1
x1 ≥ a t1 ≤ T
t ,
0 1 0t , x , a donnés t0 , x0 , x1 , T donnés
1 0
x ∈ C ([t0 , t1 ], R), u ∈ C ([t0 , t1 ], R). x ∈ C 1 ([t0 , t1 ], R), u ∈ C 0 ([t0 , t1 ], R).
Le premier est à ligne terminale verticale tronquée et le second à ligne terminale horizontale
tronquée.
on a le théorème suivant :
Théorème 3.3.2 Si (x, u) est solution optimale de l’un des deux problèmes (P CE), alors il existe
58CHAPITRE 3. CONTRÔLE OPTIMAL EN TEMPS CONTINU : PRINCIPE DU MAXIMUM
où H(t, x(t), u(t), λ(t)) = F (t, x(t), u(t)) + λ(t)f (t, x(t), u(t)) est le hamiltonien associé.
On considère à présent problème avec le critère contenant un coût terminal A(x(t1 )) où A est
définie sur [t0 , t1 ] et dérivable.
R t1
J(x,
u) = max t0 F (t, x(t), u(t))dt + A(x(t1 ))
ẋ(t) = f (t, x(t), u(t))
x(t0 ) = x0 , (P CE)
x(t1 ) = x1 ,
avec t0 , x0 donnés
x ∈ C 1 ([t0 , t1 ], R), u ∈ C 0 ([t0 , t1 ], R).
On montre que :
Théorème 3.4.1 Si (x, u) est solution optimale du problème ci-dessus, alors il existe λ de classe
3.5. INTERPRÉTATION ÉCONOMIQUE DES CONDITIONS NÉCESSAIRES D’OPTIMALITÉ59
où H(t, x(t), u(t), λ(t)) = F (t, x(t), u(t)) + λ(t)f (t, x(t), u(t)) est le hamiltonien associé.
RT
max
Π(K, u) = 0
π(t, K(t), u(t))dt
K̇(t) = f (t, K(t), u(t)) (P )
(
K(0) = K0
Supposons que (K, u) est une solution optimale de (P ), λ la variable de co-état associée à cette
solution et H le Hamiltonien de (P ).
a) on a
Z T
Π(K, u) = [H(t, K(t), u(t), λ(t)) + λ̇(t)K(t)]dt − λ(T )K(T ) + λ(0)K0 .
0
Donc
∂Π(K, u) ∂Π(K, u)
= λ(0) et = −λ(T ).
∂K0 ∂K(T )
• λ(0) mesure alors la sensibilité du profit total par rapport au capital initial. Une augmentation
du capital initial d’une unité ”infinitésimale” ajoute au profit total un montant de λ(0).
Donc H(t, K(t), u(t), λ(t)) représente la perspective globale de profit à l’instant t correspondant
à u(t).
On a la condition d’optimalité :
∂H ∂π ∂f ∂π ∂f
0= = + λ(t) ⇐⇒ = −λ(t) .
∂u ∂u ∂u ∂u ∂u
On dit alors que la politique optimale u(t) assure l’équilibre entre l’accroissement marginal du
profit courant et la diminution marginale du profit futur induite par la variation du capital.
c) Considérons l’équation de co-état
∂H
λ̇(t) = − (t, k(t), u(t), λ(t)).
∂K
C’est-à-dire :
∂π ∂f
−λ̇(t) = (t, K(t), u(t)) + λ(t) (t, K(t), u(t)).
∂K ∂K
3.5. INTERPRÉTATION ÉCONOMIQUE DES CONDITIONS NÉCESSAIRES D’OPTIMALITÉ61
Alors
λ̇(t) = taux de depréciation du prix caché d’une unité de capital,
∂π
= contributiion marginale du capital au profit courant
∂K
et
∂f
λ(t) = contribution marginale du capital au profit futur.
∂K
le principe du maximum dit alors que : le taux de depréciation du prix caché du capital est
égal à la contribution marginale du capital au profit de l’entreprise (profit courant+profit futur).
d) On a la condition de transversalité : λ(T ) = 0.
Cela signifie que le prix du capital chute à zero en fin de période. En effet l’horizon prévu
étant T , il est tacitement convenu que seul le profit réalisé durant la période [0, T ] importe et
par suite, la reserve de capital encore disponible à l’instant T ne pouvant plus être fructifié[ n’a
aucune valeur.
Les conditions de transversalité liées à d’autres données s’interprétant également. Par exemple
dans le cas
• d’une droite terminale horizontale [T non fixé et K(T ) fixé], la condition de transversalité
est : H(T, K(T ), u(T ), λ(T )) = 0. Cela signifie qu’en fin de période, il n’y a aucune perspective de
profit (ni courant, ni futur).
H(t, x(t), u(t), λ(t)) = e−ρt G(t, x(t), u(t)) + λ(t)f (t, x(t), u(t)).
Définition 3.5.1 Étant donné le problème (P SCT ), et H le hamiltonien associé avec λ le mul-
tiplicateur de Lagrange, on appelle :
a) multiplicateur de Lagrange en valeur courante la fonction m définie par
Hc (t, x(t), u(t), m(t)) = eρt H(t, x(t), u(t), λ(t)) = G(t, x(t), u(t)) + m(t)f (t, x(t), u(t))
62CHAPITRE 3. CONTRÔLE OPTIMAL EN TEMPS CONTINU : PRINCIPE DU MAXIMUM
maxHC
u
• Condition de transversalité :
a) m(T ) = 0 (droite terminale verticale),
b) m(T ) ≥ 0, [x(T ) − xmin ]m(T ) = 0, (droite terminale verticale tronquée),
c) HC (T ) = 0 ⇐⇒ G(T, x(T ), u(T )) + m(T )f (T, x(T ), u(T )) = 0, (droite terminale horizon-
tale).
Exemple 3.5.1
Considérons le problème
RT
max J(K, I) =
0
e−ρt [Π(K)C (I)]dt
K̇ = I
K(0) = K0 .
HC = Π(K) − C(I) + mI
∂HC
o= ⇔ −C ′ (I) + m = 0 (i)
∂I
∂H − C
K̇ = ⇔ K̇ = I (ii)
∂m
∂h − C
ṁ = − + ρm ⇔ ṁ = −Π′ (K) + ρm (iii)
∂m
La version hamiltonien courant est autonome[la variable temps n’intervient pas de façon ex-
plicite dans les équations].
(i) donne m = C ′ (I) > 0 et donc dm
dI
= C ′′ (I) > 0 Ainsi m est strictement croissant relativement
à I.
Elle possède donc une fonction réciproque ψ = C ′−1 ⇒ I = ψ(m) avec ψ ′ > 0. combiné avec
(ii) cela devient
K̇ = ψ(m).
La résolution du système
ṁ = −Π′ (K) + ρm
K̇ = ψ(m)
permettra de trouver ensuite la variable de contrôle optimale I α .
Si F est concave en (x, u), f linéaire en (x, u) et A concave, alors les conditions nécessaires
d’optimalité sont aussi suffisantes.
Preuve : Soit (x, u) réalisable et associée à λ vérifiant les conditions nécessaires d’optimalité.
Considérons (y, v) une solution réalisable du problème. On a :
Z t1
J(y, v) − J(x, u) = [F (t, y, v) − F (t, x, u)]dt + A(y(t1)) − A(x(t1 )).
t0
64CHAPITRE 3. CONTRÔLE OPTIMAL EN TEMPS CONTINU : PRINCIPE DU MAXIMUM
Or Z Z
t1 t1
−λ̇(t)(y(t) − x(t))dt = −λ(t1 )[y(t1 ) − x(t1 )] + [ẏ(t) − ẋ(t)]dt
t0 t0
soit
Z t1 Z t1
−λ̇(t)(y(t) − x(t))dt = −λ(t1 )(y(t1) − x(t1 )) + λ(t)[f (t, y, v) − f (t, x, u)]dt.
t0 t0
On a aussi
A(y(t1 )) − A(x(t1 )) ≤ A′ (x(t1 ))[y(t1 ) − x(t1 )]
car A est concave. Alors
Rt
J(y, v) − J(x, u) ≤ t01 λ(t)[f (t, y, v) − f (t, x, u) − fx (t, x, u)(y − u)
−fu (t, x, u)(v − u)]dt + [A′ (x(t1 )) − λ(t1 )][y(t1 ) − x(t1 )].
Or l’intégrante du second membre est nulle si f est linéaire en (x, u). Donc
Par conséquent J(y, v) − J(x, u) ≤ 0. Donc (x, u) est une solution optimale.
Exemple 3.5.2
Considérons le problème
R T −ρt
max
J(K, I) = 0
e [Π(K) − C(I)]dt.
K̇ = I
K(0) = K0 , T donné
où
Π(K) < 0, C ′ (I) > 0 et C ′′ (I) > 0.
On remarque que
Théorème 3.5.2 Si F et f sont concaves en (x, u), A concave et si (x, u) est une solution
réalisable ayant un multiplicateur λ ≥ 0 vérifiant les conditions nécessaires d’optimalité, alors
(x, u) est optimale.
66CHAPITRE 3. CONTRÔLE OPTIMAL EN TEMPS CONTINU : PRINCIPE DU MAXIMUM
Chapitre 4
Programmation dynamique
4.1 Introduction
La programmation dynamique est une méthode d’optimisation procédant par énumération
implicite des solutions. Bien que déjà pratiquée auparavant, elle est élévée au rang de méthode
générale de résolution avec les travaux de Bellman qui a formalisé l’approche et l’a baptisée.
Cette approche permet de résoudre efficacement des problèmes de décision séquentiels, c’est-
à-dire pour lesquels on désire minimiser ou maximiser un critère séparable en temps, le long
d’une trajectoire. Plus généralement, elle consiste à aborder les problèmes d’optimisation avec
une stratégie consistant en deux points essentiels :
- décomposer le problème en une séquence de problèmes,
- établir une relation de récurrence entre les solutions optimales des problèmes.
Cette méthode d’énumération extrêmement efficace et robuste est basée sur le principe d’op-
timalité de Bellman qui a été enoncé sous sa forme actuelle par Richard Bellman. Ce principe est
à première vue totalement évident. Il s’énonce comme suit :
Principe d’optimalité de Bellman
Dans un processus d’optimisation dynamique, une suite de décisiosn est optimale si, quel que
soient l’état et l’instant considérés sur la trajectoire qui lui est associée, les décisions ultérieures
constituent une suite optimale de décisions pour le sous problème dynamique ayant cet état et cet
instant comme conditions initiales.
67
68 CHAPITRE 4. PROGRAMMATION DYNAMIQUE
nP o
T −1
sup t=0 vt (xt , xt+1 ) + vT (xT )
0 x ∈ A donné
x =
xt ∈ A
xt+1 ∈ Γt (xt )
t = 0, · · · , T − 1
T s’appelle l’horizon du problème,
A est l’espace des états,
Γt est une correspondance de A, (ie une application de A dans l’ensemble des parties de A)
qui modélise les contraintes sur la dynamique
vt est une fonction de A × A → R ce sont les payoffs (profits) des périodes et vT est le profit
terminal.
Sans perte de généralités, on supposera que vT = 0.
On note graph(Γt ) le graphe de la correspondance Γ − t c’est-à-dire :
graph(Γt ) = {(x, y) ∈ A × A : y ∈ Γt (x)}.
On supposera que les correspondances Γt sont à valeurs non vides ie Γt (x) 6= ∅, pour tout
x ∈ A.
Concernant l’existence de solutions, remarquons que si l’on suppose que A est un espace
métrique compact, que pour t = 0, · · · , T − 1, graph(Γt ) est fermé (donc compact dans A × A) et
que vt ∈ C 0 (graph(Γt ), R), alors il est évident que ces conditions assurent que le problème admet
au moins une solution optimale.
Notons que ces conditions sont toujours satisfaites dans le cas où l’espace d’état A est fini.
PT −1 x ∈ Γt (xt )
V (1, x) = sup t=1 vt (xt , xt+1 ) : t+1 (P1 )
x1 = x
..
.
PT −1 x ∈ Γt (xt )
V (i, x) = sup t=i vt (xt , xt+1 ) : t+1 (Pi )
xi = x
..
.
V (T, x) = vT (x) = 0
On dira que (x0 , x1 , · · · , xT ) = (x, x1 , · · · , xT ) est solution optimale du problème (P0 ) si cette
suite est réalisable et
T −1
X
V (0, x) = vt (xt , xt+1 )
t=0
4.2. PROGRAMMATION DYNAMIQUE EN TEMPS DISCRET : OPTIMISATION COMBINATOIRE69
C) Stratégie de résolution
En utilisant la proposition (4.2.2) et la relation terminale V (T, x) = vT (xT ), pour x ∈ A, il
est possible (au moins en théorie mais aussi en pratique dans certaines applications), de calculer
toutes les fonction-valeurs en partant de la date finale T (backward induction). En ”remontant”
les équations, on calcule d’abord V (T − 1, ·) :
C E′
2 3 2 6
B D F′
3 1 5 5 4 10
A C′ E G
3 6 8 4 7 3
B′ D′ F
4 3 7 5
C ′′ E ′′
On s’intéresse au problème qui consiste à trouver le chemin le plus court allant de A à G.
4.3. PROGRAMMATION DYNMIQUE EN TEMPS DISCRET : PROBLÈMES DE COMMANDE71
où les indices n ∈ N désignent les instants (discrets), l’instant N ∈ N∗ étant l’horizon du problème,
xn est l’état du système à l’instant n, un est le contrôle, c’est-à-dire la décision prise à l’instant n,
fn est la dynamique du problème à l’instant n.
Nous supposerons que l’état du système vit dans un ensemble X fixé (i.e. xn ∈ X pour tout
n)., le contrôle à l’instant n dans un ensemble Un (un ∈ Un pour tout n) et fn : X × Un → X pour
tout n. La condition initiale x̄ ∈ X du système est fixée.
En général, dans un problème de contrôle optimal discret, on cherche à minimiser un coût
N
X −1
min Fn (xn , un ) + g(xN )
un
n=0
sur tous les choix possibles des paramètres u0 , · · · , uN −1 . La quantité Fn (xn , un ) est le coût courant
à l’instant n, g étant le coût terminal : Fn : X × Un → R, g : X → R.
On peut parfois avoir affaire à des problèmes en horizon infini (c’est-à-dire N = +∞). Il n’y a
alors pas de paiement terminal et le problème est généralement escompté par un taux d’escompte
r ∈]0, 1[ (dont la signification est qu’une unité monétaire aujourd’hui vaut r unités monétaires
demain) :
X+∞
min r n F (xn , un )
un
n=0
où l’infimum est pris sur les éléments (un ) = (un̄ , · · · , uN −1 ) de Un̄ × · · · × UN −1 et où l’état
(xn )n∈{n̄,··· ,N } est défini par récurrence par
xn̄ = x̄
xn+1 = fn (xn , un ), n = n̄, n̄ + 1, · · · , N − 1
Preuve :
Posons
W (n̄, x) = inf {Fn̄ (x, u) + V (n̄ + 1, fn̄ (x, u))} .
u∈Un̄
puisque xn̄+1 = fn̄ (x, un̄ ). Comme ε est arbitraire, cela montre que V ≥ W .
Inversement, soit un̄ ∈ Un̄ ε-optimal pour W (n̄, x) :
Soit également (un )n≥n̄+1 ε-optimal pour V (n̄ + 1, fn̄ (x, un̄ )) :
N
X −1
V (n̄ + 1, fn̄ (x, un̄ )) + ε ≥ Fn (xn , un ) + G(xN ).
n=n̄+1
Un des principaux intérêts de la fonction valeur est de permettre le calcul des solutions opti-
males.
On a les résultats suivants :
est continue.
4.3. PROGRAMMATION DYNMIQUE EN TEMPS DISCRET : PROBLÈMES DE COMMANDE73
Proposition 4.3.2 Supposons que les Un et X sont des ensembles métriques, que les Un sont
compacts et que les fonctions fn : X × Un → X, Fn : X × Un → R et G : X → R sont continues
pour tout n ∈ {0, · · · , N − 1}. Alors l’application x 7→ V (n, x) est continue.
Preuve :
Cela se montre par récurrence descendante, en utilisant le principe de programmation dy-
namique.La continuité pour n = N est vraie par hypothèse, puisque V (N, x) = G(x) avec G
continue.
Supposons la continuité de V (n + 1, )˙ et montrons celle de V (n, ·). Par programmation dyna-
mique, on a :
V (n, x) = inf {Fn (x, u) + V (n + 1, fn (x, u))} .
u∈Un
Or l’application (x, u) 7→ Fn (x, u) + V (n + 1, fn (x, u)) est continue puisque Fn et fn sont conit-
nues par hypothèses et que V (n + 1, )˙ aussi est continue par hypothèse de récurrence. L’ensemble
Un étant compact, cela implique la continuité de V (n, ·) d’après la proposition (4.3.1). D’où la
proposition.
Définition 4.3.1 Pour tout (n, x) ∈ {0, · · · , N − 1} × X, On appelle un ”feedback optimal”, tout
u∗n (x) ∈ Un vérifiant
Fn (x, u∗n (x)) + V (n + 1, fn (x, u∗n (x))) = inf {Fn (x, u) + V (n + 1, fn (x, u))}.
u∈Un
L’existence d’un tel ”feedback optimal” est assurée par les hypothèses suivantes.
Supposons que les Un et X sont des ensembles métriques, que les Un sont compacts et que
les fonctions fn : X × Un → X, Fn : X × Un → R et G : X → R sont continues pour tout
n ∈ {0, · · · , N − 1}. Alors l’application x 7→ V (n, x) est continue. Dans ce cas, l’application
u 7→ Fn (x, u∗n (x)) + V (n + 1, fn (x, u∗n (x))) est continue sur Un (pour tout x ∈ X) et, comme Un
est compact, a donc un minimum u∗n (x) sur Un .
On a la proposition suivante :
Proposition 4.3.3 Supposons que, pour tout (n, x) ∈ {0, · · · , N − 1} × X, il existe u∗n (x) un
”feedback optimal”.
Soit x̄ une position initiale fixée. Si on définit par récurrence les suites (ūn ) et (x̄n ) par
Cette relation est clairement vraie pour n̄ = 0. Supposons-la pour un certain n̄. En utilisant
d’abord la programmation dynamique puis le choix de u∗ , on a :
V (n̄, x̄n̄ ) = inf {Fn̄ (x̄n̄ , u) + V (n̄ + 1, fn̄ (x̄n̄ , u))} = Fn̄ (x̄n̄ , u∗n̄ (x̄n )) + V (n̄ + 1, fn̄ (x̄n̄ , u∗n̄ (xn̄ )))
u∈Un
74 CHAPITRE 4. PROGRAMMATION DYNAMIQUE
où u∗n̄ (xn̄ ) = ūn̄ et fn̄ (x̄n̄ , un̄∗ (xn̄ )) = x̄n̄+1 . On utilise alors l’hypothèse de récurrence pour obtenir :
Pn̄−1 P
V (0, x̄) = Pn=0 Fn (x̄n , ūn ) + V (n̄, x̄n̄ ) = n̄−1n=0 Fn (x̄n , ūn ) + Fn̄ (x̄n̄ , ūn̄ ) + V (n̄ + 1, x̄n̄+1 )
n̄
= n=0 Fn (x̄n , ūn ) + V (n̄ + 1, x̄n̄+1 ),
ce qui est la relation au rang n̄+1. Par récurrence on en déduit le résultat pour tout n̄ ∈ {0, · · · , N}.
En particulier, pour n̄ = N, on a V (n̄, x̄n̄ ) = G(x̄N ) et donc
N
X −1
V (0, x̄) = Fn (x̄n , ūn ) + G(x̄N ).
n=0
où l’infimum est pris sur les éléments (un )n∈N de U et où l’état (xn )n∈N est défini par récurrence
par
x0 = x̄
xn+1 = f (xn , un ), n ∈ N
P∞ n
Il faut noter que la somme n=0 r L(xn , un ) est bien convergente car F est bornée et r ∈]0, 1[.
Preuve :
Posons
W (x) := inf {F (x, u) + rV (f (x, u))} .
u∈U
(on a utilisé le fait la trajectoire (xn+1 )n≥0 vérifie effectivement la relation de récurrence car f ne
dépend pas de n). Cela prouve que V (x) ≥ W (x).
Inversement, soit u ∈ U ε-optimal pour W (x),(un ) ε-optimal pour V (f (x, u)) et (xn ) la tra-
jectoire associée issue de f (x, u). On définit le contrôle
u si n = 0
ûn :=
un+1 si n ≥ 1
4.3. PROGRAMMATION DYNMIQUE EN TEMPS DISCRET : PROBLÈMES DE COMMANDE75
et notons (x̂n )n≥0 la trajectoire associée issue de x. Alors x̂1 = f (x̂0 , û0 ) = f (x, u) = x0 et donc,
par récurrence, x̂n+1 = xn pour tout n ≥ 0 (on utilise le fait que f ne dépend pas de n). Par
conséquent,
P
W (x) + (1 + r)ε ≥ F (x, u) + rV (f (x, u)) + rε ≥ F (x̂0 ), û0 ) + r +∞ r n F (xn , un )
P+∞ n+1 P+∞ n=0
= F (x̂0 ), û0) + n=0 r F (x̂n+1 , ûn+1 ) = n=0 r n F (x̂n , ûn ) ≥ V (x)
et définissons B(X) comme l’ensemble des applications bornées de X dans R. On rappelle que
B(X), muni de la norme
khk∞ = sup |h(x)| ∀ h ∈ B(X)
x∈X
est un espace de Banach. Définissons l’opérateur (non linéaire) T : B(X) → B(X) par
Preuve : Remarquons d’abord que, lorsque F est bornée, V l’est aussi avec
∞
X kF k∞
kV k∞ ≤ r n kF k∞ ≤ .
n=0
1−r
F (x, u) + rh(f (x, u)) ≤ F (x, u) + rh′ (f (x, u)) + rkh′ − hk∞ .
On en déduit que
T (h)(x) − T (h′ )(x) ≤ rkh′ − hk∞ .
76 CHAPITRE 4. PROGRAMMATION DYNAMIQUE
D’où
|T (h)(x) − T (h′ )(x)| ≤ rkh′ − hk∞ .
En prenant le sup en xinX on obtient finalement
On peut montrer que, si U et X sont des ensembles métriques, si U est compact et si les
fonctions f : X × U → X et F : X × U → R sont continues, alors un tel feedback existe : en effet
la fonction valeur V est alors continue, et la fonction continue u 7→ F (x, u) + rV (f (x, u)) admet
donc un minimum.
Proposition 4.3.4 Soit x̄ une condition initiale. Si on définit par récurrence les suites (ūn ) et
(x̄n ) par
x̄0 = x̄, ūn = u∗n (x̄n ), x̄n+1 = f (x̄n , ūn ),
alors la suite (ūn ) est optimale pour le problème de contrôle discret :
+∞
X
V (x̄) = r n F (x̄n , ūn ).
n=0
Cette relation est clairement vraie pour N = 0. Supposons-la pour un certain rang N et
montrons-la pour N + 1. En utilisant la programmation dynamique on a :
V (x̄N ) = inf u∈U {F (x̄N , u) + rV (f (x̄N , u))} = F (x̄N , u∗(x̄N )) + rV (f (x̄N , u∗ (x̄N )))
= F (x̄N , ūN ) + rV (f (x̄N , ūN )).
On utilise alors l’hypothèse de récurrence :
PN −1 n PN −1 n
V (x̄) = n=0 r F (x̄n , ūn ) + r N V (x̄N ) = n=0 r F (x̄n , ūn ) + r N F (x̄N , ūN ) + r N +1 V (f (x̄N , ūN ))
PN n
= n=0 r F (x̄n , ūn ) + r N +1 V (x̄N +1 ).
4.4. PROGRAMMATION DYNAMIQUE EN TEMPS CONTINU : CALCUL DES VARIATIONS77
Donc la relation est vraie au rang N + 1 et, par récurrence, pour tout N.
Faisons maintenant tendre N vers +∞ dans la relation (4.6). Comme V est bornée et r ∈]0, 1[,
le terme (r N V (x̄N )) tend vers 0 et (4.6) devient :
+∞
X
V (x̄) = r n F (x̄n , ūn ),
n=0
La fonction de coût : la fonction de coût relative à la période de temps restante est définie par :
Z t1
J(t, xt , u) = F (s, x(s), u(s))ds + G(x(t1 )).
t
Le problème (4.10) correspond au cas où l’origine des temps t0 et est donné par V (t0 , x0 ).
L’approche de Bellman consiste à déduire V (t0 , x0 ) à partir de la caractérisation de la fonction
valeur V comme fonction des deux variables t et x.
Théorème 4.5.1 Soient t ∈ [t0 , t1 ] et xt ∈ Rn donnés. Alors, pour tout réel s ∈ [t, t1 ], on a :
Z s
V (t, xt ) = inf F (r, x(r), u(r))dr + V (s, x(s)) .
u∈Ut t
Preuve :
Pour t ∈ [t0 , t1 ], s ∈ [t, t1 ] et xt ∈ Rn fixés, on note
Z s
W (t, xt ) = inf F (r, x(r), u(r))dr + V (s, x(s)) .
u∈Ut t
En remarquant que la fonction ũε , définie comme la restriction de uε à l’intervalle [s, t1 ], est
une variable de contrôle dans Us , on déduit de la définition de J que :
Rs
W (t, xt ) ≤ Rt F (r, x(r), uε (r))dr + V (s, x(s))
s
≤ t F (r, x(r), uε (r))dr + J(t, xt , ũε )
= J(t, xt , uε )
≤ V (t, xt ) + ε,
Théorème 4.5.2 Supposons que la fonction valeur V soit de classe C 1 sur [t0 , t1 ]t imesR n . Alors :
i) V est une sursolution de l’équation de Hamilton-Jacobi :
∂V ∂V
(t, ξ) + H ∗ (t, ξ, (t, ξ)) ≥ 0 pour (t, ξ) ∈ [t0 , t1 [×R n .
∂t ∂x
2) Si de plus la fonction H ∗ est continue, alors V solution de l’équation de Hamilton-Jacobi :
∂V ∂V
(t, ξ) + H ∗ (t, ξ, (t, ξ)) = 0 pour (t, ξ) ∈ [t0 , t1 [×Rn .
∂t ∂x
∂W ∂W
H ∗ (s, x∗ (s), (s, x∗ (s)))) = F (s, x∗ (s), u∗ (s)) + h (s, x∗ (s)), f (s, x∗ (s), u∗ (s))i,
∂x ∂x
alors V = W .