100% ont trouvé ce document utile (1 vote)
223 vues30 pages

Cours Controle Optimal Master 1

Transféré par

Sidy Ly
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
223 vues30 pages

Cours Controle Optimal Master 1

Transféré par

Sidy Ly
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 2

Contrôle Optimal de Problèmes


Elliptiques (EDPs)

On va s’intéresser plus particulièrement à des systèmes dont l’état est décrit par une
équation aux dérivées partielles (EDP) elliptique . On va d’abord préciser dans quel cadre
on se place (théorie variationnelle) et définir rigoureusement ce qu’on entend par solution
faible d’une EDP ou solution au sens des distributions.

2.1 Théorie variationnelle elliptique dans les espaces de Hilbert


Sauf mention du contraire, on considère dans toute la section un espace de Hilbert V de
dual (topologique) V 0 ; on identifiera V à V 0 grâce au théorème de Riesz si nécessaire. On
note k kV la norme de V .

2.1.1 Théorème de Lax-Milgram

On suppose connues les propriétés élémentaires des fonctions et fonctionnelles convexes


ainsi que la notion de Gâteaux-différentiabilité (voir [ET] par exemple). Nous rappelons
toutefois une propriété importante de semi-continuité des fonctionnelles convexes.

Définition 2.1.1 Une fonction J de V dans R ∪ {+∞} est semi-continue inférieurement


(sci) sur V si elle satisfait aux conditions équivalentes :

• ∀a ∈ R, { u ∈ V | J(u) ≤ a } est fermé

• ∀ū ∈ V, lim inf J(u) ≥ J(ū) .


u→ū
28 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

Théorème 2.1.1 Toute fonction convexe sci pour la topologie forte (celle de la norme)
de V est encore sci pour la topologie faible de V . 

En pratique ce résultat s’utilise sous la forme du corollaire suivant :

Corollaire 2.1.1 Soit J une fonctionnelle convexe de V dans R ∪{+∞} sci (par exemple
continue) pour la topologie forte. Si v n est une suite de V faiblement convergente vers
v alors
J(v) ≤ lim inf J(vn ) .
n→+∞


Commençons par un résultat très général de minimisation d’une fonctionnelle convexe sur
un ensemble convexe fermé de V qui généralise celui que nous avons vu dans le chapitre
précédent.

Théorème 2.1.2 On suppose que V est un Banach réflexif. Soit J une fonctionnelle de
V dans R, convexe et semi-continue inférieurement. Soit K un sous-ensemble convexe,
non vide et fermé de V . On suppose que J est propre ( c’est-à-dire qu’il existe un élément
vo de K tel que J(vo ) < +∞. Alors le problème de minimisation suivant :
(
Trouver u tel que
(2.1.1)
J(u) = inf { J(v) | v ∈ K } ,

admet au moins une solution dans l’un des cas suivants :

• soit J est coercive i.e. lim J(v) = +∞,


kvkV →+∞

• soit K est borné.

Si, de plus, J est strictement convexe la solution est unique.

Preuve.- On pose d = inf { J(v) | v ∈ K }; d < +∞, sinon J serait identiquement égale
à +∞ sur K.
Soit une suite minimisante, c’est-à-dire une suite u n de K telle que J(un ) → d. Mon-
trons que cette suite est bornée dans V . Si K est borné, c’est clair. Sinon, on suppose que
J est coercive. Si un n’est pas bornée, on peut en extraire une sous-suite encore notée u n
telle que lim kun kV = +∞. La coercivité de J implique alors que J(u n ) converge vers
n→+∞
+∞ ce qui est en contradiction avec le fait que d < +∞.
V est un Banach réflexif, donc sa boule unité est faiblement compacte; on peut donc
extraire de la suite un une sous-suite encore notée un qui converge faiblement vers u dans
V . On va montrer que u est solution de (2.1.1).
2.1. THÉORIE VARIATIONNELLE ELLIPTIQUE DANS LES ESPACES DE HILBERT 29

Remarquons tout d’abord que K est un ensemble convexe (fortement) fermé, donc faible-
ment fermé (voir [Br] par exemple). Par conséquent la limite faible u de la suite u n de K
est bien un élément de K.
D’autre part, on sait que J est sci; on a donc

un * u dans V ⇒ J(u) ≤ lim inf J(un ) ,


n→+∞

ce qui donne
J(u) ≤ lim inf J(un ) = lim J(un ) = d ≤ J(u) .
n→+∞ n→+∞

On a donc J(u) = d et u ∈ K : u est bien solution.


• Montrons à présent l’unicité lorsque J est strictement convexe; soient u et v deux
u+v
solutions distinctes de (2.1.1). u et v sont dans le convexe K donc aussi. Par
2
conséquent
u+v J(u) + J(v)
d ≤ J( )< =d.
2 2
Il y a contradiction, et de fait la solution est unique. 
Rappelons enfin le Théorème 1.2.9 démontré dans le chapitre 1 :

Théorème 2.1.3 Soient K un sous-ensemble convexe, non vide de V et J une fonction-


nelle de K vers R convexe et Gâteaux-différentiable sur K. Soit u dans V ; alors les deux
conditions suivantes sont équivalentes :
(i) u est solution du problème (2.1.1) .
(ii) u ∈ K et ∀v ∈ K, ∇J(u).(v − u) ≥ 0 .


Une application très importante de ces deux théorèmes est le théorème de Lax-Milgram:

Théorème 2.1.4 Soit V un espace de Hilbert et a une forme bilinéaire continue sur
V × V . On suppose que a est V - elliptique (ou coercive), i.e.:

∃α > 0, ∀v ∈ V a(v, v) ≥ αkvk2V . (2.1.2)

Soit L ∈ V 0 . Alors le problème :


(
Trouver u ∈ V tel que
(2.1.3)
∀v ∈ V a(u, v) = L(v)

a une solution unique.


30 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

Preuve.- On pose
1
∀v ∈ V, J(v) = a(v, v) − L(v) .
2
Il est facile de voir que J est convexe à cause de la bilinéarité de a et de la linéarité de L.
J est strictement convexe grâce à la V -ellipticité de a. La V -ellipticité de a entraı̂ne aussi
la coercivité de J; en effet, nous avons :

J(v) ≥ αkvk2V − L(v) ≥ αkvk2V − kLkV 0 kvkV .

Enfin il est clair que J est continue pour la topologie forte de V , donc sci. De plus comme
elle est convexe, elle est aussi sci pour la topologie faible.
Par conséquent, d’après le théorème 2.1.2 le problème
1
min { a(v, v) − L(v) | v ∈ V } , (2.1.4)
2
admet une solution unique u.
Grâce au Théorème 2.1.3 on peut maintenant caractériser cette solution u dans le cas où
a est symétrique. Un calcul élémentaire montre que

∀v ∈ V ∇J(u).(v − u) = a(u, v − u) − L(v − u) .

Donc la solution u est caractérisée par :

∀v ∈ V a(u, v − u) − L(v − u) ≥ 0 ,

c’est-à-dire
∀v ∈ V a(u, v) = L(v) .
Lorsque a n’est pas symétrique le résultat est encore vrai mais la démonstration est moins
immédiate (elle est en tout cas différente). Nous renvoyons à [DL] Tome VI, p 1206. 
Nous allons interpréter ce résultat. Soit u dans V et A u ∈ V 0 défini par :

V →R
Au : v 7→ a(u, v) .

Soit maintenant l’opérateur A de V dans V 0 défini par

∀u ∈ V Au = Au .

Il est facile de voir que A est linéaire et que le problème (2.1.3) est équivalent à :
(
Trouver u ∈ V tel que
(2.1.5)
Au = L .
On a alors la proposition suivante, conséquence immédiate du théorème de Lax-
Milgram :
2.1. THÉORIE VARIATIONNELLE ELLIPTIQUE DANS LES ESPACES DE HILBERT 31

Proposition 2.1.1 L’opérateur A est un isomorphisme (algébrique et topologique) de V


dans V 0 .

Preuve.- A est linéaire. Le théorème de Lax-Milgram prouve que A est un isomoprhisme


algébrique de V dans V 0 . La continuité de A provient de celle de a; plus précisément, pour
tout u de V :
| hAu, viV 0 ,V | |a(u, v)|
kAukV 0 = sup = sup ≤ kak kukV .
v6=0 kvkV v6=0 kvkV

hu, viV,V 0 désigne le crochet de dualité entre V et V 0 .


On conclut que A−1 est aussi continu grâce au théorème de l’application ouverte. 

Cas particulier important

Soient V et H deux espaces de Hilbert tels que V est inclus dans H avec injection continue.
On suppose également que V est dense dans H. On peut identifier H et H 0 par le théorème
de Riesz et on a grâce à la densité :

V ⊂H ⊂V0 , (2.1.6)

avec injections continues et denses. H s’appelle l’espace pivot.

Remarque 2.1.1 On ne peut pas identifier en même temps V et V 0 et H avec H 0 , car


alors (2.1.6) devient absurde. On ne peut faire qu’une “identification” à la fois; c’est la
précédente qu’on utilisera.

On va voir que sous certaines conditions, on peut considérer l’opérateur continu A de V


dans V 0 , comme un opérateur non borné de D(A) ⊂ V dans H. Nous allons illustrer cela
avec l’exemple A = −∆.
Rappelons tout d’abord quelques propriétés des espaces de Sobolev dont nous aurons
besoin.

2.1.2 Généralités sur les espaces de Sobolev


Pour plus de précisions on pourra se référer à [DL].
Soit Ω un ouvert borné de Rn , (n ≤ 3 en pratique) de frontière régulière Γ. On appelle
D(Ω) l’espace des fonctions C ∞ à support compact dans Ω. Son dual D 0 (Ω) est l’espace
des distributions sur Ω.
∂u
Pour toute distribution u ∈ D 0 (Ω), la dérivée est définie de la manière suivante :
∂xi
32 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

   
∂u def ∂ϕ
∀ϕ ∈ D(Ω) ,ϕ ≡ − u, .
∂xi D 0 (Ω),D(Ω) ∂xi D 0 (Ω),D(Ω)
∂u
On notera indifféremment la dérivée de u au sens des distributions D i u = = ∂i u.
∂xi
si α ∈ Nn , on note D α u = ∂1α1 u · · · ∂nαn u et |α| = α1 + · · · + αn ; on obtient

∀ϕ ∈ D(Ω) hD α u, ϕiD0 (Ω),D(Ω) = (−1)|α| hu, D α ϕiD0 (Ω),D(Ω) .

Définition 2.1.2 On définit les espaces de Sobolev H m (Ω) de la manière suivante :


∂u
H 1 (Ω) = { u ∈ L2 (Ω) | ∈ L2 (Ω), i = 1 · · · n } ,
∂xi
H m (Ω) = { u ∈ D 0 (Ω) | D α u ∈ L2 (Ω), |α| ≤ m } .

Remarque 2.1.2 H o (Ω) = L2 (Ω).

Nous allons énoncer une série de propriétés des espaces de Sobolev, sans démonstration.
On pourra consulter [DL, LM] par exemple.

Proposition 2.1.2 H m (Ω) muni du produit scalaire :


X Z
(u, v)m = D α u(x) D α v(x) dx ,
|α|≤m Ω

est un espace de Hilbert.

Proposition 2.1.3
0
H m (Ω) ⊂ H m (Ω)
et l’injection est continue, pour m ≥ m 0 .

Définition 2.1.3
Ho1 (Ω) = { u ∈ H 1 (Ω) | u|Γ = 0 } .
C’est aussi l’adhérence de D(Ω) dans H 1 (Ω).

∂j u
Hom (Ω) = { u ∈ H 1 (Ω) | = 0, j = 1, · · · , m − 1} ,
∂nj |Γ

où est la dérivée de u suivant la normale extérieure à Γ la frontière de Ω :
∂n
n
∂u X ∂u
= cos(~n, e~i ) ,
∂n ∂xi
i=1

où ~n est la normale extérieure à Γ et Ω est supposé “régulier” (de frontière C ∞ par exem-
ple).
2.1. THÉORIE VARIATIONNELLE ELLIPTIQUE DANS LES ESPACES DE HILBERT 33

Définition 2.1.4 (Dualité) Pour tout m ∈ N, on note H −m (Ω) le dual de Hom (Ω).

Théorème 2.1.5 (Rellich) Si Ω est un ouvert borné de R n , alors pour tout m ∈ N,


l’injection de Hom+1 (Ω) dans Hom (Ω) est compacte .

En particulier l’injection de Ho1 (Ω) dans L2 (Ω) est compacte. En pratique, cela signifie
que toute suite bornée en norme Ho1 (Ω) converge faiblement dans Ho1 (Ω) (après
extraction d’une sous-suite) et fortement dans L 2 (Ω).
Nous allons à présent donner un exemple important d’application du Théorème de
Lax-Milgram pour la résolution de problèmes aux limites.

2.1.3 Problème homogène de Dirichlet


Dans cet exemple on choisit V = Ho1 (Ω) muni du produit scalaire :

n
Z X
(u, v)1 = [(Di u Di v) + uv] dx .
Ω i=1

On se donne la forme bilinéaire suivante


Z X n Z
def
a(u, v) ≡ (Di u Di v) dx = ∇u(x) ∇v(x) dx .
Ω i=1 Ω

a est bilinéaire de V × V dans R; elle est continue car :

|a(u, v)| ≤ kukV kvkV ,

de manière évidente, et symétrique.


a est V -elliptique d’après l’inégalité de Poincaré

∀u ∈ Ho1 (Ω) kuk2L2 (Ω) ≤ Ck∇uk2L2 (Ω) . (2.1.7)

En effet on obtient alors

(1 + C)k∇uk2L2 (Ω) ≥ k∇uk2L2 (Ω) + kuk2L2 (Ω) = kuk21 ,

c’est-à-dire
1
a(u, u) ≥ kuk21 .
1+C
Z
Soit f ∈ H −1 (Ω) et L(v) ≡ f (x) v(x) dx pour tout v de Ho1 (Ω).

On sait que le problème variationnel
Z Z
∀v ∈ Ho1 (Ω) ∇u(x) ∇v(x) dx = f (x) v(x) dx ,
Ω Ω
34 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

admet une solution unique u ∈ Ho1 (Ω).

Quelle est l’interprétation de ce problème variationnel ?

Soit ϕ ∈ D(Ω) ⊂ Ho1 (Ω);


Z
h−∆u, ϕiD0 (Ω),D(Ω) = ∇u(x) ∇ϕ(x) dx = hf, ϕiD0 (Ω),D(Ω) .

On obtient
−∆u = f dans D 0 (Ω) .

Comme u ∈ Ho1 (Ω), on a également : u ≡ 0 sur Γ. Ce problème est le problème de


Dirichlet homogène pour le laplacien :

(
−∆u = f dans Ω
(DH)
u = 0 sur Γ ,

et on a le résultat suivant :

Théorème 2.1.6 L’opérateur −∆ (laplacien) est un isomorphisme de H o1 (Ω) sur H −1 (Ω).


Par ailleurs Ho1 (Ω) ⊂ L2 (Ω) avec injection dense et continue. Donc

Ho1 (Ω) ⊂ L2 (Ω) ⊂ H −1 (Ω) .

On peut considérer (−∆) comme un opérateur non borné à valeurs dans H = L 2 (Ω). Le
domaine de (−∆) est alors

D(−∆) = { u ∈ Ho1 (Ω) | ∆u ∈ L2 (Ω) } .

On montre que si Ω est de frontière assez régulière

D(−∆) = H 2 (Ω) ∩ Ho1 (Ω) ,

et on même le résultat suivant :

Proposition 2.1.4 L’opérateur −∆ est un isomorphisme de H 2 (Ω) ∩ Ho1 (Ω) muni de la


norme du graphe sur L2 (Ω).


2.2. FORMULATION DU PROBLÈME DE CONTRÔLE OPTIMAL 35

Remarque 2.1.3 C’est surtout l’exemple du Laplacien qui nous servira. Toutefois ce qui
précède (en particulier le théorème 2.1.6 ) est encore vrai pour une forme bilinéaire a plus
générale que celle qui induit le Laplacien, pourvu qu’elle vérifie
  
 Z X Z

 a(ϕ, ψ) =

  aij (x)∂i ϕ(x) ∂j ψ(x) dx +
 ao (x) ϕ(x)ψ(x) dx ,

 Ω Ω
ij
(2.1.8)

 avec aij , ao ∈ L∞ (Ω) telles que
 X X
n
ξi2 ) et ao (x) ≥ 0 p.p. dans Ω .

 ∃α > 0 ∀ξ ∈ R aij ξi ξi ≥ α(


ij i

En conclusion, quand on parlera de solutions, ce sera toujours de solutions f aibles ,


i.e. au sens des distributions. On trouvera d’autres exemples dans [Li].

On va maintenant montrer comment contrôler le système via l’équation d’état. On


va introduire une fonction de contrôle, grâce à laquelle on va pouvoir agir sur le système.
L’action ne doit pas se faire n’importe comment mais de manière optimale par rapport à
un critère (ou coût ) donné. Ceci justifie la terminologie de Contrôle Optimal. Nous
allons, à présent modéliser ceci et en donner une traduction mathématique précise.

2.2 Formulation du problème de contrôle optimal


On se donne (comme dans la section précédente) V et H deux espaces de Hilbert tels que

V ⊂H ⊂V0
(2.2.9)
avec injections denses et continues .
On considère également une forme

a bilinéaire, continue et V − elliptique (voir 2.1.2) , (2.2.10)

et on note A l’isomorphisme qu’elle induit de V sur V 0 (voir Théorème 2.1.1).


On se donne successivement

• l’espace de Hilbert U des fonctions de contrôle et un opérateur B ∈ L(U, V 0 ).


Pour chaque contrôle u dans U, l’état du système est donné par y la solution de
l’équation d’état :
Ay = f + Bu , y∈V , (2.2.11)
où f ∈ V 0 . Cette équation donne y en fonction de u de façon unique : on note
y = y(u).
36 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

• l’observation de y :
z(u) = Cy(u) , (2.2.12)

où C ∈ L(V, H) et H est un espace de Hilbert.

• une fonctionnelle coût J :


1 1
∀u ∈ U J(u) = kCy(u) − zd k2H + (N u, u)U , (2.2.13)
2 2
où zd ∈ H est l’état désiré et N est un opérateur linéaire défini positif autoadjoint :

N ∈ L(U, U) et ∃α > 0 tel que (N u, u)U ≥ αkuk2U . (2.2.14)

En pratique on choisit souvent N = αId U .

• un ensemble de contraintes sur le contrôle :

Uad sous-ensemble convexe fermé non vide de U . (2.2.15)

Le problème de contrôle optimal se formule alors de la manière suivante:

(
Trouver u ∈ Uad tel que
(P)
J(u) = min { J(v) | v ∈ Uad } .

Enonçons tout d’abord un résultat d’existence et d’unicité :

Théorème 2.2.1 Sous les hypothèses (2.2.10) et (2.2.14) il existe un unique ū dans U ad
tel que
J(ū) = min { J(v) | v ∈ Uad } .

Preuve.- C’est une application directe du Théorème 2.1.2. Il suffit d’en vérifier les hy-
pothèses.

• Uad est bien non vide, convexe et fermé.

• J est convexe car A est linéaire. Plus précisément, l’application u 7→ y(u) est affine
et donc l’application `(u) = y(u) − y(0) est linéaire.
1 1
J(u) = kC(y(u) − y(0)) + Cy(0) − zd k2H + (N u, u)U
2 2
1 1
= kC`(u) + Cy(0) − zd k2H + (N u, u)U .
2 2
Posons
π(u, v) = (C`(u), C`(v)H + (N u, v)U , et
2.2. FORMULATION DU PROBLÈME DE CONTRÔLE OPTIMAL 37

L(v) = (zd − Cy(0), C`(v)H .

π est bilinéaire et continue et L est linéaire, continue sur U. Comme


1 1
J(v) = π(v, v) − L(v) + kCy(0) − zd k2H
2 2
J est donc convexe. Elle est même strictement convexe car v 7→ π(v, v) l’est, du fait
que N est défini positif.

• L est continue. De plus v 7→ π(v, v) est continue (fort) donc fortement sci; comme
elle est convexe elle est aussi sci faible. Par conséquent J est sci.

• Montrons enfin la coercivité de J.

∀v ∈ U π(v, v) = kC`(v)k2H + (N v, v)U ≥ (N v, v)U ≥ νkvk2U .

De plus
L(v) ≤ |L(v)| ≤ kCy(0) − zd kH kCkkl(v)k ≤ co kvkU ;

Par conséquent
ν 1
J(v) ≥ kvk2U − co kvkU + kCy(0) − zd k2H ,
2 2
ce qui montre bien la coercivité.

Remarque 2.2.1 On a le même résultat d’existence si N ≡ 0, à condition de supposer


Uad borné dans U. L’unicité en revanche dépend de la stricte convexité de J et des pro-
priétés de C.

Que faire maintenant ?

On sait que le contrôle optimal existe et est unique : il faut donc se donner les moyens
de le calculer; ceci va se faire en deux temps :

1. On va d’abord établir des conditions nécessaires (et si possible suffisantes) d’optimalité,


essentiellement par dérivation.

2. Il faudra ensuite exploiter les équations obtenues pour obtenir des informations sur
le contrôle optimal, et/ou mettre en place des méthodes numériques permettant de
le calculer.
38 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

2.3 Conditions d’optimalité du premier ordre


Il s’agit de donner une caractérisation du contrôle optimal; pour cela on va appliquer le
Théorème 2.1.3. Il suffit de montrer que la fonctionnelle J est Gâteaux-différentiable et
de calculer sa Gâteaux-différentielle. Ainsi nous aurons la caractérisation désirée, à savoir

ū est le contrôle optimal ⇔ ∀v ∈ Uad ∇J(ū).(v − ū) ≥ 0 .

Lemme 2.3.1 La fonctionnelle J définie précédemment est Gâteaux-différentiable sur U


et

∀v ∈ Uad ∇J(u).(v − u) = (Cy(u) − zd , C(y(v) − y(u)))H + (N u, v − u)U .

Preuve.- On a vu que A est un isomorphisme de V sur V 0 , et donc l’équation d’état s’écrit

y(u) = A−1 (f + Bu) .

(On vérifie bien que l’application u 7→ y(u) est affine de H dans V ).


Soient u et w dans U, et calculons
J(u + tw) − J(u)
lim .
t→0+ t
1 1
J(u + tw) = kCy(u + tw) − zd k2H + (N (u + tw), (u + tw))U .
2 2

Cy(u + tw) = C[A−1 f + A−1 B(u + tw)] = Cy(u) + tCA−1 Bw .

kCy(u + tw) − zd k2H = kCy(u) − zd + tCA−1 Bwk2H ,



= kCy(u) − zd k2H + t2 kCA−1 Bwk2H + 2t Cy(u) − zd , CA−1 Bw H
.
De même

(N (u + tw), u + tw)U = (N u, u)U + t2 (N w, w)U + 2t(N u, w)U

car N est symétrique. Finalement


J(u + tw) − J(u) t  
= kCA−1 Bwk2H + (N w, w)U + Cy(u) − zd , CA−1 Bw H +(N u, w)U ,
t 2
et par passage à la limite quand t → 0 + on obtient

∀u, w ∈ U J 0 (u).w = Cy(u) − zd , CA−1 Bw H + (N u, w)U .

En prenant w = v − u et en remarquant que A −1 B(v − u) = y(v) − y(u) on a le résultat


annoncé. 
Finalement
2.3. CONDITIONS D’OPTIMALITÉ DU PREMIER ORDRE 39

Théorème 2.3.1 ū est contrôle optimal si et seulement si

∀v ∈ Uad ∇J(ū).(v − ū) = (Cy(ū) − zd , C(y(v) − y(ū)))H + (N ū, v − ū)U ≥ 0 (2.3.16)


Nous allons transformer l’inéquation précédente pour la rendre plus facilement “exploitable”.
On va commencer par un exemple “standard”.

2.3.1 Cas d’un contrôle distribué et du problème de Dirichlet


On choisit V = Ho1 (Ω) et H = L2 (Ω) ( on rappelle que V 0 = H −1 (Ω)). La forme bilinéaire
est donnée par (2.1.8) :
  
 Z X Z



 a(ϕ, ψ) =  aij (x)∂i ϕ(x) ∂j ψ(x) dx +
 ao (x) ϕ(x)ψ(x) dx ,

 Ω Ω
ij

 avec aij , ao ∈ L∞ (Ω) telles que
 X X
n
ξi2 ) et ao (x) ≥ 0 p.p. dans Ω .



 ∃α > 0 ∀ξ ∈ R a ξ ξ
ij i i ≥ α(
ij i

L’opérateur A associé est l’opérateur elliptique du deuxième ordre :


X ∂  ∂ϕ 
Aϕ = − aij + ao ϕ ,
∂xi ∂xj
i,j

Pour simplifier la présentation on va prendre A = −∆.


On choisit U = H = L2 (Ω) et f ∈ H. Le contrôle est dit distribué car il agit dans
tout le domaine Ω. On prend également

N = α Id ( où α > 0), B = Id, C est l’injection canonique de V dans H ≡ H et z d ∈ H ;

ainsi la fonctionnelle coût est


Z Z
1 2 α
J(v) = (y(x, v) − zd (x)) dx + v 2 (x) dx ,
2 Ω 2 Ω
où y(·, v) est l’état du système associé au contrôle v donné par

−∆ y(v) = f + v (∈ L2 (Ω)), y ∈ Ho1 (Ω) .

Le problème
min J(v) , v ∈ Uad ,
admet une solution unique ū et d’après le Théorème (2.3.1), ū est contrôle optimal si et
seulement si
Z Z
∀v ∈ Uad ∇J(ū).(v − ū) = (ȳ − zd )(y(v) − ȳ) dx + α ū (v − ū) dx ≥ 0 , (2.3.17)
Ω Ω
40 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

ȳ désignant l’état y(ū) associé à ū.


On définit l’état adjoint p̄ comme étant la solution du problème adjoint suivant :
A∗ p̄ = zd − ȳ (∈ L2 (Ω)), p̄ ∈ Ho1 (Ω) , (2.3.18)
où A∗ désigne l’opérateur adjoint de A. Notons que ce problème admet une solution
unique. D’autre part, dans notre cas A est un opérateur autoadjoint. Grâce à cette
définition, on obtient
Z Z
(ȳ − zd )(y(v) − ȳ) dx = ∆p̄ (y(v) − ȳ) dx .
Ω Ω
On peut alors appliquer la formule de Green (intégration par parties). En effet p̄, ȳ et
y(v) sont dans Ho1 (Ω). On a donc
Z Z Z
∆p̄ [y(v) − ȳ] dx = − ∇p̄ ∇(y(v) − ȳ) dx = p̄ [∆ (y(v) − ȳ)] dx .
Ω Ω Ω
Remarquons qu’on n’a pas de termes de bord car les fonctions envisagées sont dans H o1 (Ω).
Si les fonctions étaient dans H 1 (Ω) il faudrait définir “proprement” (c’est-à-dire par den-
sité) les traces des fonctions de H 1 (Ω) sur le bord de Ω ainsi que la dérivée normale de
ces fonctions.
Finalement, il vient, pour tout v ∈ U ad
Z Z
(−p̄) [−∆(y(v) − ȳ)] dx + α ū (v − ū) dx ≥ 0 ,
Ω Ω
c’est-à-dire avec l’équation d’état
Z
(αū − p̄) (v − ū) dx ≥ 0 . (2.3.19)

La solution du problème de contrôle optimal est donc caractérisée par le système suivant,
dit système d’optimalité du premier ordre .

 −∆ ȳ = ū dans Ω, ȳ = 0 sur ∂Ω

−∆ p̄ = zd − ȳ dans Ω, p̄ = 0 sur ∂Ω (2.3.20)


(αū − p̄, v − ū)L2 (Ω) ≥ 0, ∀v ∈ Uad
Remarque 2.3.1 L’inéquation (2.3.19) est en réalité l’expression d’une projection sur
Uad et peut s’écrire comme une équation via l’opérateur de projection π Uad de L2 (Ω) sur
Uad . En effet
(αū − p̄, v − ū)L2 (Ω) ≥ 0, ∀v ∈ Uad
s’écrit  

ū − , v − ū ≥ 0, ∀v ∈ Uad
α L2 (Ω)
c’est-à-dire

ū = πUad ( ) .
α
2.3. CONDITIONS D’OPTIMALITÉ DU PREMIER ORDRE 41

2.3.2 Cas général


Nous allons maintenant passer au cas général (plus abstrait). Soit toujours ū la solution
(unique) du problème de contrôle optimal et ȳ = y(ū) l’état associé. Nous savons que

∀v ∈ Uad (C ȳ − zd , C[y(v) − y(ū)])H + (N ū, v − ū)U ≥ 0 ,

c’est-à-dire avec l’équation d’état et le fait que A est un isomorphisme de V dans V 0



∀v ∈ Uad C ȳ − zd , CA−1 B(v − ū) H
+ (N ū, v − ū)U ≥ 0 . (2.3.21)

Formellement, on a envie de prendre l’adjoint de CA −1 B (ce qu’on va effectivement faire).


Faisons tout d’abord un bref rappel sur les opérateurs adjoints.
Considérons d’abord C : V → H. Comme H est un espace de Hilbert, il est identifiable
à son dual H0 : on note Λ l’isomorphisme canonique entre H et son dual. L’isomorphisme
Λ : H → H0 vérifie donc :

∀(z1 , z2 ) ∈ H2 (z1 , z2 )H = hz1 , Λz2 iH,H0 (crochet de dualité) .

Par exemple, si H = L2 (Ω) alors Λ = IdL2 (Ω) mais ce n’est pas toujours le cas bien sûr.
L’isomorhisme Λ entre Ho1 (Ω) et H −1 (Ω) est l’opérateur −∆. Dans ce cas, si (z 1 , z2 ) ∈
Ho1 (Ω) × Ho1 (Ω), nous avons
Z Z
(z1 , z2 )H = ∇z1 ∇z2 = z1 (−∆z2 ) dx ,
Ω Ω

(z1 , z2 )H = “ (z1 , −∆z2 )00L2 (Ω) = hz1 , −∆z2 iHo1 ,H −1 ,

car L2 (Ω) est ici l’espace pivot H entre V = H o1 (Ω) et V 0 et

hz, wiV,V 0 = (z, w)H si w ∈ H .

Soit C ∗ l’adjoint de C. C ∗ est défini de H0 dans V 0 et nous avons

∀z ∈ H, ∀ϕ ∈ V (z, Cϕ) H = hΛz, CϕiH0 ,H = hC ∗ Λz, ϕiV 0 ,V .

Appliquons cette relation à (2.3.21) : il vient

∀v ∈ Uad C ∗ Λ(C ȳ − zd ), A−1 B(v − ū) V 0 ,V


+ (N ū, v − ū)U ≥ 0 . (2.3.22)

On définit alors l’état adjoint p̄ par

A∗ p̄ = C ∗ Λ(zd − C ȳ) , (2.3.23)


42 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

où A∗ est l’adjoint de A. Rappelons que A est défini de V dans V 0 et A∗ de V dans V 0


également (car V est réflexif) et que

∀(ϕ, ψ) ∈ V × V hA∗ ϕ, ψiV 0 ,V = hϕ, AψiV,V 0 = a(ϕ, ψ) .

A∗ est aussi un isomorphisme de V sur V 0 de sorte que l’état adjoint est défini de manière
unique. On obtient alors

∀v ∈ Uad −A∗ p̄, A−1 B(v − ū) V 0 ,V


+ (N ū, v − ū)U ≥ 0 ,

et donc
∀v ∈ Uad − hp̄, B(v − ū)iV,V 0 + (N ū, v − ū)U ≥ 0 .

De la même façon, soit ΛU l’isomorphisme canonique entre U et U 0 et B ∗ : V → U 0


l’opérateur adjoint de B. On obtient


∀v ∈ U, ∀y ∈ V hy, BviV,V 0 = hB ∗ y, viU 0 ,U = Λ−1 ∗
U B y, v U
.

Finalement, nous avons


∀v ∈ Uad N ū − Λ−1 ∗
U B p̄, v − ū U
≥0. (2.3.24)

Nous obtenons donc le résultat “abstrait” suivant

Théorème 2.3.2 Soit A un opérateur associé à une forme bilinéaire vérifiant les hy-
pothèses du Théorème 2.1.4. Une condition nécessaire et suffisante pour que ū soit contrôle
optimal est que les (in)équations suivantes soient vérifiées:

A ȳ = f + B ū, (2.3.25a)

A∗ p̄ = C ∗ Λ (zd − C ȳ) , (2.3.25b)


ū ∈ Uad et N ū − Λ−1 ∗
U B p̄, v − ū U
≥ 0 , ∀v ∈ Uad . (2.3.25c)

Ces relations forment un système d’optimalité du premier ordre.

Ce système d’optimalité est tout-à-fait analogue au système obtenu dans le chapitre


précédent (Théorème 1.2.10).
2.3. CONDITIONS D’OPTIMALITÉ DU PREMIER ORDRE 43

2.3.3 Quelques exemples de contraintes sur le contrôle


Cas sans contraintes

Nous examinons ici le cas où Uad = U. La condition (2.3.25c) donne alors

Λ−1 ∗
U B p̄ − N ū = 0 .

On peut donc calculer le contrôle optimal en résolvant le système d’EDPs linéaires couplées
suivant (
A ȳ − B N −1 Λ−1 ∗
U B p̄ = f ,
A∗ p̄ + C ∗ Λȳ = C ∗ Λzd ,
et en posant ū = N −1 Λ−1 ∗
U B p̄.
Dans le cas du problème de Dirichlet homogène on obtient précisément

 −∆ ȳ − p̄ = f ,
α
 −∆ p̄ + ȳ = z ,
d


et ū = . Remarquons qu’on a un résultat supplémentaire de régularité dans ce cas
α
là. En effet, comme f et ū sont dans L 2 (Ω) alors ȳ ∈ H 2 (Ω) ∩ Ho1 (Ω). De même p̄ ∈
H 2 (Ω) ∩ Ho1 (Ω). Par conséquent ū ∈ H 2 (Ω).
On peut ainsi, au cas par cas obtenir des résulats de régularité sur le contrôle.

Cas où Uad est un cône positif

Nous nous plaçons dans le cas d’un problème de contrôle gouverné par une équation de
Dirichlet homogène de sorte que le système d’optimalité est de la forme

 A ȳ = ū dans Ω, ȳ = 0 sur ∂Ω

A∗ p̄ = zd − ȳ dans Ω, p̄ = 0 sur ∂Ω


(αū − p̄, v − ū)L2 (Ω) ≥ 0, ∀v ∈ Uad
On suppose que
Uad = { v ∈ L2 (Ω) | v ≥ 0 p.p. dans Ω } .
Soit ϕ ∈ L2 (Ω), ϕ ≥ 0 et posons v = ū + ϕ. La troisième inéquation du système
d’optimalité devient Z
∀ϕ ≥ 0 (αū − p̄) ϕ dx ≥ 0 ,

et par conséquent αū − p̄ ≥ 0 p.p. dans Ω.
Prenons successivement v = 2ū ≥ 0 et v = 0 dans la troisième inéquation du système
d’optimalité : nous obtenons Z
(αū − p̄) ū dx = 0 .

44 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

Comme (αū − p̄) ū est une fonction positive presque partout cela implique que

(αū − p̄)(x) ū(x) = 0 presque partout dans Ω .

Cette relation est une relation de complémentarité. Nous allons préciser encore : posons

Ωo = { x ∈ Ω | ū(x) = 0 } et Ω+ = { x ∈ Ω | ū(x) > 0 } .

Il est clair que Ω = Ωo ∪ Ω+ à un ensemble de mesure nulle près.



Sur Ω+ , ū > 0 et donc αū − p̄ = 0. On obtient donc ū = et plus généralement
α
1
ū = sup(0, p̄) .
α
En effet sur Ωo , ū = 0 et donc p̄ ≤ 0. Sur Ω+ , p̄ = αū > 0. Finalement le contrôle optimal
est obtenu en résolvant le système suivant :

1


 Aȳ − sup(0, p̄) = f , ȳ = 0 sur ∂Ω ,
 α
A∗ p̄ + ȳ = zd , p̄ = 0 sur ∂Ω ,

 ū = 1 sup(0, p̄)


α
On pourra traiter à titre d’exercice le cas où

Uad = { v ∈ L2 (Ω) | ξo ≤ v ≤ ξ1 p.p. dans Ω } ,

où ξo , ξ1 sont donnés dans L∞ (Ω)

2.3.4 Cas d’un système gouverné par un problème de Neumann


Nous nous placons maintenant dans la cas où V = H 1 (Ω) et H = L2 (Ω). On choisit la
forme bilinéaire a comme dans le théorème de Lax-Milgram. Par conséquent

∀L ∈ V 0 , ∃!y ∈ V a(y, ϕ) = L(ϕ), ∀ϕ ∈ V .

Prenons

U = L2 (Ω), H = L2 (Ω), B = I, C injection canonique de V dans L 2 (Ω),


1
f ∈ L2 (Ω) et g ∈ H − 2 (∂Ω) .

La forme linéaire L est choisie comme suit


Z Z
L(ϕ) = f (x) ϕ(x) dx + g(γ) ϕ(γ) dγ .
Ω Γ
2.3. CONDITIONS D’OPTIMALITÉ DU PREMIER ORDRE 45

Cette définition a bien un sens car toute fonction ϕ de H 1 (Ω) possède une trace au bord
1
qui appartient (quasiment
Z par définition) à l’espace H 2 (Γ) dont le dual est précisément
1
H − 2 (Γ). Le terme g(γ) ϕ(γ) dγ . est en fait hg , ϕΓ i − 12 12 . L’équation d’état est alors
Γ H ,H
Z
∀ϕ ∈ H 1 (Ω) a(y, ϕ) = L(ϕ) + u(x) ϕ(x) dx ,

ce qui s’interprète 
 A y = f + u dans Ω
∂y
 =g sur Γ .
∂νA
C’est un problème de Neumann . La dérivée normale par rapport à A a été définie
précédemment. Nous avons toujours un contrôle distribué et nous gardons la même fonc-
tionnelle coût J. Appliquons le théorème général 2.3.2.
• ΛU = IdL2 (Ω) et Λ = IdL2 (Ω) .

• Comme C est l’injection canonique de V = H 1 (Ω) dans L2 (Ω), l’adjoint C ∗ est


l’injection canonique de L2 (Ω) dans V 0 (qui n’est pas H −1 (Ω) !!). Par conséquent ,
C ∗ ΛC = C ∗ C : V → V 0 est l’injection canonique de V dans V 0
La relation (2.3.25b) donne : A∗ p̄ = zd − ȳ (a priori dans V 0 mais en réalité dans L2 (Ω)
si on choisit zd ∈ L2 (Ω)). Interprétons cette relation :
∀ϕ ∈ V hA∗ p̄ , ϕiV 0 ,V = hzd − ȳ , ϕiV 0 ,V = (zd − ȳ , ϕ)H .
Donc Z

hA p̄ , ϕiV 0 ,V = (zd − ȳ)(x) ϕ(x)/, dx ,

∂ p̄
et il n’y pas de terme de bord : donc = 0 sur Γ. On obtient finalement la
∂νA∗
carctérisation suivante : ū est contrôle optimal si et seulement si
∂ ȳ
A ȳ = f + ū dans Ω , = g sur Γ . (2.3.26a)
∂νA
∂ p̄
A∗ p̄ = zd − ȳ dans Ω , = 0 sur Γ . (2.3.26b)
∂νA∗
Z
ū ∈ Uad et (α ū − p̄) (v − ū) dx ≥ 0 , ∀v ∈ Uad . (2.3.26c)

On peut retrouver ce résultat par un calcul direct avec la formule de Green.
Pour être complet il faudrait étudier le cas de contrôles frontières qui est le cas de loin
le plus réaliste en pratique. Nous ne le ferons pas car cette étude nécessite la mise en
place d’outils d’analyse fonctionnelle élaborés. Il faut en effet introduire les espaces et les
opérateurs de trace pour définir correctement les problèmes. Le lecteur intéressé pourra
consulter [Li].
46 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

2.4 Interprétation Lagrangienne


Dans tout ce qui suit on prendra l’exemple d’un problème de contrôle distribué pour un
système décrit par un problème de Dirichlet homogène. Plus précisément : Ω est un ouvert
borné de Rn , n ≤ 3, de frontière (régulière) Γ et on étudie le problème
 Z Z
1 2 α
 min J(y, u) = 2 (y − zd ) dx + 2

 u2 dx ,
Ω Ω
(P) −∆ y = f + u dans Ω , y = 0 sur Γ ,



u ∈ Uad

avec f, zd ∈ L2 (Ω), u ∈ L2 (Ω) et α > 0 (ou Uad est borné dans L2 (Ω)). Remarquons que y
a une propriété de régularité supplémentaire car f +u ∈ L 2 (Ω) et −∆ est un isomorphisme
def
de X ≡ H 2 (Ω) ∩ Ho1 (Ω) sur L2 (Ω). Par conséquent X qui est l’espace d’état “naturel”.
Rappelons aussi que lorsque n ≤ 3, alors X ⊂ C o (Ω).
On a vu que si ū est solution, une CNS est

 −∆ ȳ = ū dans Ω, ȳ = 0 sur ∂Ω

(S) −∆ p̄ = zd − ȳ dans Ω, p̄ = 0 sur ∂Ω


(αū − p̄, v − ū)L2 (Ω) ≥ 0, ∀v ∈ Uad

C’est une condition nécessaire et suffisante car nous sommes dans le cadre convexe: J
est convexe et les contraintes sont affines. Nous allons interpréter le système (S) en termes
de Lagrangien.
On définit le Lagrangien du problème sur X × L 2 (Ω) × L2 (Ω) par

L(y, v, q) = J(y, v) + ( p , −∆ y − f − v)L2 (Ω) ;

c’est en fait un Lagrangien “partiel” car on n’a pas inclus les contraintes sur v.
L est convexe en (y, v) et linéaire en q. D’autre part c’est une fonction C 1 et on a pour
tous (z, v) ∈ X × L2 (Ω)

∇(y,v) L(ȳ, ū, q)(z, v) = ( ȳ − zd , z)L2 (Ω) + α ( ū , v)L2 (Ω) + ( q , −∆z − v)L2 (Ω)

c’est-à-dire avec (S)

∇(y,v) L(ȳ, ū, q)(z, v) = ( ∆p̄ , z)L2 (Ω) + ( q , −∆z)L2 (Ω) + ( α ū − q , v)L2 (Ω)

∇(y,v) L(ȳ, ū, q)(z, v) = ( −p̄ + q , −∆z)L2 (Ω) + ( α ū − q , v)L2 (Ω) .

En particulier
∇(y,v) L(ȳ, ū, p̄)(z, v) = ( α ū − p̄ , v) L2 (Ω)
2.4. INTERPRÉTATION LAGRANGIENNE 47

et donc

∀(z, v) ∈ X × Uad ∇(y,v) L(ȳ, ū, p̄)(z − ȳ, v − ū) = ( α ū − p̄ , v − ū) L2 (Ω) (2.4.27)

Comme L(·, ·, p̄) est convexe, cela signifie qu’il atteint son minimum en (ȳ, ū) :

∀(z, v) ∈ X × Uad L(ȳ, ū, p̄) ≤ L(z, v, p̄) . (2.4.28)

De même, pour tout q ∈ L2 (Ω)

L(ȳ, ū, q) = J(ȳ, ū) + ( q , −∆ ȳ − f − ū) L2 (Ω) = J(ȳ, ū) = L(ȳ, ū, p̄) .

Finalement

∀(z, v, q) ∈ X × Uad × L2 (Ω) L(ȳ, ū, p̄) ≤ L(ȳ, ū, p̄) ≤ L(z, v, p̄) . (2.4.29)
|{z} |{z}
a b

Le triplet (ȳ, ū, p̄) est un point-selle de L sur X × U ad × L2 (Ω). L’état adjoint p̄ est le
multiplicateur de Lagrange associé à la contrainte :−∆y = f + v.
Réciproquement.- Supposons que (ȳ, ū, p̄) est un point-selle de L sur X × U ad × L2 (Ω).
Donc (ȳ, ū, p̄) ∈ X × Uad × L2 (Ω) et la relation (2.4.29) est vérifiée : La condition (a) est
équivalente à

J(ȳ, ū) + ( q , −∆ ȳ − f − ū) L2 (Ω) ≤ J(ȳ, ū) + ( p̄ , −∆ ȳ − f − ū)L2 (Ω) ∀q ∈ L2 (Ω) ,

c’est-à-dire
( q − p̄ , −∆ ȳ − f − ū)L2 (Ω) ≤ 0 ∀q ∈ L2 (Ω) .

Donc −∆ ȳ = f + ū avec ȳ ∈ X et ū ∈ Uad ( l’équation d’état est satisfaite : relation de


réalisabilité).
La condition (b) donne en particulier pour tous (z, v) ∈ X × U ad tels que −∆z = v + f
 

J(ȳ, ū)+( p̄ , −∆ ȳ − f − ū)L2 (Ω) = J(ȳ, ū) ≤ J(z, v)+ p̄ , −∆ z − f − v  = J(z, v) .


| {z }
=0 L2 (Ω)

Par conséquent (ȳ, ū) est solution de (P). Finalement, nous pouvons résumer la situation
dans le théorème suivant :

Théorème 2.4.1 Soit (ȳ, ū) ∈ X × U ad . Les trois propriétés suivantes sont équivalentes
(1) (ȳ, ū) est solution de (P)
(2) On peut trouver p̄ ∈ Ho1 (Ω) tel que (ȳ, ū, p̄) est solution de (S).
(3) On peut trouver p̄ ∈ Ho1 (Ω) tel que (ȳ, ū, p̄) est point-selle du Lagrangien L sur X ×
Uad × L2 (Ω).
48 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

Nous sommes donc ramenés (comme au chapitre précédent) à la recherche de points-


selles pour laquelle il existe des algorithmes spécifiques que nous développerons plus tard.
Remarquons que la contrainte sur le contrôle v ∈ U ad est gardée en l’état. Nous allons
maintenant étudier l’éventuel multiplicateur associé à cette contrainte.

2.5 Conditions d’optimalité incluant toutes les contraintes


Nous avons vu que l’état adjoint est un multiplicateur de Lagrange associé à l’équation
d’état : −∆y − f − v = 0. Lorsque y ∈ Ho1 la quantité −∆y − f − v “vit” dans l’espace
H −1 (Ω) et p̄ ∈ Ho1 (Ω) l’espace dual. En ce sens p̄ est un variable duale (obtenue par
intégration par parties, c’est-à-dire par dualité). Nous allons essayer d’exhiber la variable
duale de la contrainte v ∈ Uad . Pour l’instant nous ne particulariserons pas U ad et nous
allons considérer le cas général. Nous devons au préalable introduire quelques notions de
base d’analyse convexe non lisse.

2.5.1 Sous-différentiel

Dans ce qui suit X est un espace de banach de dual X 0 .

Définition 2.5.1 Soit f : X → R ∪ {+∞} et a ∈ dom f (i.e. f (a) < +∞). Le sous-
différentiel de f en a est l’ensemble ∂f (a) (éventuellement vide ) des d ∈ X 0 tels que

f (x) ≥ f (a) + hd, x − aiX 0 ,X .

Remarque 2.5.1 • f : X → R ∪ {+∞} atteint son minimum en a ∈ dom f si et


seulement si
0 ∈ ∂f (a).

• Si f, g : X → R ∪ {+∞} et a ∈ dom f ∩ dom g, on a

∂f (a) + ∂g(a) ⊂ ∂(f + g)(a) .

• Comme
\
∂f (a) = { d ∈ X 0 | hd, x − aiX 0 ,X ≤ f (x) − f (a) } ,
x∈X

∂f (a) est un sous-ensemble convexe, fermé pour la topologie σ(X 0 , X ) comme intersection
de convexes fermés.
• Pour tout λ > 0 on a ∂(λf )(a) = λ∂f (a) .
2.5. CONDITIONS D’OPTIMALITÉ INCLUANT TOUTES LES CONTRAINTES 49

Dans le cas où f est la fonction indicatrice d’un sous-ensemble non vide K de X :
(
def 0 si x ∈ K ,
f (x) = 1K (x) = ,
+∞ sinon

le sous-différentiel de f est le cône normal de K en a :

∂1K (a) = NK (a) = { d ∈ X 0 | hd, x − aiX 0 ,X ≤ 0 pour tout x ∈ K } .

Enfin la démonstration du résultat suivant est laissée en exercice :

Théorème 2.5.1 Si f : X → R ∪ {+∞} est Gâteaux-différentiable en a ∈ dom f , alors

∂f (a) = {f 0 (a)} .

Pour plus de détails sur ces notions là on peut consulter [Azé]. Nous terminons par un
exemple important.

Cas des contraintes de bornes dans L 2 (Ω)

On choisit X = L2 (Ω) et K un sous-ensemble fermé, convexe non vide de L 2 (Ω) Nous


allons préciser le sous-différentiel de 1 K en u (c’est-à-dire le cône normal à K en u ):

Proposition 2.5.1 Soit u ∈ K. Alors


λ λ
λ ∈ ∂1K (u) ⇐⇒ λ = c [u + − ΠK (u + )]
c c
pour tout c réel strictement positif, où Π K est la projection de L2 (Ω) sur le convexe K.
Dans le cas où

K = { v ∈ L2 (Ω) | a(x) ≤ v(x) ≤ b(x) p.p. dans Ω } ,

où a et b sont des éléments de L∞ (Ω) par exemple, on a


   
λ(x) λ(x)
λ ∈ ∂1K (u) ⇐⇒ λ(x) = c min max 0, u(x) + − b(x) , u(x) + − a(x) p.p. dans Ω .
c c

Démonstration - Remarquons tout d’abord que ∂1 K (u) est un sous-ensemble de L2 (Ω). On


rappelle également que si ΠK est la projection de L2 (Ω) sur le convexe fermé K, l’image
ΠK (w) d’un élément quelconque de L2 (Ω) est caractérisée par

∀v ∈ K (w − ΠK (w), v − ΠK (w))L2 (Ω) ≤ 0 .


50 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)

Soit λ ∈ ∂1K (u): λ est caractérisé par

∀v ∈ K (λ, v − u)L2 (Ω) ≤ 0

c’est-à-dire, pour tout c > 0


 
λ
∀v ∈ K u+ − u,v − u ≤0.
c L2 (Ω)

λ
D’après ce qui précède (en posant w = u + )
c
λ λ λ
λ ∈ ∂1K (u) ⇐⇒ u = ΠK (u + ) ⇐⇒ λ = c [u + − ΠK (u + )] .
c c c
Dans le cas où

K = { v ∈ L2 (Ω) | a(x) ≤ v(x) ≤ b(x) p.p. dans Ω } ,

calculons l’expression de la projection Π K . Elle “coı̈ncide” avec la projection presque


partout:

 v(x) si
 a(x) ≤ v(x) ≤ b(x)
ΠK v(x) = a(x) si v(x) < a(x) = min{(max [a(x), v(x)]), b(x)} p.p. dans Ω .


b(x) si v(x) > b(x)
par conséquent

 λ(x)

 b(x) si u(x) + ≥ b(x)


 c
u(x) = λ(x)
a(x) si u(x) + ≤ a(x)


 c
 u(x) + λ(x)


sinon.
c
On obtient donc

λ(x)


 ≥ 0 si u(x) + ≥ b(x) et alors u(x) = b(x)
 c
λ(x) λ(x)
 ≤ 0 si u(x) + ≤ a(x) et alors u(x) = a(x)


 c
= 0 sinon.
λ λ
ce qui donne avec la relation λ = c [u + − ΠK (u + )]
c c

 λ(x) λ(x)

 ≥ 0 si u(x) + ≥ b(x) et alors λ(x) = c[u(x) + − b(x)]

 c c
λ(x) λ(x) λ(x)
 ≤ 0 si u(x) + ≤ a(x) et alors λ(x) = c[u(x) + − a(x)]


 c c
 = 0 sinon.
2.5. CONDITIONS D’OPTIMALITÉ INCLUANT TOUTES LES CONTRAINTES 51

Finalement, on vérifie bien que


   
λ(x) λ(x)
λ(x) = c min max 0, u(x) + − b(x) , u(x) + − a(x) p.p. dans Ω .
c c

2.5.2 Le système d’optimalité revisité


Nous sommes en mesure de réécrire le système d’optimalité (S) en faisant intervenir le
multiplicateur de Lagrange λ̄ ∈ L2 (Ω) associé à la contrainte sur le contrôle . En effet si
on pose
αū = p̄ − λ̄ ,

la relation
(αū − p̄, v − ū)L2 (Ω) ≥ 0, ∀v ∈ Uad

signifie que
λ̄ ∈ ∂1Uad (ū) .

On obtient donc le système d’optimalité suivant :





 −∆ ȳ = ū dans Ω, ȳ = 0 sur ∂Ω

 −∆ p̄ = z − ȳ dans Ω,
d p̄ = 0 sur ∂Ω
(S) 2


 αū = p̄ − λ̄, λ̄ ∈ L (Ω)

 λ̄ ∈ ∂1 (ū)
Uad

Il est important de savoir décrire ∂1 Uad (ū) pour pouvoir mettre en place des algorithmes
de résolution d’un tel système.
52 CHAPITRE 2. CONTRÔLE OPTIMAL DE PROBLÈMES ELLIPTIQUES (EDPS)
Table des matières

1 Contrôle optimal à horizon fini (Equations Différentielles) 3


1.1 Introduction - Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Calcul des variations (1696 → ) . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Généralisation au contrôle optimal . . . . . . . . . . . . . . . . . . . 4
1.2 Contrôle optimal de systèmes linéaires gouvernés par des EDOs . . . . . . . 5
1.2.1 Présentation du problème - Théorèmes d’existence . . . . . . . . . . 5
1.2.2 Conditions d’optimalité . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3 Cas sans contraintes sur le contrôle : équation de Ricatti . . . . . . 20
1.2.4 Formulation en termes de Lagrangien . . . . . . . . . . . . . . . . . 23

2 Contrôle Optimal de Problèmes Elliptiques (EDPs) 27


2.1 Théorie variationnelle elliptique dans les espaces de Hilbert . . . . . . . . . 27
2.1.1 Théorème de Lax-Milgram . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Généralités sur les espaces de Sobolev . . . . . . . . . . . . . . . . . 31
2.1.3 Problème homogène de Dirichlet . . . . . . . . . . . . . . . . . . . . 33
2.2 Formulation du problème de contrôle optimal . . . . . . . . . . . . . . . . . 35
2.3 Conditions d’optimalité du premier ordre . . . . . . . . . . . . . . . . . . . 38
2.3.1 Cas d’un contrôle distribué et du problème de Dirichlet . . . . . . . 39
2.3.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.3 Quelques exemples de contraintes sur le contrôle . . . . . . . . . . . 43
2.3.4 Cas d’un système gouverné par un problème de Neumann . . . . . . 44
2.4 Interprétation Lagrangienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5 Conditions d’optimalité incluant toutes les contraintes . . . . . . . . . . . . 48
2.5.1 Sous-différentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.5.2 Le système d’optimalité revisité . . . . . . . . . . . . . . . . . . . . . 51

Bibliographie 55
54 TABLE DES MATIÈRES
Bibliographie

[Azé] D. Azé, Eléments d’analyse convexe variationnelle , Mathématiques 2ème cycle,


Ellipses, 1997.

[BGLS] J.F. Bonnans- J.C. Gilbert - C. Lemaréchal - C. Sagastizabal, Opti-


misation numérique. Aspects théoriques et pratiques , Collection Mathématiques et
Applications, Vol. 27, Springer-verlag, 1998.

[Br] H. Brezis, Analyse fonctionnelle, Collection Mathématiques Appliquées pour la


Maı̂trise, Masson,1987.

[Ca] H. Cartan, Cours de calcul différentiel , Hermann, Paris, 1977.

[Ci] P.G. Ciarlet, Introduction à l’analyse numérique matricielle et à l’optimisation,


Collection Mathématiques appliquées pour la maı̂trise, Masson, Paris, 1988.

[CM] M.Crouzeix - A.Mignot, Analyse Numérique des équations Différentielles, Col-


lection Mathématiques appliquées pour la maı̂trise, Masson, Paris, 1989.

[DL] Dautray R.Lions J.L., Analyse mathématique et calcul numérique, 9 volumes,


Masson, Paris, 1987.

[ET] I.Ekeland - R.Temam, Analyse Convexe et Problèmes Variationnels, Dunod,


Gauthier-Villars, Paris, 1974.

[FG] M. Fortin - R. Glowinski, Méthodes de Lagrangien Augmenté. Application à la


résolution de problèmes aux limites, Dunod-Bordas, Paris, 1982.

[Li] Lions J.L., Contrôle optimal de systèmes gouvernés par des équations aux dérivées
partielles, Dunod, Paris, 1968.

[LM] Lions J.L.- Magenes E., Problèmes aux limites non homogènes et applications, 3
volumes, Dunod, Paris, 1968.
56 BIBLIOGRAPHIE

[Luen] D.G. Luenberger, Optimization by Vector Space Methods, Wiley, New


York,1969.

[Fa] P. Faurre, Analyse Numérique- Notes d’optimisation, Collection X, Ellipses, Paris,


1988.

[Nem] G.L. Nemhauser - A.H.G. Rinnooy Kan - M.J. Todd (eds), Optimization,
Handbook in operations research and management science, Vol.1, North-Holland ,
1989.

[RT] P.A. Raviart-J.M. Thomas, Introduction à l’analyse numérique des EDP, Col-
lection Mathématiques appliquées pour la maı̂trise, Masson, Paris,1988.

[Rei] H. Reinhard, Equations différentielles, fondements et applications, Dunod Uni-


versité, Bordas, Paris,1989.

Vous aimerez peut-être aussi