0% ont trouvé ce document utile (0 vote)
266 vues7 pages

Optimisation : Théorie et Applications

Ce document présente les notions théoriques de base de l'optimisation, notamment l'existence et l'unicité de minimums locaux et globaux pour des problèmes avec et sans contraintes. Il aborde également les conditions nécessaires et suffisantes pour la localisation de minimums.

Transféré par

Zozo Zozo Diagne
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
266 vues7 pages

Optimisation : Théorie et Applications

Ce document présente les notions théoriques de base de l'optimisation, notamment l'existence et l'unicité de minimums locaux et globaux pour des problèmes avec et sans contraintes. Il aborde également les conditions nécessaires et suffisantes pour la localisation de minimums.

Transféré par

Zozo Zozo Diagne
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Prépa agreg Année 2013-2014

Cours option B [Link]@[Link]

Optimisation
I. Aspects théoriques

Soit V un espace vectoriel normé, A une partie de V , J : V → R. On s’intéresse aux deux types
de problèmes suivants
. problème d’optimisation sans contrainte :
Trouver x∗ ∈ V vérifiant J(x∗ ) = inf J(x).
x∈V

. problème d’optimisation avec contraintes :


Trouver x∗ ∈ A V vérifiant J(x∗ ) = inf J(x).
x∈A

Ces contraintes peuvent être de type


• inégalité
A = {x ∈ V, hi (x) ≤ 0, 1 ≤ i ≤ q} (1)
• égalité
A = {x ∈ V, gi (x) = 0, 1 ≤ i ≤ p} (2)
Dans (1) et (2), les fonctions hi et gi sont au moins continues.
La fonction J est appelée la fonction coût (ou encore fonction objectif, ou critère), et le
sous-ensemble A définissant les contraintes l’ensemble des éléments admissibles.

Questions :
. Existence ? Unicité ?
. Localisation : conditions nécessaires, suffisantes, caractérisation d’un point réalisant le
minimum.
. Calcul, expression du minimum ? Algorithme permettant de l’approcher ?

Exemples de problèmes d’optimisation :


. Déterminer le parallélépipède rectangle de volume maximal parmi ceux dont la surface
extérieure vaut 6.
. Le problème de la reine Didon : trouver la courbe plane de longueur l fixée qui enclot avec
le segment reliant ses deux extrémités la portion plane d’aire maximale.

1 Définitions et notations
Définition 1.1. On appelle suite minimisante de J dans A une suite (un )n∈N d’éléments de A
telle que
lim J(un ) = inf J(x).
n→+∞ x∈A
Définition 1.2. Soit J : V → R, A ⊂ V .
. J admet un minimum global sur A si
∃x∗ ∈ A, ∀x ∈ A, J(x) ≥ J(x∗ )
. J admet un minimum local en x∗ ∈ A si
∃V ∈ V(x∗ ), ∀x ∈ V ∩ A, J(x) ≥ J(x∗ ).

1
2 Existence et unicité
2.1 Un critère d’existence en dimension finie
Théorème 2.1. Soit J : F → R une fonction continue, F un sous ensemble fermé de RN .
On suppose que F est borné ou que F est non borné mais J est coercive, c’est-à-dire

J(x) → +∞ quand kxk → +∞. (3)

Alors J admet un minimum sur F .

Remarque 2.1. Le théorème 2.1 reste vraie si on suppose seulement que f est semi-continue
inférieurement, c’est-à-dire

∀x0 ∈ V, lim inf J(x) ≥ J(x0 ).


x→x0

Corollaire 2.1. Soit G un sous espace vectoriel de dimension finie de V , F ⊂ G un ensemble


fermé, a ∈ V . Alors

d(a, F ) = min {ka − xk, x ∈ F} est atteinte.

Application : Polynôme de meilleure approximation.

Exemple 2.1. Contre exemple en dimension infinie


On considère l’espace de Hilbert l2 (R) des suites de carré sommable dans R, muni du produit
+∞
X
scalaire < x, y >= xi yi , et J définie sur l2 (R) par
i=1

+∞
X x2i
J(x) = (kxk2 − 1)2 + .
i=1
i

Alors l’infimium de J sur l2 (R) n’est pas atteint.

2.2 Utilisation de la convexité


Proposition 2.1. Soit C un convexe de V , J : C → R une fonction convexe. Alors
. Tout minimum local de J sur C est un minimum global.
. L’ensemble des points de minimum est un ensemble convexe.
. Si J est strictement convexe, il y a au plus un minimum.

Théorème 2.2. Existence d’un minimum, cas fortement convexe.


Soit C un convexe fermé non vide d’un espace de Hilbert V , J : C → R une fonction convexe
continue sur C et coercive (c’est-à-dire vérifiant (3)). Alors il existe un minimum de J sur C.

Preuve Soit (un )n∈N une suite minimisante. La condition (3) implique que celle-ci est bornée.
On peut alors en extraire une sous-suite qui converge faiblement, c’est-à-dire

∀x ∈ V, hx, uϕ(n) i → hx∗ , xi

(dans un espace réflexif la boule unité est compacte pour la topologie faible, voir [?]) ; de plus
les convexes fermés forts coincident avec les convexes fermés pour la topologie faible (voir [?]),
et donc x∗ ∈ C. Par ailleurs grâce à la continuité (la semi-continuité inférieure est en fait
sufisante) de J que
J(x∗ ) ≤ inf ϕ(uϕ(n) ),
d’où l’on déduit que J(x∗ ) = inf J(x).
x∈C

2
Remarque 2.2. Une fonction convexe définie sur un ouvert convexe Ω de RN est continue (et
lipschitzienne sur tout compact de Ω) (voir [HU2] par exemple).
On s’intéresse maintenant aux fonctions vérifiant une condition de convexité un peu plus
forte, et on montre que dans ce cas on a convergence forte d’une suite minimisante.
Définition 2.1. Soit C un convexe de V , J : C → R. J est dite α-convexe (ou encore fortement
convexe) s’il existe α > 0 tel que
α
∀(x, y) ∈ C × C, J(tx + (1 − t)y) ≤ tJ(x) + (1 − t)J(y) − t(1 − t)kx − yk2
2
Remarque 2.3.

. Une fonction α-convexe est strictement convexe, mais la réciproque est fausse (exemple :
la fonction J(x) = − ln(x) sur C =]0, +∞[).
. Si J est α-convexe, elle vérifie en particulier
x+y J(x) + J(y) α
 
J ≤ − kx − yk2 .
2 2 8
Lemme 2.1. Soit C un convexe fermé de V , J : C → R une fonction α-convexe continue sur
C. Alors il existe deux constantes γ1 et γ2 telles que

∀x ∈ C, J(x) ≥ γ1 kxk2 + γ2 .

Preuve Voir [All12]


Théorème 2.3. Existence d’un minimum, cas fortement convexe.
Soit C un convexe fermé non vide d’un espace de Hilbert V , J : C → R une fonction
α-convexe continue sur C. Alors il existe un unique minimum x∗ de J sur C et on a
4
∀x ∈ C, kx − x∗ k2 ≤ [J(x) − J(x∗ )]. (4)
α

3 Localisation des extremums


3.1 Rappels
On notera dans toute la suite HJ (x) la matrice Hessienne d’une application J en un point
x ∈ RN , définie par HJ (x)i,j = ∂i ∂j J(x).
Proposition 3.1. Soit J une fonction deux fois différentiable en x0 ∈ RN . Alors pour tout
h ∈ RN ,
1
J(x0 + h) − J(x0 ) = h∇J(x0 ), hi + hHJ (x0 )h, hi + o(khk2 )
2

3.2 Cas sans contrainte


Dans cette partie, on considère une fonction J : RN → R au moins différentiable et
x∗ ∈ RN .

Remarque 3.1. Ce qui suit vaut également pour le cas avec contraintes quand x∗ ∈ A.

3.2.1 Conditions nécessaires


Proposition 3.2. On suppose que J admet un minimum local en x∗ .
. Alors ∇J(x∗ ) = 0 (équation d’Euler).
. Si de plus on suppose J de classe C 2 , alors HJ (x∗ ) est symétrique semi-définie positive.

3
3.2.2 Conditions suffisantes
Proposition 3.3. Soit J de classe C 1 sur RN . On suppose que ∇J(x∗ ) = 0 et que de plus
. soit J est deux fois différentiable sur U un voisinage de x∗ et que pour tout x ∈ U HJ (x)
est semi-définie positive,
. soit J est deux fois différentiable en x∗ et HJ (x∗ ) est définie positive.
Alors J admet un minimum local en x∗ .

3.2.3 Cas convexe


Lemme 3.1. Soit J une fonction différentiable convexe sur C une partie convexe de RN . Alors
∀(x, y) ∈ C × C h∇J(x), y − xi ≤ J(y) − J(x).
Proposition 3.4. Soit J de classe C1 sur RN , convexe. Alors J(x∗ ) est un minimum global de
J si et seulement si ∇J(x∗ ) = 0.

3.2.4 Quelques applications


. Minimisation d’une fonctionnelle "quadratique".
Soit A ∈ MN (R) une matrice symétrique, b ∈ RN , c ∈ R. On note λ1 la plus petite valeur
propre de A, et pour x ∈ RN on pose
1
J(x) = hAx, xi − hb, xi + c.
2
Alors J est convexe si et seulement si A est semi-définie positive, et J est λ1 -convexe si et
seulement si A est définie positive. De plus, si λ1 ≥ 0 les solutions du problème
Trouver x∗ ∈ RN / J(x∗ ) = inf J(x) (5)
x∈RN
correspondent à celles du l’équation Ax = b.

. Méthode des moindres carrés. m


X
Soient (xi , yi )1≤i≤m m couples de réels donnés ; on cherche pn ∈ Pn tel que |yi −pn (xi )|2
i=1
soit minimal. Le problème s’écrit alors
Trouver a∗ ∈ Rn+1 / J(a∗ ) = inf J(a), avec J(a) = kM a − ck2 . (6)
a∈Rn+1

y1
 
 .. 
c =  .  ∈ Rm , M = (xji )1≤i≤m, 1≤j≤n+1 ∈ Mm,n+1 (R).
ym
et où k · k désigne la norme euclidienne de Rm . L’équation d’Euler s’écrit alors
M t M a = M tc
(qui s’appelle ici équation normale).

3.3 Cas avec contrainte


3.3.1 Contraintes convexes
Proposition 3.5. Soit J : U → R fonction convexe de classe C 1 sur U un ouvert de RN . Soit
C ⊂ U un convexe, x∗ ∈ C. Alors J(x∗ ) est un minimum de J sur C si et seulement si
∀y ∈ C, h∇J(x∗ ), y − x∗ i ≥ 0.

Exemple 3.1. Caractérisation du projeté sur un convexe fermé.

4
3.3.2 Contraintes de type égalité
Ici l’ensemble des contraintes est du type

A = {x ∈ RN , gi (x) = 0, 1 ≤ i ≤ p} (7)

Théorème 3.1. Extrema liés


Soient J, g1 , . . . , gp : RN → R de classe C 1 , A définie par (7). On suppose
. qu’il existe x∗ ∈ A tel que J(x∗ ) = inf J(x)
x∈A
. que la famille (∇g1 (x∗ ), . . . , ∇gp (x∗ )) est libre (condition de qualification des contraintes).
Alors il existe des réels λ1 , . . . , λp (appellés multiplicateurs de lagrange) tels que
p
∇J(x∗ ) + λi ∇gi (x∗ ) = 0.
X
(8)
i=1

On peut utiliser pour la preuve du Théorème 3.1 le résultat de géométrie différentielle (cf
[Rou] par exemple) suivant

Théorème 3.2. Soit U un ouvert de RN , g1 , . . . , gp : RN → R de classe C 1 , A définie par


(7), a ∈ A. On suppose que la famille (∇g1 (x∗ ), . . . , ∇gp (x∗ )) est libre. Alors l’espace vectoriel
tangent à A en a est
p
[Vect ∇gi (a)]⊥ .
\

i=1

Exemples d’applications
. Diagonalisation des endomorphismes symétriques en dimension finie
. Inégalité arithmético-géométrique

3.3.3 Contraintes de type inégalité


Ici l’ensemble des contraintes est du type

A = {x ∈ RN , hi (x) ≤ 0, 1 ≤ i ≤ q} (9)

On note ici I = {1, . . . , q} et I0 (x∗ ) l’ensemble des contraintes saturées au point x∗ :

I0 (x∗ ) = {i ∈ {1, . . . , q}/ hi (x∗ ) = 0}.

Définition 3.1. On dit que les contraintes sont qualifiées au point x∗ si


. ou bien les fonctions hi sont affines
. ou bien les vecteurs ∇hi (x∗ ), pour i ∈ I0 (x∗ ), sont linéairement indépendants.

Théorème 3.3. Kuhn Tucker


Soit J et hi , i ∈ I des fonctions de classe C 1 . On suppose les contraintes qualifiés au point x∗ .
Alors une condition nécessaire pour que x∗ soit un minimum de J sur l’ensemble C = {x ∈
RN , hi (x) ≤ 0, i ∈ I} est qu’il existe des réels positifs λ1 , λ2 , . . . , λq (appelés multiplicateurs de
Kuhn-Tucker ou de Lagrange généralisés) tels que
q

∇J(x∗ ) + λi ∇hi (x∗ ) = 0

 X

i=1 (10)

 ∗

avec λi hi (x ) = 0 pour i ∈ {1, . . . , q}.

Remarque 3.2. Dans le cas où J et les hi , i ∈ I sont des fonctions convexes, on peut montrer
que x∗ est un minimum de J sur le convexe A si et seulement si il existe des réels positifs λ1 ,
λ2 , . . . , λq tels que la condition (10) soit réalisée.

5
3.3.4 Contraintes mixtes
Le théorème suivant contient les Théorèmes 3.1 et 3.3.

Théorème 3.4. Kuhn Tucker, Lagrange


Soit J, gi , i ∈ {1, . . . , p}, et hi , i ∈ {1, . . . , q}, des fonctions de classe C 1 . On veut minimiser J
sur l’ensemble

A = {x ∈ RN , gi (x) = 0, 1 ≤ i ≤ p, hi (x) ≤ 0, 1 ≤ i ≤ q}

On suppose les contraintes qualifiés au point x∗ . Alors une condition nécessaire pour que x∗
soit un minimum de J sur l’ensemble C = {x ∈ RN , gi (x) = 0, 1 ≤ i ≤ p, hi (x) ≤ 0, i ∈
I} est qu’il existe des réels positifs λ1 , λ2 , . . . , λq et des réels µ1 , . . ., µp tels que
q p

∗ ∗
µi ∇gi (x∗ )
 X X
∇J(x ) + λi ∇hi (x ) =


i=1 i=1 (11)

 ∗

avec λi hi (x ) = 0 pour i ∈ {1, . . . , q}.

Annexe : caractérisation des fonctions convexes et α-convexes


Fonctions convexes
Définition 3.2. Soit C un convexe ; J : C → R est convexe si

∀(x, y) ∈ C × C, ∀t ∈ [0, 1], J(tx + (1 − t)y) ≤ tJ(x) + (1 − t)J(y).

Proposition 3.6. Soit U un ouvert convexe de RN et J une fonction différentiable de U


dans R. On a équivalence entre
(i) J est convexe
(ii) Le graphe de J est "au-dessus de ses tangentes"

∀(x, y) ∈ U × U, J(y) ≥ J(x) + h∇J(x), y − xi

(iii) L’application ∇J : U → RN est "monotone"

∀(x, y) ∈ U × U, h∇J(y) − ∇J(x), y − xi ≥ 0

De plus il y a équivalence entre la convexité stricte de J et les inégalités (ii) et (iii) rendues
strictes, pour x 6= y.

Proposition 3.7. Soit U un ouvert convexe de RN et J une fonction deux fois différentiable
de U dans R. On a équivalence entre
(i) J est convexe
(ii) HJ (x) est semi-définie positive pour tout x ∈ RN :

∀(x, h) ∈ RN × RN , hHJ (x)h, hi ≥ 0.

Fonctions α-convexes
Définition 3.3. Soit C un convexe d’un espace vectoriel normé, J : C → R est α-convexe si
α
∀(x, y) ∈ C × C, ∀t ∈ [0, 1], J(tx + (1 − t)y) ≤ tJ(x) + (1 − t)J(y) − t(1 − t)kx − yk2 .
2

6
Proposition 3.8. Soit C un convexe d’un espace vectoriel normé, J : C → R. On a les équiv-
alences suivantes
α
J est α-convexe ⇔ J − k · k2 est convexe
2
x+y J(x) + J(y) α
 
⇔ ∀(x, y) ∈ C × C, J ≤ − kx − yk2
2 2 8

Proposition 3.9. Soit U un ouvert convexe de RN et J une fonction différentiable de U


dans R. On a les équivalences suivantes
α
J est α-convexe ⇔ ∀(x, y) ∈ U × U, J(y) ≥ J(x) + h∇J(x), y − xi + ky − xk2
2
⇔ ∀(x, y) ∈ U × U, h∇J(y) − ∇J(x), y − xi ≥ αkx − yk2

Proposition 3.10. Soit U un ouvert convexe de RN et J une fonction deux fois différentiable
de U dans R. Alors

J est α-convexe ⇔ ∀(x, h) ∈ U × RN , hHJ (x)h, hi ≥ αkhk2 .

Références
[Avez] Avez Calcul différentiel
[Brez] Haïm Brezis, Analyse fonctionnelle, Collection Mathématiques Appliquées pour la
Maîtrise. Masson, Paris, 2002.
[Cia82] Philippe G. Ciarlet. Introduction à l’analyse numérique matricielle et à l’optimisation.
Collection Mathématiques Appliquées pour la Maîtrise. Masson, Paris, 1982.
[All12] Grégoire Allaire. Analyse numérique et optimisation. Collection Editions Ecole Poly-
technique. Ellipses, 2012.
[OA] Beck Vincent, Malik J. Peyré Gabriel Objectif agrégation Editions H&K.
[HU1] Jean-Baptiste Hiriart-Urupty Optimisation et analyse convexe, PUF
[HU2] Jean-Baptiste Hiriart-Urupty Convex Analysis and Minimization Algorithms I,
Springer-Verlag, 1996.
[Rou] François Rouvière Petit guide du calcul différentiel à l’usage de la licence et de l’agré-
gation, Editions Cassini.

Vous aimerez peut-être aussi