Cours Optimisation
Cours Optimisation
Essadek
Introduction
Optimisation
unidimensionnelle
Optimisation avec
contraintes
Conditions nécessaires
d’optimalité
Algorithmes
Génie Civil évolutionnaires
Optimisation
Table des matières
Essadek
Introduction
Optimisation
Introduction unidimensionnelle
Optimisation sans
contraintes
Optimisation unidimensionnelle Optimisation avec
contraintes
Conditions nécessaires
d’optimalité
Dualité
Optimisation avec contraintes lagrangienne
Algorithmes
évolutionnaires
Dualité lagrangienne
Algorithmes évolutionnaires
Optimisation
Définitions
Essadek
Introduction
L’optimisation joue un rôle très important dans les Optimisation
unidimensionnelle
sciences de l’ingénieur.
Optimisation sans
En effet, plusieurs problèmes d’ingénieurs peuvent être contraintes
modélisés sous la forme : Optimisation avec
contraintes
Conditions nécessaires
min f (x) d’optimalité
Conditions suffisantes
s.c. d’optimalité
Méthodes numériques
Dualité
g (x) = 0 i = p + 1, . . . , m
i lagrangienne
x ∈ S ⊂ Rn
Algorithmes
évolutionnaires
Où x ∈ Rn
f : Rn −→ R est appelée la fonction objectif.
∀i = 1, . . . , m, gi : Rn −→ R sont appelées les
contraintes.
Optimisation
Définitions
Essadek
Introduction
Optimisation
unidimensionnelle
Un optimum global de (1) est une solution qui minimise
Optimisation sans
f (x) sur l’ensemble des solutions. contraintes
On dit qu’un vecteur x 0 est un optimum local si et Optimisation avec
contraintes
seulement si il existe un voisinage V (x 0 ) de x 0 tel que x 0 Conditions nécessaires
d’optimalité
soit un optimum global du problème Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
min f (x) Dualité
s.c. lagrangienne
gi (x) ≤ 0 i = 1, . . . , p (2) Algorithmes
évolutionnaires
g (x) = 0 i = p + 1, . . . , m
i
x ∈ S ∩ V (x 0 )
Optimisation
Rappels
Essadek
Soit f : D ⊂ Rn −→ R de classe C 2 en x ∈ D.
Introduction
Gradient
Optimisation
Le gradient de f en x est défini par : unidimensionnelle
Optimisation sans
∂f contraintes
∂x1 (x) Optimisation avec
∇f (x) =
.. contraintes
. Conditions nécessaires
d’optimalité
∂f
∂xn (x)
Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
Dualité
Matrice hessienne lagrangienne
Introduction
∂2f d’optimalité
Dualité
∂2f ∂2f lagrangienne
∀i 6= j (x) = (x) Algorithmes
∂xi ∂xj ∂xj ∂xi évolutionnaires
Corollaire
La matrice hessienne est symétrique.
Optimisation
Exemples
Essadek
Introduction
Optimisation
unidimensionnelle
Optimisation sans
Déterminer le gradient, la matrice hessienne et le hessien contraintes
dans les cas suivants : Optimisation avec
contraintes
I D = {(x, y ) ; x 2 y + 1 > 0} et Conditions nécessaires
d’optimalité
Conditions suffisantes
d’optimalité
∀(x, y ) ∈ D f (x, y ) = ln(x 2 y + 1) Méthodes numériques
d’optimisation
Dualité
I D = R3 et lagrangienne
Algorithmes
évolutionnaires
∀(x, y , z) ∈ D g(x, y , z) = x sin y + y sin z
Optimisation
Jacobienne
Essadek
Soit f : Rn −→ Rp une fonction de plusieurs variables,
Introduction
qu’on peut représenter sous la forme : Optimisation
unidimensionnelle
f1 (x) Optimisation sans
contraintes
f2 (x)
f (x) = . ∀i = 1, . . . , p fi : Rn −→ R Optimisation avec
.. contraintes
Conditions nécessaires
d’optimalité
fp (x) Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
Dualité
Matrice Jacobienne lagrangienne
(∇f1 (x))t
∇f2 (x))t
Jf (x) =
..
.
∇fp (x))t
Optimisation
Jacobienne
Essadek
Introduction
Jacobien
Le jacobien d’une fonction f est le déterminant de la
matrice jacobienne de f .
Optimisation
Formule de Taylor
Essadek
Optimisation
On peut écrire la formule de Taylor pour une unidimensionnelle
Optimisation avec
1
f (y ) ' f (x) + ∇f (x) . (y − x) + (y − x)t Hf (x)(y − x) contraintes
2 Conditions nécessaires
d’optimalité
Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
Exemple Dualité
lagrangienne
Soit D = {(x, y ) ∈ R2; xy 6= 1 et (a, b) = (2, −1) et
Algorithmes
f : D −→ R définie par évolutionnaires
x −y
f (x, y ) =
xy − 1
Introduction
Optimisation
Ensemble convexe unidimensionnelle
Algorithmes
On dit que la fonction f est convexe si et seulement si évolutionnaires
∀x, y ∈ S
=⇒ f (λx + (1 − λ)y ) ≤ λf (x) + (1 − λ)f (y )
∀λ ∈ [0, 1]
Optimisation
Convexité
Essadek
Introduction
Optimisation
Théorème unidimensionnelle
Dans le cas d’un problème convexe, tout optimum local Optimisation sans
contraintes
est un optimum global.
Optimisation avec
contraintes
Exercice Conditions nécessaires
d’optimalité
Conditions suffisantes
1. Soit f : Rn −→ R une fonction convexe et g : R −→ R d’optimalité
Méthodes numériques
Dualité
que la fonction composée g ◦ f est convexe. lagrangienne
Optimisation sans
contraintes
min f (x)
Optimisation avec
x ∈K contraintes
Conditions nécessaires
d’optimalité
Corollaire Dualité
Soit f une fonction réelle continue sur Rn tel que lagrangienne
Algorithmes
évolutionnaires
lim f (x) = +∞
kxk→+∞
Alors la problème
min f (x)
x ∈ Rn
a une solution optimale x ∗ .
Optimisation
Table des matières
Essadek
Introduction
Optimisation
Introduction unidimensionnelle
Optimisation sans
contraintes
Optimisation unidimensionnelle Optimisation avec
contraintes
Conditions nécessaires
d’optimalité
Dualité
Optimisation avec contraintes lagrangienne
Algorithmes
évolutionnaires
Dualité lagrangienne
Algorithmes évolutionnaires
Optimisation
Introduction
Essadek
Introduction
dg
= ∇f t (x 0 ).d < 0
dα α=0
Optimisation
Méthode de Newton-Raphson
Essadek
Introduction
Optimisation
unidimensionnelle
Dans cette méthode, la recherche d’un minimum de g Optimisation sans
consiste à trouver un point stationnaire α∗ , c’est-à-dire contraintes
Optimisation avec
vérifiant contraintes
dg 0 Conditions nécessaires
= g (α) = 0 d’optimalité
dα Conditions suffisantes
d’optimalité
Méthodes numériques
Si αk est le point obtenu à l’itération k , alors le point αk +1 d’optimisation
Dualité
est déterminé par la relation suivante : lagrangienne
0 Algorithmes
k +1 k g (αk ) évolutionnaires
α = α − 00 k
g (α )
Optimisation
Méthode de la sécante
Essadek
Introduction
Optimisation
unidimensionnelle
Optimisation sans
Dans cette méthode, on approche la dérivée seconde par contraintes
Optimisation avec
0 0
00 k g (αk ) − g (αk −1 ) contraintes
g (α ) = Conditions nécessaires
d’optimalité
αk − αk −1 Conditions suffisantes
d’optimalité
Méthodes numériques
Dualité
lagrangienne
0 αk − αk −1
αk +1 = αk − g (αk ) 0
Algorithmes
g (αk ) − g 0 (αk −1 ) évolutionnaires
Optimisation
Table des matières
Essadek
Introduction
Optimisation
Introduction unidimensionnelle
Optimisation sans
contraintes
Optimisation unidimensionnelle Optimisation avec
contraintes
Conditions nécessaires
d’optimalité
Dualité
Optimisation avec contraintes lagrangienne
Algorithmes
évolutionnaires
Dualité lagrangienne
Algorithmes évolutionnaires
Optimisation
Introduction
Essadek
Soit f : Rn −→ R. Introduction
Introduction
Optimisation
unidimensionnelle
1. La stationnarité d’optimisation
∇f (x ∗ ) = 0
Dualité
lagrangienne
Algorithmes
2. La matrice hessienne Hf (x ∗ ) est semi-définie évolutionnaires
positive.
Optimisation
Conditions suffisantes d’optimalité locale
Essadek
On suppose que f est C 2 pour tout x ∈ Rn .
Introduction
Théorème Optimisation
unidimensionnelle
Les conditions suffisantes pour que x ∗ soit un optimum
Optimisation sans
local sont : contraintes
Optimisation avec
1. La stationnarité contraintes
∗
∇f (x ) = 0 Conditions nécessaires
d’optimalité
Conditions suffisantes
d’optimalité
2. La matrice hessienne Hf (x ∗ ) est définie positive. Méthodes numériques
d’optimisation
Dualité
lagrangienne
Remarque
Algorithmes
La condition (2) revient à supposer que f est strictement évolutionnaires
Théorème
Dans le cas d’une fonction convexe, une condition
nécessaire et suffisante pour que x ∗ soit un minimum
global est que ∇f (x ∗ ) = 0
Optimisation
Méthodes Numériques
Essadek
l’itération k par :
xk +1 = xk + λk dk
Introduction
∇f (x k ) Optimisation avec
x k +1 = xk − λk contraintes
||∇f (x k )|| Conditions nécessaires
d’optimalité
Conditions suffisantes
d’optimalité
Où λk > 0 est choisi tel que Méthodes numériques
d’optimisation
Dualité
λk −→ 0
lagrangienne
k →∞
Algorithmes
évolutionnaires
+∞
P
= +∞
k =0
1
On peut, par exemple, choisir λk = k
Optimisation
Méthode de la plus forte pente
Essadek
Optimisation avec
contraintes
k k
g(λ) = f (x − λ∇f (x )) Conditions nécessaires
d’optimalité
Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
Dualité
Algorithme lagrangienne
Introduction
Optimisation
Critères d’arrêt unidimensionnelle
∂f d’optimalité
Critère 2 : Dualité
n lagrangienne
∂f 2
X
k∇f k2 = < Algorithmes
∂xi évolutionnaires
i=1
Critère 2 :
|f (x k +1 ) − f (x k )| <
Optimisation
Méthodes de directions conjuguées
Essadek
Optimisation
unidimensionnelle
1
q(x) = x T Ax + bT x + c Optimisation sans
2 contraintes
Optimisation avec
où A est une matrice carré symétrique de taille n, b un contraintes
Conditions nécessaires
vecteur et c une constante. d’optimalité
Conditions suffisantes
d’optimalité
∀i = 0, . . . , n − 1
∀j = 0, . . . , n − 1 =⇒ diT .A.dj = 0
i 6= j
Optimisation
Méthodes de directions conjuguées
Essadek
Introduction
Optimisation
La méthode de directions conjuguées consiste à unidimensionnelle
x k +1 = x k + λk dk d’optimalité
Conditions suffisantes
d’optimalité
Méthodes numériques
Dualité
L’optimum de q(x) sur Rn est le point lagrangienne
Algorithmes
n−1
X évolutionnaires
xn = x0 + λi di
i=0
Optimisation
Méthode du gradient conjugué
Essadek
Introduction
L’idée de cette méthode est de déterminer les directions Optimisation
unidimensionnelle
conjuguées à partir d’une combinaison linéaire du
Optimisation sans
gradient de la fonction quadratique q(x). contraintes
Avec d’optimisation
gkT dk Dualité
λk = − lagrangienne
dkT Adk Algorithmes
évolutionnaires
dk +1 = −gk +1 + βk dk
gkT+1 Adk
βk =
dkT Adk
Optimisation
Méthode du gradient conjugué
Essadek
Introduction
Optimisation
Théorème unidimensionnelle
Optimisation sans
A une itération k où l’optimum n’est pas atteint (gi 6= 0), contraintes
on a Optimisation avec
contraintes
1. Conditions nécessaires
g T gk
d’optimalité
Conditions suffisantes
λk = Tk 6= 0 d’optimalité
Dualité
2. lagrangienne
gkT+1 [gk +1 − gk ] gkT+1 gk +1 Algorithmes
βk = = évolutionnaires
gkT gk gkT gk
3. Les directions d0 , . . . , dk +1 sont mutuellement
conjuguées.
Optimisation
Table des matières
Essadek
Introduction
Introduction Optimisation
unidimensionnelle
Optimisation sans
Optimisation unidimensionnelle contraintes
Optimisation avec
contraintes
Optimisation sans contraintes Conditions nécessaires
d’optimalité
Conditions suffisantes
d’optimalité
Méthodes numériques
Dualité
Conditions nécessaires d’optimalité lagrangienne
Dualité lagrangienne
Algorithmes évolutionnaires
Optimisation
Introduction
Essadek
Introduction
Optimisation
unidimensionnelle
Dualité
lagrangienne
Soit X l’ensemble des solutions de (5) Algorithmes
évolutionnaires
X = {x ∈ Rn / gi (x) ≤ 0, ∀i ∈ I}
Optimisation
Conditions nécessaires de
Essadek
Karush-Kuhn-Tucker
Introduction
Optimisation
unidimensionnelle
Théorème Optimisation sans
contraintes
On suppose que les fonctions f et gi (i ∈ I) sont
Optimisation avec
continûment différentiables. contraintes
Dualité
Karush-kuhn-Tucker, tels que : lagrangienne
Algorithmes
∗ ∗
P
∇f (x ) + i∈I λi ∇gi (x ) = 0
évolutionnaires
(KKT) et (6)
∀i ∈ I, λi gi (x ∗ ) = 0
Optimisation
Cas de problèmes avec contraintes d’égalité
Essadek
et d’inégalité
Introduction
Optimisation
unidimensionnelle
Optimisation sans
Soit le problème contraintes
Optimisation avec
min f (x) contraintes
Conditions nécessaires
s.c.
d’optimalité
Conditions suffisantes
Algorithmes
évolutionnaires
Soit X l’ensemble des solutions de (7)
X = {x ∈ Rn / gi (x) ≤ 0, ∀i ∈ I et hl (x) = 0, ∀l ∈ L}
Optimisation
Cas de problèmes avec contraintes d’égalité
Essadek
et d’inégalité
Introduction
Optimisation
unidimensionnelle
Introduction
s.c.
Optimisation avec
(9) contraintes
h (x) = 0 l ∈ L = {1, . . . , p}
l
Conditions nécessaires
d’optimalité
x ∈ Rn Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
Introduction
On considère le problème Optimisation
unidimensionnelle
min f (x) Optimisation sans
contraintes
s.c.
(11) Optimisation avec
g (x) ≤ 0 i ∈ I = {1, . . . , m} contraintes
i
Conditions nécessaires
x ∈ S ⊂ Rn d’optimalité
Conditions suffisantes
d’optimalité
Méthodes numériques
Dualité
réel positif λi ≥ 0 appelé multiplicateur de Lagrange. lagrangienne
Introduction
Définition Optimisation
Soit x ∈ S et λ ≥ 0. On dit que (x, λ) est un point-col pour unidimensionnelle
Dualité
Théorème lagrangienne
Introduction
Optimisation
unidimensionnelle
Théorème Optimisation sans
Si (x, λ) est un point-col pour L(x, λ), alors x est un contraintes
Exemple d’optimalité
Conditions suffisantes
d’optimalité
Dualité
min −x 2
lagrangienne
Algorithmes
s.c.
(13) évolutionnaires
2x − 1 ≤ 0
0≤x ≤1
Optimisation
Conditions suffisantes d’optimalité
Essadek
Introduction
I(x) = {i : gi (x) = 0}
Optimisation
Conditions suffisantes d’optimalité
Essadek
Introduction
Notation Optimisation
unidimensionnelle
On note : Optimisation sans
I I + (x) l’ensemble des contraintes saturées en x dont contraintes
Optimisation avec
le multiplicateur de Lagrange associé est non nul : contraintes
Conditions nécessaires
d’optimalité
+
I (x) = {i ∈ I(x) tel que λi > 0} Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
Dualité
lagrangienne
I Soit l’ensemble Algorithmes
évolutionnaires
Définition Introduction
Optimisation
Le hessien par rapport à la fonction de Lagrange est unidimensionnelle
défini par : Optimisation sans
contraintes
m p Optimisation avec
contraintes
X X
HL (x, λ, µ) = Hf (x) + λi Hgi (x) + µi Hhi (x) Conditions nécessaires
d’optimalité
Dualité
Théorème lagrangienne
∀y 6= 0 ∈ F + (x ∗ ) y t HL (x ∗ , λ, µ)y > 0
Introduction
Optimisation
unidimensionnelle
Optimisation avec
∇f (x ∗ ) = 0 contraintes
Conditions nécessaires
d’optimalité
Conditions suffisantes
I Conditions nécessaires second ordre : d’optimalité
Méthodes numériques
I Conditions nécessaires premier ordre d’optimisation
Introduction
Optimisation
unidimensionnelle
Introduction
Dualité
lagrangienne
min f (x)
Algorithmes
s.c.
évolutionnaires
(14)
a x ≤ bi i ∈ I1
i
ai x = bi i ∈ I2
Introduction
Notations Optimisation
unidimensionnelle
t t −1
h i
P 0 = I − A0 . A0 .A0 .A0
Algorithme Introduction
y ← −P 0 .∇f (x k ) d’optimalité
Méthodes numériques
t −1
h i d’optimisation
Introduction
Optimisation
Sinon (Si ui ≥ 0) unidimensionnelle
f (x k +1 ) = min 0 ≤ α ≤ αmax {f (x k + αy )}
d’optimisation
Dualité
k ←k +1 lagrangienne
Remarque
La condition d’arrêt peut être ky k ≤ et ui ≥ −, pour
une tolérance choisie.
Optimisation
Méthode du gradient projeté
Essadek
Optimisation
On considère le problème unidimensionnelle
Optimisation sans
min f (x) contraintes
i d’optimalité
gi (x) = 0 i ∈ I2 Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
Algorithmes
I 0 (x) = {i1 , . . . , iq } évolutionnaires
Introduction
Optimisation
Soit le problème unidimensionnelle
Optimisation sans
contraintes
min f (x)
Optimisation avec
s.c.
contraintes
(16) Conditions nécessaires
g (x) ≤ 0 i = 1, . . . , m d’optimalité
i
Conditions suffisantes
x ∈ Rn d’optimalité
Méthodes numériques
d’optimisation
Dualité
et soit la fonction h : R −→ R, définie par lagrangienne
Algorithmes
h(y ) = 0 si y ≤ 0 évolutionnaires
h(y ) = +∞ si y > 0
Optimisation
remplacer le problème (16), par un problème sans unidimensionnelle
contraintes appelé problème pénalisé. Optimisation sans
contraintes
min Φ(x) = f (x) + H(x) Optimisation avec
contraintes
s.c. (17) Conditions nécessaires
d’optimalité
x ∈ Rn Conditions suffisantes
d’optimalité
Méthodes numériques
d’optimisation
et Conditions nécessaires
d’optimalité
m m Conditions suffisantes
X X 2 d’optimalité
gi+ (x)
∀x, H(x) = h(gi (x)) = Méthodes numériques
d’optimisation
min Φ(x) = f (x) + r .H(x)
s.c. (18)
x ∈ Rn
Introduction
Optimisation
unidimensionnelle
On commence par choisir un coefficient r1 > 0 pas très Optimisation sans
élevé, puis on résout le problème (18), en utilisant un contraintes
Optimisation avec
algorithme d’optimisation sans contraintes. contraintes
Soit x ∗ (r1 ) le point obtenu. Conditions nécessaires
d’optimalité
Conditions suffisantes
I Si H(x ∗ (r1 )) est suffisamment petit alors x ∗ (r1 ) est d’optimalité
Méthodes numériques
Dualité
I Sinon, on choisit r2 > r1 , par exemple r2 = 10r1 , et lagrangienne
Introduction
Optimisation sans
Ψ(x) = f (x) + t.B(x, t) contraintes
Optimisation avec
contraintes
Conditions nécessaires
d’optimalité
Introduction
Optimisation
Introduction unidimensionnelle
Optimisation sans
contraintes
Optimisation unidimensionnelle Optimisation avec
contraintes
Conditions nécessaires
d’optimalité
Dualité
Optimisation avec contraintes lagrangienne
Algorithmes
évolutionnaires
Dualité lagrangienne
Algorithmes évolutionnaires
Optimisation
Introduction
Essadek
Soit le problème
Introduction
min f (x) Optimisation
s.c.
unidimensionnelle
(19)
gi (x) ≤ 0
i = 1, . . . , m Optimisation sans
contraintes
x ∈ S ⊂ Rn
Optimisation avec
contraintes
la fonction de Lagrange associée au problème (19) Conditions nécessaires
d’optimalité
s’écrit X
Conditions suffisantes
d’optimalité
Méthodes numériques
L(x, λ) = f (x) + λi gi (x) d’optimisation
i∈I Dualité
lagrangienne
On considère la fonction Algorithmes
évolutionnaires
w(λ) = min {L(x, λ)}
x∈S
Introduction
Optimisation
unidimensionnelle
Optimisation sans
contraintes
Théorème faible de la dualité Optimisation avec
Si λ∗ est l’optimum du problème dual (20), alors contraintes
Conditions nécessaires
d’optimalité
Conditions suffisantes
Dualité
lagrangienne
Théorème Algorithmes
évolutionnaires
La fonction duale w est une fonction concave de λ.
Optimisation
Propriétés
Essadek
Introduction
Optimisation
unidimensionnelle
Théorème de la dualité
Optimisation sans
I Si le problème (19) admet un point-col (x ∗ , λ∗ ),alors contraintes
Optimisation avec
contraintes
w(λ∗ ) = f (x ∗ ) Conditions nécessaires
d’optimalité
Conditions suffisantes
d’optimalité
w(λ∗ ) = f (x ∗ )
alors le problème (19) admet le point-col (x ∗ , λ∗ ).
Optimisation
Table des matières
Essadek
Introduction
Optimisation
Introduction unidimensionnelle
Optimisation sans
contraintes
Optimisation unidimensionnelle Optimisation avec
contraintes
Conditions nécessaires
d’optimalité
Dualité
Optimisation avec contraintes lagrangienne
Algorithmes
évolutionnaires
Dualité lagrangienne
Algorithmes évolutionnaires