Cours D'optimisation
Cours D'optimisation
16 novembre 2021
Chapitre 1
Rappels mathématiques
1.1 Introduction
L'optimisation est une branche des mathématiques, dont le but est de chercher
à résoudre analytiquement ou numériquement, la meilleur solution ( ) à un
problème donné. L'origine du mot optimale provient du Latin qui signie
l'optimale
le meilleur. De nos jours, l'optimisation joue un rôle très important dans diérents
optimum
x
0
1.1.2 Vecteur
Le vecteur réel X de dimension n, se met sous la forme :
x1
x2
X=
... (1.1)
xn
ou encore de la manière suivante :
X=
x1 x2 ... xn
0
(1.2)
deux vecteurs sont égaux ssi tous leurs éléments sont égaux.
Le produit scalaire de deux vecteurs X et Y est déni par :
n
X
0 0
XY =YX= xi yi
i=1
2
1.1.3 Matrice
Dans ce cours on ne considère que les matrice réelles. Une matrice A de dimension
m × n est donnée par :
a11 a12 ... a1n
a21 a22
A=
... ...
... a2n
... ...
(1.3)
am1 am2 ... amn
La matrice transposée de la matrice A qu'on note A ou A , est de dimension
0 T
n × m est la suivante :
a11 a21 ... am1
a12
A=
...
a22
...
... am2
... ...
(1.4)
a1n a2n ... amn
La somme (diérence) de deux matrice de dimensions identiques est une matrice de
même dimension, dont les élements sont égaux à la somme (diérence) des éléments
de même position.
Le produit de deux matrice A (m × p) et B (p × n) est une matrice C (m × n)
dont les élements sont :
p
X
cij = aik bkj i = 1, ..., m j = 1, ..., n
k=1
3
x1
x2
XX0 =
... x1 x2 ... xn
xn
2
x1 x1 x2 ... x1 xn
x2 x1 x22 ... x2 xn
= ...
... ... ...
xn x1 xn x2 ... x2n
Une matrice est dite carrée dans le cas particulier où n = m. On déni la matrice
identité I de la manière suivante :
1 0 ... 0
0
I=
...
1
...
...
...
0
...
(1.5)
0 0 ... 1
Souvent on indique la dimension n de la matrice identité I . n
vantes :
a. AB . 0
b. A B.
0
c. AB0 B
4
Le déterminant d'une matrice A peut être donné par le produit de ses valeurs
propres qu'on note {λ } .n
i i=1
n
Y
|A| = λi
AA−1 = In
La
P trace d'une matrice carrée est égale à la somme de ces valeurs propres T r(A) =
λ.
Une matrice est dite symétrique si elle vérie la condition :
i
A=A 0
(1.7)
Dans ce qui suit on ne considère que le cas des matrices carrées et symétriques, sauf
si on l'indique clairement.
Exercice 2.
Soit la matrice carrée A dont les valeurs propres sont : λ = 1, λ
1 2 =2 et λ
3 .
=5
1. Quelles sont les dimensions de la matrice A ?
2. Que peut on dire sur la positivité de la matrice A ?
3. Comment déterminer l'équation caractéristique de A ?
4. Calculer le déterminant de A.
5. La matrice A est elle inversible? Pourquoi?
6. Calculer la trace de la matrice A.
5
1.2 Positivité
1.2.1 Dénition
Une fonction f (x) est dite positive ssi f (x) > 0, ∀x ∈ <.
Une matrice symétrique A est dénie positive ssi X AX > 0, ∀X 6= 0.
0
Une matrice symétrique A de dimension n est dénie positive si toutes les valeurs
propres sont positives λ > 0, ∀i = 1, ..., n.
Une matrice A de dimension n est dénie positive si tous les mineurs principaux
i
sont positifs.
1.2.2 Exemples
1. La fonction f (x) =x − 4x + 5 est dénie positive sur l'ensemble <.
2
2. La matrice : A = 21 12 est dénie positive, car ses valeurs propres sont po-
sitives. Les valeurs propres sont les solutions de l'équation caractéristique |A −
λI | = 0.
2
∀α ∈ [0, 1], on dit que la fonction f est convexe (ou plus exactement strictement
1 2
de dénition.
Remarque
6
Figure 1.2 Exemple d'une fonction convexe
1.4 Le gradient
Soit f (X) une fonction scalaire de n variables. Le gradient de la fonction f qu'on
note ∇f est un vecteur ligne dont les élements sont les dérivées partielles de la fonction
f suivant chaque variable.
∂f
(1.10)
h i
∂f ∂f ∂f
∇f = = ∂x1 ...
∂x2 ∂xn
∂X
7
Solution
∂f
= 2x + y,
∂x
∂f
= x + 2y,
∂y
∂f
= [2x + y , x + 2y]
∂X
1.5 Le Hessien
Soit f (X) une fonction scalaire de n variables. Le Hessien de la fonction f , qu'on
note Hf est une matrice de dimension n × n, dont les élements sont les dérivées
partielles d'ordre deux de la fonction f .
∂ 2 f (X) ∂ 2 f (X) ∂ 2 f (X)
(∂x1 )2 ∂x1 ∂x2 ... ∂x1 ∂xn
(1.11)
∂ 2 f (X) ∂ 2 f (X) ∂ 2 f (X)
∂ 2 f (X)
∂x2 ∂x1 (∂x2 )2 ... ∂x2 ∂xn
Hf = 2
=
(∂X)
... ... ... ...
∂ 2 f (X) ∂ 2 f (X) ∂ 2 f (X)
∂xn ∂x1 ∂xn ∂x2 ... (∂xn )2
Solution
∂f ∂ 2f
= 2x + y, −→ =2
∂x (∂x)2
∂ 2f
−→ =1
∂x∂y
∂f ∂ 2f
= x + 2y, −→ =2
∂y (∂y)2
∂ 2f
−→ =1
∂y∂x
2 1
Hf =
1 2
Pour démontrer que cette matrice est dénie positive, on doit calculer les valeurs
propores correspondantes.
8
L'équation caractéristique dans ce cas est donnée par :
(2 − λ)2 − 1 = 0
(2 − λ − 1)(2 − λ + 1) = 0
λ1 = 1, λ2 = 3
Les deux valeurs propres sont positives, ainsi, la matrice est dénie positive.
Une fonction f (X) est convexe ssi Hf (X) est semi-denie positif pour
tout X
Remarque
les résultats d'une experience. Les points ne sont pas sur la même ligne, Cependant
i i i i=1
on veut trouver la ligne approchant au mieux ce nuage de points. Pour cela on utlise
la méthode des moindres carrées, et on choisis la relation suivante y = ax + b avec
(a, b) ∈ < . La fonction objective est la somme des carrées des erreurs (cette fonction
2
est convexe) : n
X
f (a, b) = (yi − (axi + b))2
9
1. Calculer le Jacobien,
2. Calculer le Hessien,
3. Déterminer l'équation caractéristique du Hessien,
4. Donner les valeurs propres de cette matrice,
5. Cette matrice est elle dénie positive, pourquoi?
6. Calculer le déterminant en utilisant les valeurs propres.
7. Trouver analytiquement les optimums de cette fonction. Quelle sont leurs na-
tures?
10
1.7 Solutions des exercices
Solution Ex. 1.
1 −1 0 2
AB0 = 2 [−1 0 2] = −2 0 4 .
3 −3 0 6
−1
0
A B = [1 2 3] 0 = 5 .
2
Le calcul de l'expressionAB0 Bpeut se faire de deux façon diérentes, suivant
l'ordre dans lequel
nous calculons
le produit
:
−1 0 2 −1 5
(AB )B = −2 0 4 0 = 10
0
−3 0 6 2 15
1 5
A(B0 B) = 2 × 5 = 10
3 15
11
6. La trace de la matrice A est égale à la somme des éléments de sa diagonale. elle
est égale aussi à la somme des valeurs propres.
3
X
trace(A) = λi = λ1 + λ2 + λ3 = 8
i=1
Solution Ex. 3.
Deux méthodes permettent de déterminer si une matrice réelle C de dimension (n × n)
est dénie positive ou non :
1. Par dénition
La matrice C est dénie positive si on a X CX > 0, ∀X ∈ < .
0 ∗n
(a)
2 1 2 1 x
A= , X0 AX = [x y] =
1 2 1 2 y
(x + y) > 0.
2
(b)
2 −1 0 2 −1 x
B= , X BX = [x y] =
−1 2 −1 2 y
(x − y) > 0.
2
12
Solution Ex. 4.
Soit Z = λX + (1 − λ)Y pour λ ∈ [0, 1]. Alors :
a0 Z = a0 (λX + (1 − λ)Y)
= λa0 X + (1 − λ)a0 Y
≥ λβ + (1 − λ)β = β ( on a λ ≥ 0 et (1 − λ) ≥ 0 )
a0 Z ≥ β ⇒ Z ∈ Ω
par conséquent, Ω est un ensemble convexe.
Solution Ex. 5.
Soit y = x alors on a :
1 − 2x2 + x2 = 0 → 1 − x2 = 0 → x = ±1
ainsi on a deux points : (1, 1) et (−1, −1)
Soit y = −x alors on a :
1 + 2x2 + x2 = 1 + 3x2 = 0
cette équation n'a pas de solution dans <
3. ∂ 2f
= −2y
(∂x)2
∂ 2f
= −2x + 2y
∂x∂y
∂ 2f
= 2x
(∂y)2
∂ 2f
= −2x + 2y
∂y∂x
−2y −2x + 2y
Hf =
−2x + 2y 2x
13
4.
−2 0
Hf (1, 1) = −→ |Hf (1, 1)| = −4 < 0
0 2
, ainsi ce point est un point de selle (col ou en anglais )
saddle point
2 0
Hf (−1, −1) = −→ |Hf (−1, −1)| = −4 < 0
0 −2
, ainsi ce point est aussi un point de selle.
Solution Ex. 6.
n n n
∂f X X X
= 2(−yi + axi + b) = 2a xi + 2nb − 2 yi
∂b i=1 i=1 i=1
2. Sachant que cette fonction est convexe, l'extremum et donné par le système sui-
vant :
n
X n
X n
X
x2i a+ xi b = yi x i
i=1 i=1 i=1
Xn Xn
xi a + n b = yi
i=1 i=1
14
on obtient alors :
S12 Z2 − S22 Z1
a= 2 −S S
S12 11 22
S12 Z1 − S11 Z2
b= 2
S12 − S11 S22
b=3;
2
N=100;
3
S11=sum(x.^2) ;
8
S12=sum(x) ;
9
S21=S12 ;
10
S22=N;
11
Z1=sum(y. ∗ x) ;
12
Z2=sum(y) ;
13
14
x_min=min(x) ;
18
x_max=max(x) ;
19
pas=(x_max−x_min) /20;
20
23
28
Solution Ex. 7.
15
Figure 1.4 Regression lineaire
Soit la fonction réelle à deux variables :
f (x, y) = x − x2 y + xy 2
1. Calcule du Jacobien,
∂f
1 − 2xy + y 2
∂x
Jf = ∇f 0 = =
∂f
∂y −x2 + 2xy2
2. Le Hessien
−2y −2x + 2y
Hf =
−2x + 2y 2x
3. L'équation caractéristique du Hessien est donnée par :
det(H − λI) = 0 → (−2y − λ)(2x − λ) − (−2x + 2y)2 = 0
λ2 + 2(y − x)λ − (−2x + 2y)2 − 4xy = 0
4. Les valeurs propres sont les solutions de l'équation caractéristique de cette ma-
trice, c'est une équation du deuxième ordre alors :
∆ = 4(y − x)2 + 16(y − x)2 + 16xy = 20(y − x)2 + 16xy
Les solution sont alors : √
−2(y − x) + ∆ p
λ1 = = x − y + 5(y − x)2 + 4xy
2
16
√
−2(y − x) − ∆ p
λ2 = =x−y− 5(y − x)2 + 4xy
2
5. Pour que cette matrice soit dénie positive, il faut que λ > 0 et λ >0 . Cela
dépend des valeur attribuées aux variables x et y.
1 2
pour les deux points on a det(H) < 0 alors on a deux points de celle.
1 3 2 3
17
Chapitre 2
Optimisation sans contraintes : méthodes
locales
2.1 Dénitions
2.1.1 Dénition 1
Soit f (X) une fonction de < n
→ <n ; Le problème d'optimisation sans contraintes
s'écrit de la façon suivante :
minimiser la fonction f (X) avec X ∈ < . n
La fonction f (X) est souvent appelée : fonction coût, fonction objectif ou critère
d'optimisation.
2.1.2 Dénition 2
On dit que X est un point qui minimise la fonction f (X) sur l'ensemble < ssi :
∗ n
au point X si :
∗
∇f (X∗ ) = 0
deux sur < , on dit que f (X) à un minimum global au point X ssi :
n ∗
∇f (X∗ ) = 0
soit :
f (x) ≈ f (a) + f 0 (a)(x − a)
ou encore
f (a + ∆x) ≈ f (a) + f 0 (a)∆x
pour plus de précision, on ajoute les termes :
1 1 (m)
f (x) ≈ f (a) + f 0 (a)(x − a) + f 00 (a)(x − a)2 + ... + f (a)(x − a)m
2 m!
(2.1)
m
X 1 (i)
= f (a)(x − a)i
i=0
i!
19
Dans le cas multidimensionnel, le développement en série de du premier
ordre de la fonction f (X) au voisinage du vecteur A, est donné par :
Taylor
(2.2)
n
X ∂f (X)
f (A + ∆X) ≈ f (A) + ∇f (A)∆X = f (A) + (xi − ai )
i=1
∂x i
x i =ai
(2.3)
i=1 i i i,j=1 x =a
j j
la droite (AB).
a. Représenter graphiquement cet énoncé.
b. Déterminer les coordonnées du point P pour que l'aire du triangle rectangle A P B 0
soit maximale.
Par la suite, X devient le point initiale pour la nouvelle itération et ainsi de suite
1 1 0
X1 = X0 + ρ0 ∆X0
où ρ ∈ < est appelé le
∗+
et ∆X un vecteur de < appelé n
X = X + ρ ∆X
k+1 k k k (2.4)
et on doit trouver ρ ∈ < et ∆X qui satisfont la condition f (X ) < f (X ).
k
∗+
k k+1 k
ρ∆X), suivant la variable ρ. L'algorithme correspondant dans ce cas est comme suit :
s≥0
Connaissant la direction ∆X et soit deux réelles 0 < α < 0.5 et 0 < β < 1.
ρ ← 1.
while f (X + ρ∆X) > f (X) + αρ∇f (X)∆X, ρ : = βρ.
21
Remarque en pratique, souvent, on prend α ∈ [0.01 , 0.3] et β ∈ [0.1 , 0.8].
2.6 Méthode du gradient
2.6.1 Principe
La méthode du gradient est une technique de descente (itérative) permettant de
trouver le minimum d'une fonction donnée. La façon la plus évidente de trouver une
direction est l'utilisation de la dérivée. Ainsi, pour trouver la direction de descente, on
utilise le sens inverse de la dérivée. A cet eet, on prend ∆X = −∇f (X) . La relation
0
2.6.2 Algorithme
connaissant la valeur initiale X ,
Répéter
0
1. ∆X ← −∇f (X) . 0
2.6.3 Exemple
Soit une fonction cout f (X) quadratique en < sous la forme :
2
f (X) = x2 + 3y 2 ,
avec X = [x, y]0. Il est évident que l'origine est le point minimisant cette fonction.
Résolution avec un pas xe
Dans ce cas on recherche un pas ρ optimale c'est celui qui minimise une certaine
fonction, on a :
∇f (X) = [ 2x , 6y]
ξ(ρ) = X − ρ∇f (X)0 = [(1 − 2ρ)x , (1 − 6ρ)y]0
22
Pour l'obtention du paramètre ρ, considérons la fonction g(ρ) qu'on doit mini-
miser suivant ρ :
g(ρ) = f (ξ(ρ))
= (1 − 2ρ)2 x2 + (1 − 6ρ)2 y 2 ,
g 0 (ρ) = −4(1 − 2ρ)x2 − 36(1 − 6ρ)y 2
la paramètre ρ qui minimise la fonction g(ρ) est celui qui satisfait g (ρ) = 0,
0
soit :
(2.6)
2 2
x + 9y
ρ= 2 2
2x + 54y
L'équation itérative de résolution de ce problème est donc :
X = [x , y] = [3 , 5] ,
0 0
Répéter
1. ∆X ← −[ 2x , 6y] . 0
2. ρ = x2 +9y 2
3. X ← X + ρ∆X.
2x2 +54y 2
faire :
Y = X + ρ∆X,
f (Y) = Y(1)2 + 3Y(2)2 ,
∇f (X) = [2X(1) , 6X(2)],
23
f(x,y)=x2+3y2
20
15
10
z
0
2
2
1 1
0 0
−1 −1
−2 −2
y x
f(x,y)=x2+3y2
5
0
y
−1
−2
−3
−4
−5
−5 −4 −3 −2 −1 0 1 2 3 4 5
x
24
1. Calculer le Jacobien,
2. Calculer le Hessien,
3. Déterminer l'équation caractéristique du Hessien,
4. Donner les valeurs propres de cette matrice,
5. Cette matrice est elle dénie positive, pourquoi?
6. Calculer le déterminant en utilisant les valeurs propres.
7. Trouver analytiquement l'optimum de cette fonction, quelle est sa nature?
8. Utiliser la méthode du gradient pour déterminer cet extremum.
9. Calculer le pas optimale.
10. Donner l'algorithme correspondant à cette fonction pour le calcul du pas de façon
itérative.
2.7 Méthode de Newton
2.7.1 Principe
La méthode de Newton fait partie des méthodes de descente. Cette technique
cherche à minimiser le développement en série de Fourier du second ordre de la fonction
f (X) ∈ C suivant la quantité ∆X :
2
1
f (X + ∆X) ≈ f (X) + ∇f (X)∆X + ∆X0 Hf (X)∆X
2!
le ∆X qui minimise la partie droite est comme suit :
∆X = −Hf (X)−1 ∇f (X)0
pour la convergence cette méthode on calcule la quantité positive ∇f (X) Hf (X)
1 0 −1
∇f (X)
et on vérie qu'elle est inférieur ou égale à une certaine précision.
2
2.7.2 Algorithme
connaissant la valeur initiale X , et la précision
Répéter
0
f (X) = x2 + 3y 2 ,
avec X = [x, y]0.
Donner la forme quadratique correspondante, puis déterminer le minimum par la
méthode de Newton.
on a :
∇f (X)= [2x, 6y]
1
2 0 −1 2 0
Hf = −→ Hf
=
0 6 0 1
6
x
∆X = −Hf −1 ∇f (X) = −
y
1
1 0 −1 1
2 0 2x
2 ∇f (X) Hf (X) ∇f (X) = 2 2x 6y 0 1
6y
6
1.2644 1.8426 7725.7 −3533.8
A= −→ A−1 =
2.7640 4.0284 −5300.8 2424.9
B=
2645
1.
1.8426
−→ B −1
=
4358.5 −1993.6
cause principale de cette diérence peut être expliqué par rapport aux valeurs propres
correspondantes des deux matrices A et B qui sont [0.0001 5.2927] et [0.0002 5.2927] ,0 0
respectivement.
On peut dire qu'il y a un certain déséquilibre entre les valeurs propres de ces ma-
trices. On dit qu'on a des matrices mal conditionnées.
26
2.8.1 Introduction
La méthode de Newton requière l'inversion du Hessien. L'inversion des matrices est
une opération qui est souvent lourde et peut être la cause d'une instabilité numérique
si la matrice est mal conditionnée. Dans ces conditions, on applique la méthode Quasi-
Newton.
2.8.2 Principe
Le principe de cette méthode est de remplacer la matrice inverse du Hessien Hf (X ) −1
Réponse : Cette équation peut être vue comme étant un problème de minimi-
2
2.9.3 Dénition
Deux vecteurs U et V dans < sont conjugués par rapport à une forme bilinéaire
n
de matrice symétrique dénie positive Q (on dit aussi qu'ils sont Q-orthogonaux), si :
U0 QV = 0
28
Remarques
X ∗ = α1 U1 + α1 U1 + ... + αn Un
donne :
i i
T ∗ T
U QX i U B i
αi = =
UiT QUi UiT QUi
Cela montre que la solution X peut être obtenue par :
∗
n
∗
X UiT B
X = T QU i
U
i=1
Ui i
Suivant cette expression, on peut dire que la solution X peut être considérer comme
∗
Xk+1 = Xk + αk Uk
où gkT Uk
αk = −
UkT QUk
29
et
gk = QXk − B
converge vers la solution unique X de QX = B après n itérations (c-à-d X
∗
n = X∗ ).
2.9.6 Algorithme
1. Pour X donné, on prend U = −g = B − QX
0 0 0 0
2. α = −
k
gkT Uk
UkT QUk
3. X = X + α U
k+1 k k k
4. g = QX − B
k+1 k+1
5. β =
k
T
gk+1 QUk
UkT QUk
6. U = −g + β U
k+1 k+1 k k
30
2.10 Solutions des exercices
Solution Ex. 8.
problème posé, la hauteur h ne peut pas être plus grande que min(H, L).
1 2
1
31
Programme Matlab
a=min(H,L) /2;
2
h=0:a ;
4
figure , hold on
6
plot (h,V)
7
[V_max, i_max]=max(V) ;
11
h_max=h(i_max) ;
12
line ([h_max h_max] ,[0 V_max] , ' LineStyle ' , '−− ' , ' Color ' , ' r ' )
14
line ([0 h_max] ,[V_max V_max] , ' LineStyle ' , '−− ' , ' Color ' , ' r ' )
15
h_zero=find (abs(Vp)<1)
17
Vp_max= Vp(i_max) ;
18
20
32
xlabel ( 'h(mm) ' ) , ylabel ( 'V' ' ' ) ,
t i t l e ( ' Variation de la derivee en fonction de la hauteur ' )
21
22
Solution Ex. 9.
surface : 2 2 4
S = (− x2 + 8) × (6 + x) = − x3 − x2 + 8x + 48
9 9 3
y=−2∗x.^2/9+8;
2
33
Figure 2.7 Allure de la surface ainsi que sa dérivée suivant x.
t i t l e ( 'y=−2∗x.^2/9+8 ' )
6
x1=4;
8
y1=−2∗x1^2/9+8;
9
12
x2=4;
13
y2=−2∗x2^2/9+8;
14
16
figure , hold on
17
grid on
23
26
34
Solution Ex. 10.
Soit la fonction réelle à deux variables :
f (x, y) = x2 + 2x + y 2 + 4
1. Calcule du Jacobien,
∂f
∂x 2x + 2
Jf = ∇f 0 = =
∂f
∂y 2y
2. Le Hessien 2 0
Hf =
0 2
3. L'équation caractéristique du Hessien est donnée par :
det(H − λI) = 0 → (2 − λ)2 = 0
(2 − λ)2 = 0 → λ1 = λ2 = 2
5. La matrice est dénie positive, car les valeurs propres sont positives.
6. Le déterminant est donné par le produit des valeurs propres :
det(Hf ) = λ1 × λ2 = 4
la paramètre ρ qui minimise la fonction g(ρ) est celui qui satisfait g (ρ) = 0, soit :
0
(2.8)
2 2
1 x + 2x + y + 1 1
ρ= × 2
= 2
2 (x + 1) + y 2
Initialisation
0
X = [x , y]0 = [3 , 5]0
ρ = 21
Répéter
(a) ∆X ← −[ 2x + 2 , 2y] . 0
(b) X ← X + ρ∆X.
(c) Arrêter lorsque k∆Xk = (2x + 2)
2
2
2
+ 4y 2 ≤ 10−3 .
36
Chapitre 3
Optimisation avec contraintes : méthodes
globales
3.1 Dénitions
Un problème d'optimisation avec ou sous contrainte est donné sous la forme sui-
vante :
minf (X) X ∈ <n
hi (X) = 0 i = 1, ..., p
gj (X) = 0 j = 1, ..., q
f (x) = x avec x ≥ 1,
2
f (x, y) = x2 + y 2
x+y =5
37
3.2.1 Cas d'une contrainte d'inégalité
Soit le problème suivant :
minf (X) X ∈ <n
g(X) ≤ 0
est un minimum local de f sur l'ensemble {X/g(X) ≤ 0}. Si on suppose de plus que
Théorème
∇f (X∗ ) + γg(X∗ ) = 0
γg(X∗ ) = 0
de plus, si f et g sont convexes alors ces deux égalités sont susentes pour assurer que
X est un minimum local.
∗
Exp.
f (x) = x2 f (x) = x2
x≥1 g(x) = 1 − x ≤ 0
alors :
f (x) = 2x ; g(x) = 1 − x d'où g (x) = −1 6= 0
0 0
Exercice 11.
. Quel est le minimum de l de fer nécessaire pour clôturer une zone rectangulaire de
surface S.
3.2.2 Le Lagrangien du problème
Le Lagrangien d'un problème d'optimisation sous contraintes se met sous la forme :
(3.1)
p
X q
X
L(X, λ, γ) = f (X) + λi hi (X) + γi gi (X)
i=1 j=1
f (x) = x2 f (x) = x2
x≥1 g(x) = 1 − x ≤ 0 −→ L(x, γ) = x2 + γ(1 − x)
Exercice 12.
.
On veut résoudre le problème d'optimisation suivant :
f (x, y) = (x − 5)2 + (y − 2)2
39
Solution
inconnus.
1 2
Exercice 13.
On veut Déterminer les dimensions d'une boîte en carton parallélépipédique (comme
une boite d'allumette) et dépourvue de couvercle dont la construction demande le
moins de carton possible tout en ayant une contenance V déterminée.
a. Dénir les variables correspondantes à ce problème.
b. Donner une formulation mathématique de ce problème d'optimisation sous contraintes(En
déterminant la fonction coût et la contrainte).
c. En éliminant une variable (la hauteur), trouver les points stationnaires puis ré-
soudre le problème en tant que problème d'optimisation sans contrainte. (Indi-
cation : éliminer la contrainte)
d. Démontrer que l'optimum obtenu présente bien un minimum.
3.3 Méthode du gradient projeté
3.3.1 Introduction
Cette méthode est semblable à celle vue au chapitre précédente alors on a :
Xk+1 = Xk − ρk ∇f (Xk ) (3.2)
Soit Ω l'ensemble des vecteurs X qui vérient les contraintes. Si X vérie les
contraintes h(X ) = 0 et g(X ) ≤ 0, rien ne garantie que X vérie à son tour ces
k
contraintes.
k k k+1
1
f (x, y) = (x2 + 7y 2 )
2
y−x=1
41
3.4 Solutions des exercices
Solution Ex. 11.
.
On à le système :
f (x, y) = (x − 5)2 + (y − 2)2
y − x = −3
g(x, y) = y − x + 3 = 0
(1) + (2) → x − 5 + y − 2 = 0 . . . . . . (4)
y =7−x
(4)et(2) →
y =x−3
on tire alors
7 − x = x − 3 =⇒ x = 5ety = 2
le Hessien correspondant au point (5, 2) est :
2 0
Hf (5, 2) =
0 2
Suivant les exercices précédents, le Hessien est déni positif alors en ce point on à un
minimum.
42
Solution Ex. 12.
.
Soit un rectangle dont la longueur a et la largeur b voir gure ci-contre. La
surface de ce rectangle est S = a × b.
𝑆 𝑏
43
Figure 3.2 Boite sans couvercle.
Cette équation représente la fonction à minimisé, car on cherche le minimum de
carton possible pour couvrir les surfaces.
on à : V
z=
xy
alors, f (x, y) = xy + +
2V 2V
∂f 2V
∂x =y− x2 =0 → 2V = yx2
∂f 2V
=x− =0 → 2V = xy 2
∂y y2
alors
xy 2 = yx2 =⇒ x = y
Enn on obtient V = 2x et
√ q
3
→ x = y = 2V3
z = 3 V4
Pour déterminer la naturede l'optimum on doit calculer les dérivées partielles :
∂2f 4V ∂2f
∂x2 = x3 ∂x∂y =1
∂f ∂2f 4V
∂y∂x 1 =
∂y 2 y3
2 1
H=
1 2
on a det H = 3 > 0 et H 11 =2>0 alors ce point présente un minimum.
44
Chapitre 4
Programmation linéaire
4.2 Dénitions 1
La programmation linéaire, est une méthode d'optimisation, dont la fonction coût
(objective) et les contraintes sont linéaires. Ainsi dans ce chapitre on ne considère que
la résolution des équations linéaires.
La forme standard et compacte d'un problème de programmation linéaire (PL) est
donnée par :
min C X (fonction coût)
T
45
problème devient :
min C T X
AX + Y = B
X≥0
Y ≥0
min z = x1 − x2
2x1 + x2 ≥ 2
x + 3x2 ≤ 3
1
x1 , x2 ≥ 0
Ce problème se transforme sous la forme standard comme suit :
min z = x1 − x2
2x1 + x2 − x3 = 2
x + 3x2 + x4 = 3
1
x1 , x2 , x3 , x4 ≥ 0
4.3 Dénitions 2
On considère le domaine des solutions réalisable comme étant l'intersection d'un
sous-espace avec l'orthant positif (quadrant en 2D, Octant en 3D, et orthant en di-
mension n). Les points extrêmes des solutions réalisables sont appelées solutions de
base.
4.4 Le théorème fondamentale de la programmation linéaire
Étant donné un programme linéaire (PL) sous la forme standard
min C T X
AX = B
X≥0
1 2
X = αX1 + (1 − α)X2
AX = B
X≥0
Un vecteur X est un point extrême de K si et seulement si X est une solution de
base réalisable.
4.5.3 Exemple
considérons le problème de PL suivant :
x1 + x2 + x3 = 1
x1 ≥ 0, x2 ≥ 0, x3 ≥ 0
Cette gure montre la surface (le triangle), où appartient la solution admissible. Les
trois sommets du triangle présentent les solutions de base (1,0,0), (0,1,0) et (0,0,1).
4.6 Résolution graphique
Une entreprise fabrique des vêtements pour femme. Les prots réalisés sont de 50$
par robe et de 30$ par chemisier vendu. Combien de robes et de chemisiers doit-elle
vendre pour réaliser un prot maximum en respectant les conditions suivantes :
On ne peut pas fabriquer plus de 80 items de vêtement par mois.
Il faut deux heures pour coudre une robe et une heure pour coudre un chemisier,
alors que la machine à coudre n'est disponible que pendant cent heures par mois.
Résoudre graphiquement ce problème.
47
Figure 4.1 Ensemble des solutions possibles pour le problème précédent
Réponse Formulation
du problème
max f (x1 , x2 ) = 50x1 + 30x2
x1 + x2 ≤ 80
2x + x2 ≤ 100
1
x1 ≥ 0, x2 ≥ 0
La solution à ce problème correspond à l'un des sommets du polygones [0 0], [0 50], [20 60]
et [0 80], alors on remplace ces coordonnées dans la fonction f (x , x ). on trouve que
le maximum de prot correspond au point [20 60]
1 2
x1 x2 x3 x4 b
1/2 1 1/2 0 6
l1
1
l2 1 0 1 10
l -12
3 -16 0 0
Il faut annuler tous les éléments de la colonne a sauf le pivot, alors on obtient les
équations des nouvelles lignes comme suit :
2
l2 = l2 − l1
l3 = l3 + 16l1
Le tableau devient :
x1 x2 x3 x4 b
1/2 1 1/2 0 6 (6/0.5=12)
l1
1/2 0 -1/2 1 4 (4/0.5=8
l2
)
-4 0 8 0
l3
On répète les mêmes opérations, on obtient :
50
x1 x2 x3 x4 b
1/2 1 1/2 0 6
l1
1 0 -1 2 8
l2
-4 0 8 0
l3
pour annuler les éléments de la colonne 1, on met à jours les nouvelles lignes comme
suit : 1
l1 = l1 − l2
2
l3 = l3 + 4l2
x1 x2 x3 x4 b
0 1 5/2 -1 2
l1
1 0 -1 2 8
l2
0 0 4 8
l3
Il n'y-a pas d'éléments négatifs dans la dernière ligne alors les solutions sont :
x1 = 8
x2 = 2
Ainsi le maximum de la fonctions sous les contraintes est max f (x , x ) = 152.
1 2
4.7.4 Exemple 2
Résoudre le problème du paragraphe résolution graphique. En utilisant cet algo-
rithme.
4.7.5 Exemple 3
On veut maximiser la fonction coût suivante :
f (X) = 3x1 + x2 + x3