0% ont trouvé ce document utile (0 vote)
105 vues31 pages

Optimisation 2

Transféré par

diarranoura03
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
105 vues31 pages

Optimisation 2

Transféré par

diarranoura03
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

OPTIMISATION 2

Dr KEITA Kolé
UNIVERSITE MUSULMANE AFRICAINE (UMA)
UFR Sciences Économiques et de Gestion

Année Universitaire 2021-2022

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 1 / 31


Rappels de l'optimisation libre (sans contraintes)

Sommaire

1 Rappels de l'optimisation libre


(sans contraintes)

2 Optimisation avec les


contraintes d'égalités

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 2 / 31


Rappels de l'optimisation libre (sans contraintes)

Condition nécessaire d'optimalité


Dans ce cours, nous désignons par f une fonction numérique de n ∈ N
variables réelles, dénie sur une partie Ω de Rn .
Condition nécessaire d'existence d'extremum local ou relatif : Soit
X0 = (x0,1 , x0,2 , · · · , x0,n ) un point intérieur du domaine Ω.
Si f présente un extremum (minimum ou maximum) local au point X0
alors les dérivées partielles de f sont dénies au point X0 et
∂f
∀i ∈ {1, · · · , n}, (X0 ) = 0 ∇f (X0 ) = 0Rn .

∂xi
X0 est un point critique de la fonction f .

Exemple : Déterminer les points critiques des fonctions suivantes


1 f (x, y ) = (x − 2)3 + (y + 1)2 ;
2 g (x, y , z) = 3x 2 y + 2z 2 − x 3 z − y 3 .

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 3 / 31


Rappels de l'optimisation libre (sans contraintes)

Condition susante d'optimalité


Soit X0 = (x0,1 , x0,2 , · · · , x0,n ) un point critique de la fonction f de C 2 sur
l'ensemble Ω ⊂ Rn . Notons par Hf (X0 ) la matrice Hessienne de la fonction
f au point X0 .

Condition susante d'existence d'extremum local ou relatif :


1 Si Hf (X0 ) est dénie positive alors f admet un minimum local au
point X0 .
2 Si Hf (X0 ) est dénie négative alors f admet un maxmum local au
point X0 .
3 Si Hf (X0 ) est non dénie alors f n'admet pas d'extremum local au
point X0 (existence d'un point selle ou point col).
4 Si Hf (X0 ) est semi-dénie, on ne peut pas conclure. On étudie le signe
de ∆f (X0 ) = f (X0 + (h1 , h2 , · · · , hn )) − f (X0 ) au voisinage de X0 .

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 4 / 31


Rappels de l'optimisation libre (sans contraintes)

Notation de Monge
Soient f une fonction numérique de deux variables et X0 un point critique
de f . On suppose que f est de classe C 2 sur l'ensemble Ω ⊆ R2 . La
matrice hessienne de f au point X0 est notée par
!
∂2f ∂2f  
∂x 2
(X0 ) ∂y ∂x (X0 ) r s
Hf (X0 ) = ∂2f ∂2f = .
∂x∂y (X0 ) ∂y 2
(X0 ) s t

Propriétés :
1 Si det(Hf (X0 )) = rt − s 2 < 0 alors Hf (X0 ) est non dénie et X0 est
un point de selle ou un point de col.
2 Si det(Hf (X0 )) = rt − s 2 > 0 et r > 0 alors Hf (X0 ) est dénie
positive et f présente un minimum local au point X0 .
3 Si det(Hf (X0 )) = rt − s 2 > 0 et r < 0 alors Hf (X0 ) est dénie
négative et f présente un maximum local au point X0 .
4 Si det(Hf (X0 )) = rt − s 2 = 0 alors Hf (X0 ) est semi-dénie. On ne
peut pas conclure. On étudie le signe de ∆f (X0 )
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 5 / 31
Rappels de l'optimisation libre (sans contraintes)

Application
Un individu consomme deux types de biens X et Y en quantités x et y aux
prix respectifs de 2 unités monétaire et 1 unité monétaire. Sa satisfaction
est exprimée par sa fonction Utilité. Cette dernière dépend des quantités
consommées des deux biens. Elle est sous la forme U(x, y ) = −x 2 + xy .
C'est un problème d'optimisation sans contraintes. Nous allons vérier s'il
existe un extremum (maximum) à ce problème.
Condition nécessaire d'optimalité : ∇U(x, y ) = ( ∂U(x,y
∂x , ∂y ) = (0, 0).
) ∂U(x,y )

(
∂U(x,y )
∂x = −2x + y = 0,
∂U(x,y )
∂y = x = 0.
Le point critique est M0 = (0, 0).
La matrice hessienne :
−2 1
 
Hf (M0 ) = .
1 0
det(Hf (M0 )) = −1 < 0 alors M0 n'est pas un extremum local.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 6 / 31
Rappels de l'optimisation libre (sans contraintes)

Autre approche (Trinôme du second degré)


Soient f une fonction numérique de deux variables et X0 un point critique
de f . On suppose que f est de classe C 2 sur l'ensemble Ω ⊆ Rn . On a
n n
1 XX ∂2f
∆f (X0 ) = f (X0 + (h1 , h2 , · · · , hn )) − f (X0 ) ≃ hi hj (X0 )
2 ∂xi ∂xj
i=1 j=1

Le signe du trinôme de second degré permet de déterminer la nature du


point critique.
Cas où n = 2 :

1 2 ∂2f ∂2f 2
2∂ f
2

∆f (X0 ) ≃ h (X0 ) + hk (X0 ) + k (X0 )
2 ∂x 2 ∂x∂y ∂y 2

Exemple : Étudier les extremums locaux de la fonction


f (x, y ) = (x − 2)2 + (y + 1)2 avec l'approche du trinôme de second degré.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 7 / 31


Rappels de l'optimisation libre (sans contraintes)

Proposition 1
Notons par Hf (x) la matrice Hessienne de f au point x ∈ Ω. On dit que
1 f est convexe sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est semi-dénie
positive.
2 f est concave sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est semi-dénie
négative.
3 f est strictement convexe sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est
dénie positive.
4 f est strictement concave sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est
dénie négative.

Proposition 2
1 Si f est convexe sur Ω et ∇f (X0 ) = 0 alors f admet un minimum
global au point X0 . Ce minimum est strict si la convexité est stricte.
2 Si f est concave sur Ω et ∇f (X0 ) = 0 alors f admet un maximum
global au point X0 . Ce maximum est strict si la concavité est stricte.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 8 / 31
Rappels de l'optimisation libre (sans contraintes)

Exercice : On considère la fonction f (x, y ) = x 2 − xy + 12 y 4 + 12 y 2 .


1 Déterminer les points critiques de la fonction f et Montrer qu'elle est
strictement convexe. Déterminer les extremums de f .
2 Calculer lim f (0, y ). Existe t-il un maximum global?
y →+∞

Existence d'extremum global


Soit f une fonction numérique dénie sur Ω ⊂ Rn . Pour savoir si elle
admet un minimum global (respectivement un maximum global), nous
avons trois cas possibles :
1 f n'est pas minorée sur Ω (respectivement majorée sur Ω) alors elle
n'admet pas de minimum global (respectivement maximum global).
2 f est minorée mais n'atteint pas sa borne inférieure (respectivement
majorée mais n'atteint pas sa borne supérieure) sur Ω alors il n'existe
pas un minimum global (respectivement maximum global) sur Ω.
3 f est minorée et atteint sa borne inférieure (respectivement majorée et
atteint sa borne supérieure) sur Ω alors il existe un minimum global
(respectivement un maximum global).
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 9 / 31
Optimisation avec les contraintes d'égalités

Sommaire

1 Rappels de l'optimisation libre


(sans contraintes)

2 Optimisation avec les


contraintes d'égalités
Méthode de substitution
Méthode du multiplicateur
de Lagrange

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 10 / 31


Optimisation avec les contraintes d'égalités

Dénition 1
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n). Le problème d'optimisation de la fonction f sous les
contraintes d'égalités C1 (x) = C2 (x) = · · · = Cp (x) = 0 se présente ainsi
(
max f (x)
x∈Ω
s.c C1 (x) = C2 (x) = · · · = Cp (x) = 0
ou (
min f (x)
x∈Ω
s.c C1 (x) = C2 (x) = · · · = Cp (x) = 0

f est la fonction cible ou la fonction objectif,


les points x ∈ Ω qui vérient les contraintes, sont appelés les points
admissibles.
Déterminer le minimum d'une fonction f revient à déterminer le maximum
de −f .
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 11 / 31
Optimisation avec les contraintes d'égalités

Dénition 2
Soient f une fonction numérique dénie sur Ω ⊂ Rn et x0 ∈ Ω. On dit que
f admet un minimum local au point x0 sous la contrainte A ⊂ Rn si

∀x ∈ Ω ∩ A, f (x) ≥ f (x0 ).

f admet un maximum local au point x0 sous la contrainte A ⊂ Rn si

∀x ∈ Ω ∩ A, f (x) ≤ f (x0 ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 12 / 31


Optimisation avec les contraintes d'égalités Méthode de substitution

Méthode de substitution
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n). On veut résoudre le problème suivant
(
min f (x)
x∈Ω
s.c C1 (x) = C2 (x) = · · · = Cp (x) = 0

La méthode de substitution consiste


1 à exprimer p composantes du vecteur variable x en fonction des n − p
autres composantes,
▶ vérication avec le théorème des fonctions implicites.
2 résoudre un problème d'optimisation sans contraintes (optimisation
libre).
▶ Condition nécessaire d'optimalité,
▶ Condition susante d'optimalité.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 13 / 31


Optimisation avec les contraintes d'égalités Méthode de substitution

Théorème des fonctions implicites


Si les contraintes Ci (i ∈ {1, · · · , p}) sont de classe Ck (k ≥ 1) et la
matrice des dérivées partielles dénie par
 ∂C1 ∂C1 
∂xn−p+1 ··· ∂xn
 ∂C2 ··· ∂C2 
 ∂xn−p+1 ∂xn 
 .. .. .. 
. . . 
 

∂Cp ∂Cp
∂xn−p+1 ··· ∂xn

est inversible alors il existe deux ouverts O ∈ Rn−p et I ∈ Rp et une


application ϕ : O → I dénie par

∀(x1 , · · · , xn−p ) ∈ O, ∀(xn−p+1 , · · · , xn ) ∈ I,

ϕ(x1 , · · · , xn−p ) = (xn−p+1 , · · · , xn ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 14 / 31


Optimisation avec les contraintes d'égalités Méthode de substitution

Exemple : on considère l'équation C (x, y ) = 2xy − 2x + y − 2. Montrons


qu'il existe une application dénie sur un domaine O ⊂ R telle que

∀(x, y ) ∈ R2 , C (x, y ) = 0 ⇔ ∀y ∈ O, ϕ(x) = y .

La fonction C est polynomiale donc elle est de classe C ∞ sur R2 . On a


∂y (x, y ) = 2x + 1 ̸= 0 si x ̸= − 2 .
∂C 1

Avec le théorème des fonctions implicites, il existe une application


ϕ : R \ {− 21 } → R.

2x + 2
C (x, y ) = 0 ⇔ y = ϕ(x) = .
2x + 1

Application : Un individu consomme deux types de biens X et Y en


quantités x et y aux prix respectifs de 2 unités monétaire et 1 unité
monétaire. Sa satisfaction est exprimée par sa fonction Utilité. Cette
dernière dépend des quantités consommées des deux biens. Elle est sous la
forme U(x, y ) = −x 2 + xy . Il désire maximiser sa satisfaction sachant qu'il
ne détient que 20 unités monétaires pour l'achat des biens X et Y .
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 15 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Idée
La méthode du multiplicateur de Lagrange permet de ramener un problème
d'optimisation d'une fonction de n variables soumise à p contraintes à un
problème d'optimisation à n + p variables.
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n). On dénit le lagragien :
p
X
L(x, λ1 , λ2 , · · · , λp ) = f (x) + λi Ci (x).
i=1

Les paramètres λi (i ∈ {1, · · · , p}) sont appelés les multiplicateurs de


Lagrange.
La méthode du multiplicateur de Lagrange est utilisée lorsque toutes les
contraintes sont qualiées.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 16 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn


(avec p < n).
Conditions de qualication
Soit x ∈ Ω, les contraintes Ci sont dites qualiées au point x si
1 La matrice jacobienne JC (x) est de rang plein ou maximal.
C'est-à-dire le rang de
 ∂C ∂C1
(x) · · ·

∂xn (x)
1
∂x1
.. .. ..
. . .
 
 
∂Cp ∂Cp
∂x1 (x) ··· ∂xn (x)

est p .
2 ∀i ∈ {1, · · · , p}, Ci (x) = 0.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 17 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Condition nécessaire
Condition nécessaire
Si f admet un extremum local X0 sous les contraintes Ci (i ∈ {1, · · · , p})
alors ∀j ∈ {1, · · · , n}, ∀i ∈ {1, · · · , p}, ∃Λ = (λ0,1 , · · · , λ0,p ) tel que
∂xj (X0 , Λ) = 0 et ∂λi (X0 , Λ) = 0
∂L ∂L

On a p
∂L ∂f ∂ci
(X0 , Λ) = 0 ⇒ (X0 ) = 0
X
(X0 ) + λ0,i
∂xj ∂xj ∂xj
i=1
∂f ∂C
⇒ (X0 ) + Λ · (X0 ) = 0, ∀j ∈ {1, · · · , n}.
∂xj ∂xj
La seconde condition nécessaire montre que les points critiques sont
admissibles
∂L
(X0 , Λ) = 0 ⇒ Ci (X0 ) = 0, ∀i ∈ {1, · · · , p}
∂λi
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 18 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Condition susante
Dénition
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n) et X0 ∈ Ω (X̄0 = (X0 , Λ)). On appelle matrice hessienne
bordée d'ordre (n + p) du lagrangien L au point X̄0 , la matrice dénie par
 ∂2L ∂2L ∂2L ∂2L 
∂x12
(X0 ) ··· ∂xn ∂x1 (X̄0 ) ∂λ1 ∂x1 (X̄0 ) ··· ∂λp ∂x1 (X̄0 )
 .. .. .. .. .. ..

 . . . . . .

2
 ∂ L ∂2L ∂2L ∂ L 2
 ∂x (X̄0 ) ··· (X̄0 ) ∂λ1 ∂xn (X̄0 ) ··· ∂λp ∂xn (X̄0 ) 

2
∂xn2
HL (X̄0 ) =  n
2
 ∂ L (X̄ ) · · · ∂2L ∂2L ∂ L 2

 ∂x ∂λ1
0 1 ∂xn ∂λ1 (X̄0 ) ∂λ21
(X̄0 ) ··· ∂λp ∂λ (X̄01
)

 .
.. .. .. .. .. .. 
. . . . .
 
 
2
∂ L ∂2L ∂2L ∂ L 2

∂x ∂λp (X̄0 ) · · ·
1 ∂xn ∂λp (X̄0 ) ∂λ1 ∂λp (X̄0 ) ··· ∂λ
(X̄0 )
2
p

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 19 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

La matrice bordée devient


 ∂Cp

∂2L ∂2L ∂C1
∂x12
(X̄0 ) ··· ∂xn ∂x1 (X̄0 ) ∂x1 (X0 ) ··· ∂x1 (X0 )

.. .. .. .. .. .. 
. . . . . .
 
 
 ∂2L ∂2L ∂C1 ∂Cp 

 ∂xn2
(X̄0 ) ··· ∂xn2
(X̄0 ) ∂xn (X0 ) ··· ∂xn (X 0 ) 

HL (X̄0 ) = 



∂C1
∂x1 (X0 ) ··· ∂C1
∂xn (X0 ) 0 ··· 0
 
 
 .. .. .. .. .. .. 
. . . . . .
 
 
∂Cp ∂Cp
∂x1 (X0 ) ··· ∂xn (X0 ) 0 ··· 0

HL (X̄0 ) JCT (X0 )


 

HL (X̄0 ) =  
JC (X0 ) 0
Exemple : Écrire la matrice hessienne bordée de la fonction
f (x, y ) = x 2 + 2y 2 − x sur le cercle unité.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 20 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Calcul des déterminants


Déterminants
À partir de la matrice hessienne bordée d'ordre n + k , on dénit les
déterminants Dp+k des sous-matrices bordées d'ordre p + k avec
k ∈ {p + 1, p + 2, · · · , n}.

Cas particuliers :
pour n = 2 et p = 1, la matrice bordée est
∂2L ∂2L
 ∂C

∂x 2 ∂y ∂x ∂x
 ∂2L ∂2L ∂C  .
HL =  ∂x∂y ∂2y ∂y 
∂C
∂x
∂C
∂y 0

On a k = 2 et D3 = det(HL ).
pour n = 3 et p = 1, la matrice bordée est

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 21 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

 
∂2L ∂2L ∂2L ∂C
∂x 2 ∂y ∂x ∂z∂x ∂x
 ∂2L ∂2L ∂2L ∂C 
 ∂x∂y 
HL =  2 ∂2y ∂z∂y ∂y  .
∂ L ∂2L ∂2L ∂C 
 ∂x∂z ∂y ∂z ∂z 2 ∂z 
∂C
∂x
∂C
∂y
∂C
∂z 0
2 2
∂ L ∂ L ∂C
∂x 2 ∂y ∂x ∂x
On a k ∈ {2, 3}, D3 = ∂2L
∂x∂y
∂2L
∂2y
∂C
∂y
et D4 = det(HL ).
∂C
∂x 0 ∂C
∂y
pour n = 3 et p = 2, la matrice bordée est
∂2L ∂2L ∂2L
 ∂C1 ∂C2

∂x 2 ∂y ∂x ∂z∂x ∂x ∂x
 ∂2L ∂2L ∂2L ∂C1 ∂C2 
∂2y
 ∂x∂y ∂z∂y ∂y ∂y 

 2
HL = ∂ L ∂2L ∂2L ∂C1 ∂C2  .
 ∂x∂z ∂y ∂z ∂z 2 ∂z ∂z 
0 0 
 ∂C1 ∂C1 ∂C1 
 ∂x ∂y ∂z
∂C2
∂x
∂C2
∂y
∂C2
∂z 0 0
On a k = 3 et D5 = det(HL ).
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 22 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Théorème
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n) et X̄0 = (X0 , Λ) ( X0 ∈ Ω) est un point critique du
lagrangien.
1 Si tous les déterminants Dp+k (k ∈ {p + 1, · · · , n}) sont du même
signe que (−1)p alors f présente un minimum local au point X0 sous
les contraintes Ci (i ∈ {1, · · · , p}).
2 Si les déterminants Dp+k (k ∈ {p + 1, · · · , n}) sont de signes
alternés. C'est-à-dire (−1)p+1 D2p+1 > 0, (−1)p+1 D2p+2 < 0,
(−1)p+1 D2p+3 > 0, · · · alors f présente un maximum local au point
X0 sous les contraintes Ci .
3 Si les deux premiers points ne sont pas vériés, on étudie le signe de
∆f (X0 ) = f (X0 + (h1 , · · · , hn ) − f (X0 ) en tenant compte des
contraintes Ci (X0 ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 23 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Exemple 1 : déterminer les extremums de la fonction


f (x, y ) = x 2 + 2y 2 − x sur le cercle unité.
La fonction objectif est f (x, y ) = x 2 + 2y 2 − x et on a une seule contrainte
C (x, y ) = x 2 + y 2 − 1.
Méthode du multiplicateur de Lagrange : le lagrangien est
L(x, y , λ) = x 2 + 2y 2 − x + λ(x 2 + y 2 − 1).
 ∂x = 0  2x − 1 + 2xλ = 0
 ∂L 

Condition nécessaire : on a ∂L
∂y = 0 ⇒ 4y + 2y λ = 0
0 2
+ y2 − 1 = 0
 ∂L
x

∂λ =
Les points critiques de L sont M̄0 (1, 0, − 12 ), M̄1 (−1, 0, − 32 ),
√ √
M̄2 (− 21 , − 2
3
, −2) et M̄3 (− 21 , 2
3
, −2)
Conditions de qualications des points critiques : la matrice
jacobienne associée à la contrainte au point (x, y ) est JC (x, y ) = (2x, 2y ).
Au point M0 : JC (1, 0) = (2, 0) est de rang 1 et C (1, 0) = 0 alors le point
est qualié.
Au point M1 : JC (−1, 0) = (−2, 0) est de rang 1 et C (−1, 0) = 0 alors le
point est qualié.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 24 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange
√ √
Au point M2 : JC (− 21 , − 23 ) = (−1, − 3) est de rang 1 et

C (− 12 , − 23 ) = 0 alors le point est qualié.
√ √ √
Au point M3 : JC (− 21 , 23 ) = (−1, 3) est de rang 1 et C (− 12 , 23 ) = 0
alors le point est qualié.

Condition susante : la matrice hessienne bordée d'ordre 3 est


2(1 + λ) 0 2x
 

HL (x, y , λ) =  0 2(2 + λ) 2y  .
2x 2y 0
1 0 2
 

Au point M̄0 : HL = 0 3 0 et D3 = −12 < 0. Alors f présente un


2 0 0
minimum local en M0sur le cercle unité.
−1 0 −2

Au point M̄1 : HL =  0 1 0  et D3 = −4 < 0. Alors f présente


−2 0 0
un minimum local en M1 sur le cercle unité.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 25 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

−2 0 −√1
 

Au point M̄2 : HL =  0 0
√ − 3 et D3 = 6 > 0. Alors f
−1 − 3 0
présente un maximumlocal en M2 surle cercle unité.
−2 0 √ −1
Au point M̄3 : HL = 0 √0
 3 et D3 = 6 > 0. Alors f présente
−1 3 0
un maximum local en M3 sur le cercle unité.
Exemple : Étudier les extremums locaux de la fonction
f (x, y , z) = 8x 3 + 8y 3 − 12xyz + 10z 3 − 3z sous la contrainte
C (x, y , z) = x + y − z = 0

Méthode de substitution : la dérivée partielle = −1 ̸= 0 alors il ∂C


∂z
existe un ouvert O ⊂ R et une application ϕ dénie sur O tels que
2

z = ϕ(x, y ) = x + y .
On remplace z par x + y dans la fonction f et on obtient

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 26 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

g (x, y ) = f (x, y , x + y ) = 3(6x 3 + 6y 3 + 6x 2 y + 6xy 2 − x − y ).


Condition nécessaire :
18x 2 + 12xy + 6y 2 − 1 = 0

∇g (x, y ) = (0, 0) ⇒
18y 2 + 6x 2 + 12xy − 1 = 0
√ √
Les points
√ √
critiques sont A0 ( 16 , 61 ), A1 (− 16 , − 16 ), A2 ( 63 , − 6
3
) et
A3 (− 63 , 63 ).
Condition susante : la matrice hessienne de g est
3x + y
 
x +y
Hg (x, y ) = 36
x +y x + 3y

Au point A0 : on a det(Hg (A0 )) = 36 > 0 et ∆1 = 24 > 0 alors f admet


un minimum local au point A¯0 = ( 16 , 16 , 13 ) sous la contrainte.
Au point A1 : on a det(Hg (A1 )) = 36 > 0 et ∆1 = −24 < 0 alors f admet
un maximum local au point A¯1 = (− 16 , − 16 , − 13 ) sous la contrainte.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 27 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

√ √
Au point A2 : on a det(Hg (A2 )) = −12 < 0 alors A¯2 = ( 63 , − 63 , 0) est
un point selle. √ √
Au point A3 : on a det(Hg (A3 )) = −12 < 0 alors A¯3 = (− 63 , 63 , 0) est
un point selle.

Méthode de multiplicateur de Lagrange : le lagrangien est


L(x, y , z, λ) = 8x 3 + 8y 3 − 12xyz + 10z 3 − 3z + λ(x + y − z).

Condition nécessaire :
24x 2 − 12yz + λ = 0


24y 2 − 12xz + λ = 0


∇L(x, y , z, λ) = (0, 0, 0, 0) ⇒
 −12xy + 30z 2 − 3 − λ = 0
x +y −z = 0

Les √
points√critiques sont A0 ( 16√, 61 ,√31 , 0), A1 (− 16 , − 61 , − 13 , 0),
A2 ( 63 , − 63 , 0, −2) et A3 (− 63 , 63 , 0, −2).
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 28 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Condition de qualication : pour tout point (x, y , z), la matrice


jacobienne JC (x, y , z) = (1, 1, −1) est de rang 1 et les points critiques
sont admissibles.
Condition susante : la matrice hessienne bordée
48x −12z −12y 1
 
−12z 48y −12x 1 
HL (x, y , z, λ) = 
−12y −12x 60z −1

1 1 −1 0

8 −4 −2 1
 
−4 8 −2 1 
Au point A0 : on a HL (A0 ) = 
−2 −2 20 −1,

1 1 −1 0
8 −4 1
D3 = −4 8 1 = −24 < 0 et D4 = det(HL (A0 )) = −432 < 0 alors f
1 1 0
présente un minimum local au point A0 sous la contrainte.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 29 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

−8 4 2 1
 
4 −8 2 1
Au point A1 : on a HL (A1 ) =  ,
 2 2 −20 −1
1 1 −1 0
−8 4 1
D3 = 4 −8 1 = 24 > 0 et D4 = det(HL (A1 )) = −432 < 0 alors f
1 1 0
présente un maximum local au point
√ A0 sous la contrainte.

8 3 0√ −2√3 1

 0
Au point A2 : on a HL (A2 ) =  √ −8√3 −2 3 1 ,

2 3 −2 3 0 −1
1 1 −1 0

8 3 0√ 1
D3 = 0 −8 3 1 = 0. On ne peut rien conclure à priori. On étudie
1 1 0
le signe de ∆f (A3 ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 30 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

√ √
−8 3 0 −2√ 3 1
 

0√ 8√3 2 3 1
Au point A3 : on a HL (A3 ) =  ,

 −2 3 2 3 0 −1
1 1 −1 0

−8 3 0 1

D3 = 0 8 3 1 = 0. On ne peut rien conclure à priori. On étudie
1 1 0
le signe de ∆f (A3 ).

Application : On veut maximiser la production, à coût donné. La fonction


1 2
de production est f (x, y ) = x y où x la quantité de capital utilisé et y
3 3

est la quantité de travail. Le coût de production est C (x, y ) = p1 x + p2 y


où p1 et p2 sont les prix unitaires de capital et de travail. Le problème
d'optimisation est le suivant

max f (x, y )
s.c C (x, y ) = C0

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 31 / 31

Vous aimerez peut-être aussi