Optimisation Deux Var
Optimisation Deux Var
Licence 3 MISEG
Optimisation
23 juin 2018
FT
1.1 Le théorème de Weirstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Cas des fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
RA
3 Conditions suffisantes du second ordre 4
1 Théorème généraux
1.1 Le théorème de Weirstrass
O Théorème 1. Une fonction continue sur un compact D atteint son maximum et son minimum sur D
FT
Proposition 1. Soit f une fonction définie et différentiable sur un ouvert convexe de R2 . On a l’équivalence
suivante :
f est convexe sur D si et seulement si
En faisant tendre t vers 0, on obtient f (x) − f (y) > dfy (x − y), en effet f est de classe C 1 et df est continue.
Réciproquement, supposons que ∀(x; y) ∈ D2 , f (y) − f (x) 6 dfy (y − x) et montrons que f est convexe. Soit
t ∈ [0; 1], posons yt = tx + (1 − t)y. D’une part :
D’autre part :
2 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
FT
dfa = 0 ⇔ f admet un minimum global en a
Preuve. Si f admet un minimum global en a alors f admet un minimum local en a et dfa = 0. Réciproque-
ment, d’après la proposition 1 f (x) − f (a) > dfa (x − a). Or dfa = 0, donc f (x) > f (a).
√ √
cqfd
Exemple 3. On considère la fonction de production q(x1 ; x2 ) = x1 + x2 avec (x1 ; x2 ) ∈ R+x × R+x . Soit p
le prix du produit (output) et w1 et w2 le prix des intrants (input). On cherche à étudier le problème de
maximisation du profit.
RA
2 Conditions nécessaires du premier ordre
On a vu en L1 que si une fonction f présente un extremum local au point intérieur x∗ de son ensemble de
définition et si elle est dérivable en x∗ , alors f 0 (x∗ ) = 0.
On dispose d’un résultat analogue pour les fonctions de plusieurs variables.
f f
(X∗ ) = (X∗ ) = 0
x y
Définition 1. Ces égalités s’appellent les conditions du premier ordre (du problème d’optimisation).
Tout point X∗ vérifiant ces conditions est appelé point candidat ou point critique (du problème d’optimisa-
tion).
Soulignons que ces conditions du premier ordre sont des conditions nécessaires mais, en général, ne sont
pas suffisantes de sorte qu’un point candidat n’est pas forcément un extremum.
3 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
f est une fonction polynôme, donc est dérivable sur R2 et ses dérivées partielles, qui sont des polynômes,
sont continues sur R2 , donc f est C1 sur R2 .
FT
... à finir
Attention
Une fonction peut admettre un extremum sur la frontière sans que les dérivés partielles s’annulent.
p
Exemple 5. La fonction f : (x, y) 7−→ 1 − (x2 + y 2 ) est définie sur le disque fermé de centre O et de rayon
RA
1. Elle admet pour minimum 0, il est atteint sur le cercle de centre O de rayon 1 et pourtant les dérivées
partielles ne s’annulent en aucun point du cercle.
D
Exercice 1
Soit f la fonction définie sur R2 par f (x, y) = y 3 + x2 − 3my, avec m ∈ R.
Déterminer les points critiques de f suivant les valeurs du paramètre m.
4 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
FT
Définition 3. Soit f une fonction deux fois dérivable en A ∈ D ⊂ R2 , on appelle matrice hessienne de f en A
la matrice : 2 f 2
2 (A) f (A)
x yx
D2A f = 2 f
2 f
(A) xy
(A) y 2
Remarque 1. Lorsque f est de classe C 2 , la matrice hessienne est symétrique d’après le théorème de
Schwartz.
RA
O Théorème
! 3 (Formule de Taylor). Soit f une fonction de classe C 2 sur un ouvert D. Soit X ∈ d et soit
h
H ∈ R2 tels que [X; X + H] ⊂ D.
k
−−−−→ 1
f (X + H) = f (X) + grad fX · H + t H · D2X f · H + ||H||2 ε(H)
2
où limH→0 ε(H) = 0.
Preuve. Posons
D
g : [0; 1] −→ R
t 7−→ f (X + tH)
, en tant que fonction composée, g est une fonction de classe C 2 sur [0; 1].
D’après la formule de Taylor-Lagrange d’une fonction d’une variable, il existe c ∈]0; 1[ tel que
1 1 1
g(1) = g(0) + g 0 (0) + g 00 (c) = g(0) + g 0 (0) + g 00 (0) + (g 00 (c) − g 00 (0))
2 2 2
D’après la formule de dérivation des fonctions composées :
f f
g 0 (t) = (X + tH)h + (X + tH)k
x x
−−−−→
et g 0 (0) = grad fX · H.
En dérivant une seconde fois, on obtient :
2 f 2 2 f 2 f
g 00 (t) = (X + tH)h + 2 (X + tH)hk + (X + tH)k 2
x2 xy y 2
et g 00 (0) = t H · D2X f · H.
1 1 00 00 1
Si l’on pose, pour H , 0, ε(H) = 2 ||H||2 (g (c) − g (0)), reste à démontrer que ||H||2
(g 00 (c) − g 00 (0)) tend vers 0
lorsque ||H|| tend vers 0.
5 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
1 t H · (D2X+H − D2X ) · H
ε(H) =
2 ||H||2
En appliquant l’inégalité de Cauchy-Schwartz on obtient :
1
|ε(H)| 6 ||D2X+H − D2X ||
2
Or f est de classe C 2 donc ces dérivées partielles sont continues et lim||H||→0 ||D2X+H − D2X || = 0. cqfd
FT
Remarque 2. Afin d’alléger la suite du cours, nous allons utiliser les notations de Monge (1746-1818).
2 f 00 2 f 00 2 f
r= (X) = fx 2 (X), s = (X) = fxy (X) et t = (X) = fy002 (X)
2 x xy 2 y
La formule de Taylor s’écrit alors :
1h 2 i
f (X0 + H) = f (X0 ) + h fx0 (X0 ) + k fy0 (X0 ) + r.h + 2s. h k + t.k 2 + h2 + k 2 ε (h, k)
2
RA
avec lim ε (h, k) = 0
(h,k)→(0,0)
6 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
O Théorème 4.
- Si δ > 0, alors f admet un extremum local en X∗ . De plus :
FT
RA
- Si δ < 0, alors f n’admet pas d’extremum local en X∗ .
On dit alors que f présente un col en X∗ ou encore que le point de R3 de coordonnées (x∗ , y ∗ , f (x∗ , y ∗ ))
est un point-selle.
D
1h 2 i
f (x∗ + h, y ∗ + k) = f (x∗ , y ∗ ) + rh + 2s h k + tk 2 + h2 + k 2 ε (h, k)
2
avec lim ε (h, k) = 0
(h,k)→(0,0)
Pour H , 0, étudions le signe de : f (X∗ + H) − f (X∗ ), comme H , 0, cela revient à étudier le signe de
1 2
f (X∗ + H) − f (X∗ ) = rh + 2s h k + tk 2 + ||H||2 ε(H) (1)
2
.
7 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
h
Comme H , 0, sans perte de généralité, on peut supposer que k , 0, si on introduit le rapport = a, on
k
obtient :
h2
!
h
rh2 + 2s h k + tk 2 r 2 + 2s + t = k 2 (ra2 + 2sa + t).
= k2
k k
L’expression entre parenthèses est un trinôme du second degré en a de discriminant :
h i
∆ = 4 s2 − rt = −4δ
FT
1. Cas δ > 0 : Alors ∆ < 0 et le trinôme a un signe constant :
(a) si r > 0 : il sera positif. Soit 0 < tm la valeur minimale prise par le trinôme. Comme ||H||2 ε(H)
tend vers 0 lorsque ||H|| tend vers 0, il existe une boule ouverte centrée en (0; 0), B, tel que
∀H ∈ B, ||H||2 |ε(H)| 6 t2m . Si bien que
tm
∀H ∈ B, f (X∗ + H) − f (X∗ ) > >0
2
Donc f admet un minimum local en X∗ .
RA
(b) si r < 0, il sera négatif et par conséquent f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) < 0 au voisinage de (0; 0).
f présente un maximum local en X∗ .
2. Cas δ < 0 : Alors ∆ > 0 et le trinôme a deux racines réelles distinctes et par conséquent :
f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) n’a pas un signe constant au voisinage de X∗ . Il n’y a pas d’extremum local
en X∗ .
3. Cas δ = 0 : Alors ∆ = 0 et le trinôme a une racine double a0 . Soit d la droite dirigée par (1; a0 ), si H
n’appartient pas à cette droite le trinôme a un signe constant mais si H ∈ d.
1) devient :
alors (1
D
Exemple 6. Cherchons les extrema éventuels de la fonction définie par f (x, y) = x3 + y 3 − 3xy.
8 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
f
(x, y) = 3x2 − 3y = 0
y = x2
(
x
f soit encore
4 − x = x (x − 1) x2 + x + 1 = 0
x
2
(x, y) = 3y − 3x = 0
y
On obtient deux points critiques susceptibles d’optimiser localement f : X∗1 = (0; 0) et X∗2 = (1; 1).
Pour étudier les conditions du second ordre en ces points critiques, calculons au préalable les dérivées
FT
partielles secondes.
On a : fx002 (x, y) = 6x ; fxy
00 (x, y) = f 00 (x, y) = −3 et f 00 (x, y) = 6y.
yx y2
Nous avons déterminé les points critiques de f suivant les valeurs du paramètre m :
si m < 0, pas de point critique donc f ne présente pas d’extremum.
si m = 0, un unique point critique X∗ = (0,√ 0), √
si m > 0, deux points critiques X∗1 = (0, − m) et X∗2 = (0, m)...
Poursuivre...
En X∗ on ne peut pas conclure,
En X∗1 pas d’extremum, en X∗2 minimum local.
9 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
Exercice 2
Proposition 3. Soit f une fonction de classe C 2 sur un ouvert convexe D. f est convexe sur D si et seulement
si δ > 0 et r > 0 sur D.
Preuve. Supposons que la fonction f soit concave. Soit X un élément de D et H ∈ R2 tel que X + H ∈ D.
D’après la formule de Taylor (f est de classe C 2 ) :
FT
−−−−→ 1
f (X + H) = f (X) + grad fX · H + t H · D2X f · H + ||H||2 ε(H)
2
La fonction f étant convexe :
1t
H · D2X f · H + ||H||2 ε(H) > 0
2
Posons H = tH0 avec t ∈]0; 1], l’égalité précédente devient :
RA
t2 t 0 2
H · DX f · H0 + tr||H0 ||2 ε(tH0 ) > 0
2
H · D2X f · H0 + 2||H0 ||2 ε(tH0 ) > 0
t 0
t
H0 · D2X f · H0 > 0
Ce qui signifie que la forme quadratique est toujours positive donc r > 0 et δ > 0
Réciproquement, supposons que r > 0 et δ > 0, ce qui revient à dire que ∀H ∈ R2 tel que X + H ∈ D,
D
est bien définie car D est convexe. De plus cette fonction est de classe C 2 en tant que composée de fonctions
de classe C 2 .
Posons Xt = tX1 + (1 − t)X0 et remarquons que g 0 (t) = dfXt (X1 − X0 ) et g 00 (t) = t (X1 − X0 ) · DXt f · (X1 − X0 ).
Donc par hypothèse g 00 (t) > 0 et la fonction g 0 est croissante.
D’après le théorème de Taylor-Lagrange, il existe c ∈]0; 1[ tel que
10 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
FT
4.1 Méthode par substitution
Si, à partir de la contrainte, on peut exprimer une variable en fonction de l’autre, par exemple y en fonction
de x, on se ramène à la recherche d’un extremum d’une fonction d’une seule variable en remplaçant dans
f (x, y) la variable y par son expression en fonction de x. On se ramène alors à l’étude d’une fonction d’une
variable réelle.
Exemple 10. Étudier l’existence d’extremum de la fonction f définie sur R2 par f (x, y) = xy sous la
contrainte d’égalité g (x, y) = x + y − 6 = 0.
De la relation x + y − 6 = 0, on tire y = 6 − x et on remplace dans f (x, y) = xy la variable y par son expression
RA
en fonction de x, ce qui donne la fonction d’une variable ϕ définie par ϕ (x) = x (6 − x), pour laquelle on doit
étudier l’existence d’un extremum local.
ϕ est une fonction polynôme, donc est deux fois dérivable sur R et on a :
ϕ0 (x) = 6 − 2x et ϕ00 (x) = −2 < 0.
La fonction ϕ est donc concave sur R et par conséquent la condition du premier ordre relative à l’existence
d’un extremum local est une condition nécessaire et suffisante.
Exercice 3
11 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
O Théorème 5. Soit f une fonction définie sur un domaine D de R2 . Soit g une fonction définie sur un domaine
D0 ⊂ D. On pose F = {(x; y) ∈ D0 |g(x; y) = 0}
FT
On fait les hypothèses suivantes :
1. f possède en A un minimum local relativement à F. C’est à dire que A est un point intérieur de D0 et il
existe une boule ouverte, B ⊂ F, centrée en A tel que ∀x ∈ B; f (a) 6 f (x)
2. f et g sont de classe C 1 en A.
3. dgA , 0
Dans ces condition, il existe un réel λ tel que la fonction définie par
√
On remarque que la courbe de niveau z = 83 3 2 et la courbe d’équation x 7−→ (x, 8 − 2x, f (x, 8 − 2x)) sont
tangentes au point où le maximum se réalise.
Un extremum de la fonction de deux variables f soumise à la contrainte g (x, y) = 0 est un extremum libre
de la fonction de trois variables, notée L, appelée le lagrangien de f , définie par :
12 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
f g
+λ =0
x x
L L L
f
g
(x, y, λ) = (x, y, λ) = (x, y, λ) = 0 ⇔ +λ =0
FT
x y λ
y y
g(x; y) = 0
Puis on étudie pour chaque point critique trouvé X∗ = (x∗ , y ∗ ) le signe de l’expression
f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) qui est une fonction de (h, k), h et k étant liés par la relation :
g (x∗ + h, y ∗ + k) = γ (h, k).
Deux cas peuvent se produire :
1. Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) a un signe constant lorsque (h, k) est voisin de (0; 0), alors f présente un
extremum local en X∗ .
RA
(a) Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) > 0, c’est un minimum local.
(b) Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) 6 0, c’est un maximum local.
2. Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) n’a pas un signe constant lorsque (h, k) est voisin de (0; 0), alors f ne
présente pas d’extremum local en X∗ .
g
Preuve. Comme en A(xA ; yA ), dgA , 0, on peut supposer - sans perte de généralité que y
(A) , 0. La
fonction g étant de classe C1,
on peut appliquer le théorème des fonctions implicites : il existe un intervalle
ouvert, I, contenant xA , un intervalle ouvert, J, contenant yA , une fonction φ de classe C 1 sur I à valeur dans
J telle que
D
Par hypothèse la fonction h : x 7−→ f (x, φ(x)) définie sur I est de classe C 1 et possède un minimum local en
xA . Donc h0 (xA ) = 0.
f f
h0 (x) = + φ0 (x)
x y
g f g g f
f f x y
− x y
0 x
h (x) = − =
x g y g
y y
et
f
x
= −λ f g
f f
g
= −λ
f g g f x y
x x
x
h0 (x) = 0 ⇔
= ⇔ = ⇔ ∃λ ∈ R, ⇔ ∃λ ∈ R,
x y x y g g
f
f g
y = −λ y
x y
y
= −λ
g
y
13 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
En notant λA la valeur de λ en A.
L’équivalence précédente montre que L admet un point critique en (xA ; yA ; λA ). De plus comme au voisinage
de A, g(x; y) est nul, au voisinage de A, L(xA ; yA ; λA ) = f (xA ; yA ) + λA g(xA ; yA ) = f (xA ; yA ) 6 f (x; y) = f (x; y) +
λg(x, y) = L(x, y, λ). Ce qui prouve que L admet un minimum local en (xA ; yA ; λA ). cqfd
Exemple 12.
Reprenons l’exemple 10 : f (x, y) = xy avec la contrainte g (x, y) = x + y − 6 = 0.
Le lagrangien est L(x, y, λ) = xy + λ (x + y − 6).
Les conditions du premier ordre amènent le système :
FT
L
(x, y, λ) = y + λ = 0
x
x=3
L
soit y=3
(x, y, λ) = x + λ = 0
x
λ = −3
L
(x, y, λ) = x + y − 6 = 0
x
On obtient donc un point critique X∗ = (3; 3) de multiplicateur associé λ∗ = −3.
RA
Étudions à présent le signe de f (3 + h, 3 + k) − f (3, 3) = (3 + h) (3 + k) − 9 = 3 (h + k) + hk, h et k étant liés par
la relation g (3 + h, 3 + k) = h + k = 0, soit encore h = −k.
On a par conséquent f (3 + h, 3 + k) − f (3, 3) = −k 2 6 0 pour tout k réel.
Il en résulte que la fonction f définie par f (x, y) = xy avec la contrainte d’égalité x + y − 6 = 0 sur les variables
x et y possède un maximum local en X∗ = (3; 3) égal à f (3; 3) = 9.
D
Exercice 4
Étudier les extrema de la fonction f définie sur R2 par f (x, y) = 6 − 4x − 3y, sous la contrainte x2 + y 2 = 1.
14 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
G : R × D −→ R
c − g(x; y)
f g
(λ; x; y) 7−→
−λ (2)
x x
f g
y − λ y
FT
À l’équilibre G(λ, x, y) = 0. Mais G dépend de c si bien que l’on peut considérer G̃(λ, x, y, c) = 0.
Supposons que l’on puisse de nouveau utiliser le théorème des fonctions implicites pour exprimer x, y et λ
comme des fonctions de classe C 1 de c.
Ainsi, Υ : c 7−→ L(λ(c); x(c); y(c)) = f (x(c); y(c)) + λ(c)(c − g(x(c); y(c))) est de classe C 1
f 0 f 0 g g
Υ 0 (c) = x (c) + y (c) + λ0 (c)(c − g(x(c); y(c))) + λ(c)(1 − ( x0 (c) + y 0 (c)))
x y x y
f g f g
RA
Υ 0 (c) = x0 (c)( − λ ) + y 0 (c)( − λ ) + λ0 (c)(c − g(x(c); y(c))) + λ(c)
x x y y
À l’optimum, on obtient :
Υ 0 (c) = λ(c)
Donc le multiplicateur de Lagrange est l’accroissement marginal de la fonction objectif lorsque l’on «relâche»
la contrainte via le coefficient c.
15 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
FT
4.4 Conditions du second ordre pour l’optimisation sous contrainte
Supposons que f soit de classe C 2 .
Notons fx la dérivée partielle par rapport à x, fxy la dérivée partielle seconde de f par rapport à y et à x etc.
On applique la formule de Taylor :
−−−−→ 1
f (A + H) = f (A) + grad fA · H + t H · D2A f · H + ||H||2 ε(H)
2
−−−−→
Ici à l’optimum grad fA n’est pas nul ! Aussi il est préférable de travailler avec le développement de Taylor
RA
du Lagrangien :
O Théorème 6. Soit f une fonction définie sur un domaine D de R2 . Soit g une fonction définie sur un domaine
D0 ⊂ D.
On pose L(x; y; λ) = f (x; y) + λg(x; y)
On fait les hypothèses suivantes :
1. f et g sont de classe C 2 en A.
2. dgA , 0
−−−−→
3. Il existe λA ∈ R, tel que grad L(xA ; yA ; λA ) = 0 et l’on pose L : (x; y) 7−→ L(x; y; λA )
D
2. Si
−−−−→
∀H ∈ R2 \{(0; 0)}; grad g · H = 0 ⇒ t H · D2A L · H > 0 (4)
alors f possède en A un minimum local strict sous la contrainte g(x; y) = 0
Remarque 3. On peut adapter le théorème (6 6) au cas d’un maximum en renversant les inégalités.
!
−−−−→ α
Preuve. Reprenons les notations de la preuve du théorème (5 5). Et notons grad gA = .
β
En appliquant la formule de Taylor à g, on a :
−−−−→
g(A + H) = g(A) + grad gA · H + ||H||ε(H)
−−−−→
qui devient grad gA · H + ||H||ε(H) = 0 cqfd
Reprenons les notations de Monge appliquées à L. Le théorème (6 6), nous invite à regarder le signe de
2 2
Q(h; k) = rh + 2shk + tk avec αh + βk = 0. On peut supposer que β , 0, on a k = − αβ h, d’où :
16 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
α α
Q̃(h) = rh2 + 2h(− h) + (− h)2 t
β β
h h i
Q̃(h) = ( )2 β2 r − 2αβs + α2 t
β
Reprenons maintenant la fonction G (2 2) et supposons que G soit de classe C 1 , sa matrice jacobienne s’écrit :
0 −gx −gy 0 −α −β
FT
H = −gx fxx − λgxx fxy − λgxy = −α r s
−gy fxy − λgxy fyy − λgyy −β s t
6)
On peut ainsi reformuler le théorème (6
RA
O Théorème 7. Soit f une fonction définie sur un domaine D de R2 . Soit g une fonction définie sur un domaine
D0 ⊂ D.
On pose L(x; y; λ) = f (x; y) + λg(x; y)
On fait les hypothèses suivantes :
1. f et g sont de classe C 2 en A(xA ; yA ).
2. dgA , 0
−−−−→
3. Il existe λA ∈ R, tel que grad L(xA ; yA ; λA ) = 0
Enfin on pose
D
t −−−−→ 0 gx gy
0 grad g
H = −−−−→ = gx fxx − λgxx fxy − λgxy (H)
2
grad g DL
gy fxy − λgxy fyy − λgyy
Exemple 14. Trouver les extrema de la fonction f : (x; y) 7−→ 5x2 + 6y 2 − xy sous la contrainte : x + 2y = 24.
17 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
FT
λ = −51
5.1 Vocabulaire
Dans le programme (55), l’ensemble des valeurs admissibles est l’ensemble des points de R2 où g(x; y) > 0.
On cherchera donc des solutions dans l’ensemble E = D ∩ {(x; y) ∈ R2 |g(x; y) > 0}.
18 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
Définition 4. La contrainte g(x; y) > 0 est dite serrée, ou effective ou encore active au point A ∈ D si g(A) = 0.
Lorsque g(A) > 0, on dit que la contrainte est relâchée en A. Enfin, la contrainte g(x; y) > 0 est dite qualifiée
en A si :
— soit g(A) > 0
— soit g(A) = 0 et dgA , 0
FT
O Théorème 8 (Kuhn et Tucker). On considère le programme (5 5). Si f admet un maximum local en A sur E et
si la contrainte est qualifiée en A alors il existe un réel λA tel que :
1. λA > 0
2. λA × g(A) = 0 dite relation d’exclusion
3. dfA + λA dgA = 0
h : D × R −→ R
(x; y; t) 7−→ g(x; y) − t
Cette fonction h est une fonction de classe C 1 sur D × R car g l’est. De plus h(xA ; yA ; 0) = g(A) = 0 et
h
t
= −1 , 0. On peut donc utiliser le théorème des fonctions implicites en (xA ; yA ; 0) :
il existe un ouvert U ∈ D contenant A et un ouvert V contenant 0, une fonction de classe C 1 sur V :
φ : V −→ U
t 7−→ (φ1 (t); φ2 (t))
∀t ∈ V; h(φ(t), t) = 0.
19 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
dgA · dφ0 − 1 = 0
dgA · dφ0 = 1
λA ( dgA · dφ0 ) = (λA dgA )· dφ0 = λA
− dfA · dφ0 = λA d’après (3.)
dfA · dφ0 = −λA
FT
Donc prouver λA > 0 revient à démontrer que dfA · dφ0 6 0.
3. Soit t0 > 0 tel que [0; t0 [⊂ V. Pour tout t ∈ [0; t0 [, φ(t) ∈ E.
En effet, remarquons tout d’abord que φ(t) ∈ U ⊂ D de plus
La fonction k est de classe C 1 sur [0; t0 [ en tant que composée de fonctions de classe C 1 , k(0) = f (A) et
k admet un maximum en 0 qui vaut f (A).
D’une part k 0 (0) = dfA · dφ0 , et d’autre part :
k(t) − k(0)
k 0 (0) = lim+ 60 car ∀t ∈ [0; t0 [, k(t) 6 k(0)
D
t→0 t
En conclusion dfA · dφ0 6 0, ce qui prouve (1.)
cqfd
20 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
Attention
La contrainte doit être de la forme g(x; y) > 0, donc on choisit pour g(x; y) = 3 − 6x − y et non l’opposé.
y + 6λ + 1
−−−−→
grad L = x+λ+1
3 − 6x − y
λ>0
λ(3 − 6x − y) = 0
y + 6λ + 1 = 0
RA
x+λ+1 = 0
Condition d’exclusion
1. Si λ = 0 alors x = −1 et y = −1 dans ce cas f (−1; −1) = 0, n’est clairement pas un maximum. Pour ce
point la contrainte est lâche.
2. Si 3 − 6x − y = 0 alors
1
x=−
6
−−−−→
grad L = ~0 ⇔
y = 4
5
D
λ=
6
On se retrouve avec un problème sous contrainte d’égalité.
Le multiplicateur associé est positif, donc le programme admet un maximum local en ( 16 ; 4) qui vaut
35
6 .
où a > 0.
21 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
On pose
L(x; y; λ) = x2 + y 2 + λ(a − 3x2 + 4xy − 3y 2 )
L est de classe
C 1 sur R3 .
2x − 6λx + 4yλ
−−−−→
grad L =
2y + 4xλ − 6yλ
a − 3x2 + 4xy − 3y 2
Condition de qualification dg = (−6x + 4y) dx + (4x − 6y) dy donc dgA = 0 ⇔ A = (0; 0). Or g(A) = a > 0,
donc tous les points tels que a − 3x2 + 4xy − 3y 2 > 0 sont qualifiés.
Condition d’exclusion
FT
λ>0
λ(a − 3x + 4xy − 3y 2 ) = 0
2
2x − 6λx + 4yλ = 0
2y + 4xλ − 6yλ = 0
RA
1. Si λ = 0 alors x = y = 0, mais ce point, le point A, ne correspond pas à un maximum car f (A) = 0 6
f (x; y).
−−−−→ →
−
2. Si λ , 0 alors grad L = 0 .
x(3λ − 1)
−x + 3xλ
y=
2x − 6λx + 4yλ = 0 y =
2λ
2λ
2y + 4xλ − 6yλ = 0 −x + 3xλ
3λ
⇔ ⇔
y + 2xλ − 3yλ = 0
+ 2xλ − (−x + 3xλ) = 0
2λ 2λ
3x2 − 4xy + 3y 2 = a
3x2 − 4xy + 3y 2 = a
3x2 − 4xy + 3y 2 = a
x(3λ − 1) x(3λ − 1)
D
= y=
y
2λ
2λ
⇔ −x + 3xλ + 4xλ2 + 3λx − 9xλ2 = 0 ⇔
x −5λ2 + 6λ − 1 = x(5λ − 1)(λ − 1) = 0
2 2
3x − 4xy + 3y = a 3x2 − 4xy + 3y 2 = a
22 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
2
Conclusion f (A1 ) = f (A2 ) = a2 et f (A3 ) = f (A4 ) = a5 . Sur l’ellipse d’équation 3x2 − 4xy + 3y 2 = a qui est
un compact de R2 , f est continue est atteint ses bornes, d’après l’étude précédente les points candidats sont
2
A1 , A2 , A3 et A4 . Donc, f atteint son maximum a2 en A1 et en A2 et son minimum a5 en A3 et A4 .
FT
RA
Donc les solutions du programme sont A1 ( 2a ; 2a ) et A2 (− 2a ; − 2a ).
p p p p
Remarque 4.
a − 3x2 + 4xy − 3y 2 = 0
4
3(x2 − xy + y 2 ) = a
3
2 2 4
3((x − y) + y 2 − y 2 ) = a
3 9
2 2 5 2
3((x − y) + y ) = a
3r 9
D
r r
2 a 5 2 1 3a 3a
q
x= y± − y = 2
2y ± 3a − 5y avec − 6y6
3 3 9 3 5 5
23 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
FT
— la contrainte soit qualifiée en A
— λA 6 0
— λA × g(A) = 0
— dfA + λA dgA = 0
alors f admet un minimum global sous la contrainte g(x; y) > 0 en A.
Exemple 17.
D
(
max ln(x) + ln(y + 5)
s.c. x+y 6 4
Posons f (x; y) = ln(x) + ln(y + 5), f est de classe C 2 sur D =]0; +∞[×] − 5; +∞[.
−−−−→
— grad f = t 1x y+5 1
− x12
!
2 0
— Df = 1
0 − (y+5) 2
1
1 9
− λ = 0
x =
x=
λ 2
x
1 −1
1
⇔ y = − 5 ⇔ y=
− λ = 0
λ
2
y +5
2 2
x+y = 4
=9 λ=
λ 9
D’après la proposition (5
5), f admet un maximum global en (4, 5; −0, 5) sous la contrainte x + y 6 4.
24 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2
FT
— λA × g(A) = 0
— dfA + λA dgA = 0
RA
D
25 V. Ledda