100% ont trouvé ce document utile (1 vote)
197 vues25 pages

Optimisation Deux Var

Ce document présente les notions d'optimisation de fonctions de deux variables. Il introduit des théorèmes généraux comme celui de Weirstrass et examine les conditions nécessaires du premier ordre pour qu'une fonction présente un extremum local. Le document traite également de l'optimisation sous contrainte.

Transféré par

Nareek
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
197 vues25 pages

Optimisation Deux Var

Ce document présente les notions d'optimisation de fonctions de deux variables. Il introduit des théorèmes généraux comme celui de Weirstrass et examine les conditions nécessaires du premier ordre pour qu'une fonction présente un extremum local. Le document traite également de l'optimisation sous contrainte.

Transféré par

Nareek
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Faculté des Sciences Économiques et Sociales - Université de Lille

Licence 3 MISEG
Optimisation

Optimisation des fonctions de deux variables


V. Ledda

23 juin 2018

Table des matières


1 Théorème généraux

FT
1.1 Le théorème de Weirstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Cas des fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 Conditions nécessaires du premier ordre


2
2
2

3
RA
3 Conditions suffisantes du second ordre 4

4 Optimisation d’une fonction de deux variables sous contrainte d’égalité 11


4.1 Méthode par substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.2 Méthode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.3 Interprétation des multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.4 Conditions du second ordre pour l’optimisation sous contrainte . . . . . . . . . . . . . . . . . 16

5 Optimisation sous contrainte d’inégalité 18


5.1 Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.2 Conditions nécessaires pour un optimum local . . . . . . . . . . . . . . . . . . . . . . . . . . 19
D

5.3 Condition suffisante d’optimalité globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23


Optimisation des fonctions de deux variables Chapitre 2

1 Théorème généraux
1.1 Le théorème de Weirstrass

O Théorème 1. Une fonction continue sur un compact D atteint son maximum et son minimum sur D

Exemple 1. Trouver le maximum de f (x; y) = x2 − y 2 + 1 sous la contrainte x2 + y 2 = 2.



Exemple 2. Trouver le maximum de la fonction d’utilité U(x; y) = x 3 y sous la contrainte budgétaire
x + 2y 6 12.

1.2 Cas des fonctions convexes

FT
Proposition 1. Soit f une fonction définie et différentiable sur un ouvert convexe de R2 . On a l’équivalence
suivante :
f est convexe sur D si et seulement si

∀(x; y) ∈ D2 , f (y) − f (x) 6 dfy (y − x)


RA
Preuve. Supposons que f est convexe. Pour t ∈]0; 1]

f (tx + (1 − t)y) 6 tf (x) + (1 − t)f (y)


f (tx + (1 − t)y) − f (y) 6 t(f (x) − f (y))
f (tx + (1 − t)y) − f (y)
6 f (x) − f (y)
t
dfy (tx + (1 − t)y − y) + ||tx − ty||ε(tx − ty)
6 f (x) − f (y)
t
D

En faisant tendre t vers 0, on obtient f (x) − f (y) > dfy (x − y), en effet f est de classe C 1 et df est continue.
Réciproquement, supposons que ∀(x; y) ∈ D2 , f (y) − f (x) 6 dfy (y − x) et montrons que f est convexe. Soit
t ∈ [0; 1], posons yt = tx + (1 − t)y. D’une part :

f (x) > f (yt )+ dfyt (x − yt )


f (x) > f (yt )+ dfyt ((1 − t)(x − y))
f (x) > f (yt ) + (1 − t) dfyt (x − y)
tf (x) > tf (yt ) + t(1 − t) dfyt (x − y)

D’autre part :

f (y) > f (yt )+ dfyt (y − yt )


f (y) > f (yt )+ dfyt (−t(x − y))
f (y) > f (yt ) − t dfyt (x − y)
(1 − t)f (y) > (1 − t)f (yt ) − t(1 − t) dfyt (x − y)

En sommant les deux inégalités précédentes, on obtient :

2 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

tf (x) + (1 − t)f (y) > tf (yt ) + (1 − t)f (yt )


tf (x) + (1 − t)f (y) > f (yt )

Ce qui prouve que la fonction f est convexe.


cqfd

Proposition 2. Soit f une fonction de classe C 1 et convexe sur un ensemble convexe D.

FT
dfa = 0 ⇔ f admet un minimum global en a

Preuve. Si f admet un minimum global en a alors f admet un minimum local en a et dfa = 0. Réciproque-
ment, d’après la proposition 1 f (x) − f (a) > dfa (x − a). Or dfa = 0, donc f (x) > f (a).
√ √
cqfd

Exemple 3. On considère la fonction de production q(x1 ; x2 ) = x1 + x2 avec (x1 ; x2 ) ∈ R+x × R+x . Soit p
le prix du produit (output) et w1 et w2 le prix des intrants (input). On cherche à étudier le problème de
maximisation du profit.
RA
2 Conditions nécessaires du premier ordre
On a vu en L1 que si une fonction f présente un extremum local au point intérieur x∗ de son ensemble de
définition et si elle est dérivable en x∗ , alors f 0 (x∗ ) = 0.
On dispose d’un résultat analogue pour les fonctions de plusieurs variables.

O Théorème 2. Soit f une fonction définie sur un ensemble D de R2 et X∗ un point intérieur à D.

Si f est différentiable en X∗ et si f admet un extremum local en X∗ , alors on a :


D

€f €f
(X∗ ) = (X∗ ) = 0
€x €y

Définition 1. Ces égalités s’appellent les conditions du premier ordre (du problème d’optimisation).
Tout point X∗ vérifiant ces conditions est appelé point candidat ou point critique (du problème d’optimisa-
tion).

Soulignons que ces conditions du premier ordre sont des conditions nécessaires mais, en général, ne sont
pas suffisantes de sorte qu’un point candidat n’est pas forcément un extremum.

Si on considère la fonction f définie sur R2 par f (x, y) = xy ( C1 sur R2 ).


€f €f
On remarque (0, 0) = (0, 0) = 0. Cependant, f ne présente pas d’extremum local en (0, 0).
€x €y

Exemple 4. On considère la fonction définie sur R2 par f (x, y) = x3 + y 2 − xy.

3 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

f est une fonction polynôme, donc est dérivable sur R2 et ses dérivées partielles, qui sont des polynômes,
sont continues sur R2 , donc f est C1 sur R2 .

D’après le théorème précédent :


si f admet un extremum local en X = (x, y), alors les dérivées partielles premières s’annulent en X. Dans ce
cas, on a :
€f

(x, y) = 3x2 − y = 0



 €x


 €f

 (x, y) = 2y − x = 0
€y

FT
... à finir

Attention
Une fonction peut admettre un extremum sur la frontière sans que les dérivés partielles s’annulent.

p
Exemple 5. La fonction f : (x, y) 7−→ 1 − (x2 + y 2 ) est définie sur le disque fermé de centre O et de rayon
RA
1. Elle admet pour minimum 0, il est atteint sur le cercle de centre O de rayon 1 et pourtant les dérivées
partielles ne s’annulent en aucun point du cercle.
D

 Exercice 1
Soit f la fonction définie sur R2 par f (x, y) = y 3 + x2 − 3my, avec m ∈ R.
Déterminer les points critiques de f suivant les valeurs du paramètre m.

3 Conditions suffisantes du second ordre

4 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

Définition 2. Soit f une fonction dérivable en A ∈ D ⊂ R2 , on appelle gradient de f en A la matrice ligne :


−−−−→ 
€f €f

grad fA = €x (A) €y (A)

Il s’agit de la traduction matricielle de la différentielle, en effet :


−−−−→
grad fA · H = dfA (H)

FT
Définition 3. Soit f une fonction deux fois dérivable en A ∈ D ⊂ R2 , on appelle matrice hessienne de f en A
la matrice :  €2 f 2 
 2 (A) € f (A)
€x €y€x
D2A f =  €2 f
 
€2 f 
 (A) €x€y
(A)  €y 2

Remarque 1. Lorsque f est de classe C 2 , la matrice hessienne est symétrique d’après le théorème de
Schwartz.
RA
O Théorème
! 3 (Formule de Taylor). Soit f une fonction de classe C 2 sur un ouvert D. Soit X ∈ d et soit
h
H ∈ R2 tels que [X; X + H] ⊂ D.
k
−−−−→ 1
f (X + H) = f (X) + grad fX · H + t H · D2X f · H + ||H||2 ε(H)
2
où limH→0 ε(H) = 0.

Preuve. Posons
D

g : [0; 1] −→ R
t 7−→ f (X + tH)

, en tant que fonction composée, g est une fonction de classe C 2 sur [0; 1].
D’après la formule de Taylor-Lagrange d’une fonction d’une variable, il existe c ∈]0; 1[ tel que
1 1 1
g(1) = g(0) + g 0 (0) + g 00 (c) = g(0) + g 0 (0) + g 00 (0) + (g 00 (c) − g 00 (0))
2 2 2
D’après la formule de dérivation des fonctions composées :

€f €f
g 0 (t) = (X + tH)h + (X + tH)k
€x €x
−−−−→
et g 0 (0) = grad fX · H.
En dérivant une seconde fois, on obtient :

€2 f 2 €2 f €2 f
g 00 (t) = (X + tH)h + 2 (X + tH)hk + (X + tH)k 2
€x2 €x€y €y 2
et g 00 (0) = t H · D2X f · H.
1 1 00 00 1
Si l’on pose, pour H , 0, ε(H) = 2 ||H||2 (g (c) − g (0)), reste à démontrer que ||H||2
(g 00 (c) − g 00 (0)) tend vers 0
lorsque ||H|| tend vers 0.

5 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

1 t H · (D2X+H − D2X ) · H
ε(H) =
2 ||H||2
En appliquant l’inégalité de Cauchy-Schwartz on obtient :
1
|ε(H)| 6 ||D2X+H − D2X ||
2
Or f est de classe C 2 donc ces dérivées partielles sont continues et lim||H||→0 ||D2X+H − D2X || = 0. cqfd

FT
Remarque 2. Afin d’alléger la suite du cours, nous allons utiliser les notations de Monge (1746-1818).

€2 f 00 €2 f 00 €2 f
r= (X) = fx 2 (X), s = (X) = fxy (X) et t = (X) = fy002 (X)
€2 x €x€y €2 y
La formule de Taylor s’écrit alors :
1h 2 i  
f (X0 + H) = f (X0 ) + h fx0 (X0 ) + k fy0 (X0 ) + r.h + 2s. h k + t.k 2 + h2 + k 2 ε (h, k)
2
RA
avec lim ε (h, k) = 0
(h,k)→(0,0)

Soient f une fonction définie sur un ensemble D de R2 et X∗ = (x∗ , y ∗ ) un point intérieur à D.


Supposons que :
- X∗ est un point critique (c’est à dire fx0 (X∗ ) = fy0 (X∗ ) = 0)
- les dérivées partielles de f sont continues en X∗ (autrement dit f est C2 au point critique X∗ ).
00 (X∗ ) 2 = rt − s2
h i
Posons δ = fx002 (X∗ ) fy002 (X∗ ) − fxy
D

6 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

O Théorème 4.
- Si δ > 0, alors f admet un extremum local en X∗ . De plus :

si fx002 (X∗ ) > 0, alors il s’agit d’un minimum local


si fx002 (X∗ ) < 0, alors il s’agit d’un maximum local

FT
RA
- Si δ < 0, alors f n’admet pas d’extremum local en X∗ .
On dit alors que f présente un col en X∗ ou encore que le point de R3 de coordonnées (x∗ , y ∗ , f (x∗ , y ∗ ))
est un point-selle.
D

- Si δ = 0, alors on ne peut rien conclure.

Preuve. f est C2 en X∗ , on peut donc utiliser la formule de Taylor à l’ordre 2.


Par hypothèses, les dérivées partielles premières sont nulles en X∗ et par conséquent on obtient :

1h 2 i  
f (x∗ + h, y ∗ + k) = f (x∗ , y ∗ ) + rh + 2s h k + tk 2 + h2 + k 2 ε (h, k)
2
avec lim ε (h, k) = 0
(h,k)→(0,0)
Pour H , 0, étudions le signe de : f (X∗ + H) − f (X∗ ), comme H , 0, cela revient à étudier le signe de
1 2 
f (X∗ + H) − f (X∗ ) = rh + 2s h k + tk 2 + ||H||2 ε(H) (1)
2
.

7 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

h
Comme H , 0, sans perte de généralité, on peut supposer que k , 0, si on introduit le rapport = a, on
k
obtient :
h2
!
h
rh2 + 2s h k + tk 2 r 2 + 2s + t = k 2 (ra2 + 2sa + t).
= k2
k k
L’expression entre parenthèses est un trinôme du second degré en a de discriminant :
h i
∆ = 4 s2 − rt = −4δ

Trois cas se présentent :

FT
1. Cas δ > 0 : Alors ∆ < 0 et le trinôme a un signe constant :
(a) si r > 0 : il sera positif. Soit 0 < tm la valeur minimale prise par le trinôme. Comme ||H||2 ε(H)
tend vers 0 lorsque ||H|| tend vers 0, il existe une boule ouverte centrée en (0; 0), B, tel que
∀H ∈ B, ||H||2 |ε(H)| 6 t2m . Si bien que

tm
∀H ∈ B, f (X∗ + H) − f (X∗ ) > >0
2
Donc f admet un minimum local en X∗ .
RA
(b) si r < 0, il sera négatif et par conséquent f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) < 0 au voisinage de (0; 0).
f présente un maximum local en X∗ .
2. Cas δ < 0 : Alors ∆ > 0 et le trinôme a deux racines réelles distinctes et par conséquent :
f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) n’a pas un signe constant au voisinage de X∗ . Il n’y a pas d’extremum local
en X∗ .
3. Cas δ = 0 : Alors ∆ = 0 et le trinôme a une racine double a0 . Soit d la droite dirigée par (1; a0 ), si H
n’appartient pas à cette droite le trinôme a un signe constant mais si H ∈ d.
1) devient :
alors (1
D

f (X∗ + H) − f (X∗ ) = ||H||2 ε(H)

Et comme on ne connaît pas le signe de ε(H), on ne peut pas conclure.


cqfd

Exemple 6. Cherchons les extrema éventuels de la fonction définie par f (x, y) = x3 + y 3 − 3xy.

8 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

Les conditions du premier ordre sont constituées par le système :

€f

(x, y) = 3x2 − 3y = 0

y = x2

 (
 €x

€f soit encore  
4 − x = x (x − 1) x2 + x + 1 = 0
x



 2
(x, y) = 3y − 3x = 0
€y

On obtient deux points critiques susceptibles d’optimiser localement f : X∗1 = (0; 0) et X∗2 = (1; 1).

Pour étudier les conditions du second ordre en ces points critiques, calculons au préalable les dérivées

FT
partielles secondes.
On a : fx002 (x, y) = 6x ; fxy
00 (x, y) = f 00 (x, y) = −3 et f 00 (x, y) = 6y.
yx y2

En X∗1 , on a r = 0, t = 0 et s = −3 donc δ = −9 < 0.


f ne possède pas d’extremum local en X∗1 .

En X∗2 , on a r = 6, t = 6 et s = −3 donc δ = 27 > 0.


f possède un extremum local en X∗2 .
De plus, r = 6 > 0, on peut dire que c’est un minimum local.
RA
D

Exemple 7. Reprenons f la fonction définie sur R2 par f (x, y) = y 3 + x2 − 3my, avec m ∈ R.


Nous allons étudier les extrema de f .
f est définie sur R2 qui est un ouvert donc, si f présente un extremum, c’est en un point critique.

Nous avons déterminé les points critiques de f suivant les valeurs du paramètre m :
si m < 0, pas de point critique donc f ne présente pas d’extremum.
si m = 0, un unique point critique X∗ = (0,√ 0), √
si m > 0, deux points critiques X∗1 = (0, − m) et X∗2 = (0, m)...

Poursuivre...
En X∗ on ne peut pas conclure,
En X∗1 pas d’extremum, en X∗2 minimum local.

9 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

 Exercice 2

Étudier les extrema de la fonction f définie sur R2 par f (x, y) = x3 + y 3 − 3x − 12y

Proposition 3. Soit f une fonction de classe C 2 sur un ouvert convexe D. f est convexe sur D si et seulement
si δ > 0 et r > 0 sur D.

Preuve. Supposons que la fonction f soit concave. Soit X un élément de D et H ∈ R2 tel que X + H ∈ D.
D’après la formule de Taylor (f est de classe C 2 ) :

FT
−−−−→ 1
f (X + H) = f (X) + grad fX · H + t H · D2X f · H + ||H||2 ε(H)
2
La fonction f étant convexe :
1t
H · D2X f · H + ||H||2 ε(H) > 0
2
Posons H = tH0 avec t ∈]0; 1], l’égalité précédente devient :
RA
t2 t 0 2
H · DX f · H0 + tr||H0 ||2 ε(tH0 ) > 0
2
H · D2X f · H0 + 2||H0 ||2 ε(tH0 ) > 0
t 0

En faisant tendre t vers 0, on obtient :

t
H0 · D2X f · H0 > 0
Ce qui signifie que la forme quadratique est toujours positive donc r > 0 et δ > 0
Réciproquement, supposons que r > 0 et δ > 0, ce qui revient à dire que ∀H ∈ R2 tel que X + H ∈ D,
D

t H · D2 f · H > 0 et montrons que f est convexe.


X
Soit (X1 , Y0 ) ∈ D2 , t ∈ [0; 1], la fonction
g : [0; 1] −→ R2
t 7−→ f (tX1 + (1 − t)X0 )

est bien définie car D est convexe. De plus cette fonction est de classe C 2 en tant que composée de fonctions
de classe C 2 .
Posons Xt = tX1 + (1 − t)X0 et remarquons que g 0 (t) = dfXt (X1 − X0 ) et g 00 (t) = t (X1 − X0 ) · DXt f · (X1 − X0 ).
Donc par hypothèse g 00 (t) > 0 et la fonction g 0 est croissante.
D’après le théorème de Taylor-Lagrange, il existe c ∈]0; 1[ tel que

g(1) = g(0) + g 0 (c)


Ainsi

g(1) − g(0) = g 0 (c) > g 0 (0)


f (X1 ) − f (X0 ) > dfX0 (X1 − X0 )
D’après le théorème (1
1), la fonction f est convexe sur D. cqfd

Exemple 8. Déterminer l’estimateur du maximum de vraisemblance de (m; σ 2 ) pour la loi normale.

10 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

4 Optimisation d’une fonction de deux variables sous contrainte d’égalité


On veut étudier l’existence d’un extremum local de la fonction f dérivable soumise à la contrainte d’égalité
g (x, y) = 0.

Exemple 9. Dans la théorie micro-économique du consommateur, on cherche souvent à maximiser la


fonction d’utilité U(x, y), sous la contrainte budgétaire xpx + ypy − R = 0.

Deux méthodes seront présentées dans ce cours .

FT
4.1 Méthode par substitution
Si, à partir de la contrainte, on peut exprimer une variable en fonction de l’autre, par exemple y en fonction
de x, on se ramène à la recherche d’un extremum d’une fonction d’une seule variable en remplaçant dans
f (x, y) la variable y par son expression en fonction de x. On se ramène alors à l’étude d’une fonction d’une
variable réelle.

Exemple 10. Étudier l’existence d’extremum de la fonction f définie sur R2 par f (x, y) = xy sous la
contrainte d’égalité g (x, y) = x + y − 6 = 0.
De la relation x + y − 6 = 0, on tire y = 6 − x et on remplace dans f (x, y) = xy la variable y par son expression
RA
en fonction de x, ce qui donne la fonction d’une variable ϕ définie par ϕ (x) = x (6 − x), pour laquelle on doit
étudier l’existence d’un extremum local.

ϕ est une fonction polynôme, donc est deux fois dérivable sur R et on a :
ϕ0 (x) = 6 − 2x et ϕ00 (x) = −2 < 0.

La fonction ϕ est donc concave sur R et par conséquent la condition du premier ordre relative à l’existence
d’un extremum local est une condition nécessaire et suffisante.

Comme ϕ0 (x) = 0 pour x = 3, la fonction ϕ possède un maximum local pour x = 3.


D

En conclusion, f possède un maximum local au point X∗ = (x∗ = 3; y ∗ = 6 − x∗ = 6 − 3 = 3) qui vaut f (3; 3) = 9.

 Exercice 3

L’utilité de deux en quantité x et y est donnée par U(x, y) = x4 y.


Leurs coûts unitaires sont respectivement de 20 euros et 10 euros.
Optimiser l’utilité du consommateur disposant d’un budget de 1500 euros.

11 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

4.2 Méthode de Lagrange


Il arrive qu’il ne soit pas aisé - voire impossible - d’exprimer une variable en fonction de l’autre en utilisant
la contrainte g (x, y) = 0. La méthode de Lagrange permet de résoudre cette difficulté.

Cette méthode repose sur le théorème suivant :

O Théorème 5. Soit f une fonction définie sur un domaine D de R2 . Soit g une fonction définie sur un domaine
D0 ⊂ D. On pose F = {(x; y) ∈ D0 |g(x; y) = 0}

FT
On fait les hypothèses suivantes :
1. f possède en A un minimum local relativement à F. C’est à dire que A est un point intérieur de D0 et il
existe une boule ouverte, B ⊂ F, centrée en A tel que ∀x ∈ B; f (a) 6 f (x)
2. f et g sont de classe C 1 en A.
3. dgA , 0
Dans ces condition, il existe un réel λ tel que la fonction définie par

L(x, y, λ) = f (x; y) + λg(x; y)


RA
admette un minimum local en a.
p
Exemple 11. La fonction
√ (x; y) 7−→ 3
xy 2 admet un maximum en (4/3 ; 16/3) sous la contrainte y = 8 − 2x. Ce
maximum vaut 38 3 2.
D


On remarque que la courbe de niveau z = 83 3 2 et la courbe d’équation x 7−→ (x, 8 − 2x, f (x, 8 − 2x)) sont
tangentes au point où le maximum se réalise.

Un extremum de la fonction de deux variables f soumise à la contrainte g (x, y) = 0 est un extremum libre
de la fonction de trois variables, notée L, appelée le lagrangien de f , définie par :

12 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

L(x, y, λ) = f (x, y) + λg (x, y)


La variable auxiliaire est appelée multiplicateur de Lagrange.
On recherche ensuite les points critiques et leur multiplicateur associé à l’aide des conditions du premier
ordre appliquées à la fonction L :

€f €g



 +λ =0
€x €x



€L €L €L 
 €f

€g
(x, y, λ) = (x, y, λ) = (x, y, λ) = 0 ⇔  +λ =0

FT
€x €y €λ 


 €y €y


g(x; y) = 0

Puis on étudie pour chaque point critique trouvé X∗ = (x∗ , y ∗ ) le signe de l’expression
f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) qui est une fonction de (h, k), h et k étant liés par la relation :
g (x∗ + h, y ∗ + k) = γ (h, k).
Deux cas peuvent se produire :
1. Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) a un signe constant lorsque (h, k) est voisin de (0; 0), alors f présente un
extremum local en X∗ .
RA
(a) Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) > 0, c’est un minimum local.
(b) Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) 6 0, c’est un maximum local.
2. Si f (x∗ + h, y ∗ + k) − f (x∗ , y ∗ ) n’a pas un signe constant lorsque (h, k) est voisin de (0; 0), alors f ne
présente pas d’extremum local en X∗ .
€g
Preuve. Comme en A(xA ; yA ), dgA , 0, on peut supposer - sans perte de généralité que €y
(A) , 0. La
fonction g étant de classe C1,
on peut appliquer le théorème des fonctions implicites : il existe un intervalle
ouvert, I, contenant xA , un intervalle ouvert, J, contenant yA , une fonction φ de classe C 1 sur I à valeur dans
J telle que
D

∀(x; y) ∈ I × J; g(x; y) = 0 ⇔ y = φ(x)


De plus
€g
(x; φ(x))
φ0 (x) = − €x .
€g
€y
(x; φ(x))

Par hypothèse la fonction h : x 7−→ f (x, φ(x)) définie sur I est de classe C 1 et possède un minimum local en
xA . Donc h0 (xA ) = 0.

€f €f
h0 (x) = + φ0 (x)
€x €y
€g €f €g €g €f
€f €f €x €y
− €x €y
0 €x
h (x) = − =
€x €g €y €g
€y €y

et 
 €f

 €x
= −λ €f €g

 
€f €f 

 €g 

 = −λ
€f €g €g €f €x €y
 €x  €x

€x
h0 (x) = 0 ⇔
 
= ⇔ = ⇔ ∃λ ∈ R, ⇔ ∃λ ∈ R,

€x €y €x €y €g €g

 €f 
 €f €g
 €y = −λ €y
 
€x €y

 €y 


 = −λ


 €g
 €y

13 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

En notant λA la valeur de λ en A.
L’équivalence précédente montre que L admet un point critique en (xA ; yA ; λA ). De plus comme au voisinage
de A, g(x; y) est nul, au voisinage de A, L(xA ; yA ; λA ) = f (xA ; yA ) + λA g(xA ; yA ) = f (xA ; yA ) 6 f (x; y) = f (x; y) +
λg(x, y) = L(x, y, λ). Ce qui prouve que L admet un minimum local en (xA ; yA ; λA ). cqfd

Exemple 12.
Reprenons l’exemple 10 : f (x, y) = xy avec la contrainte g (x, y) = x + y − 6 = 0.
Le lagrangien est L(x, y, λ) = xy + λ (x + y − 6).
Les conditions du premier ordre amènent le système :

FT
€L

(x, y, λ) = y + λ = 0






 €x
 

  x=3
€L

 

soit  y=3
 
 (x, y, λ) = x + λ = 0



 €x 
 λ = −3




€L




 (x, y, λ) = x + y − 6 = 0
€x
On obtient donc un point critique X∗ = (3; 3) de multiplicateur associé λ∗ = −3.
RA
Étudions à présent le signe de f (3 + h, 3 + k) − f (3, 3) = (3 + h) (3 + k) − 9 = 3 (h + k) + hk, h et k étant liés par
la relation g (3 + h, 3 + k) = h + k = 0, soit encore h = −k.
On a par conséquent f (3 + h, 3 + k) − f (3, 3) = −k 2 6 0 pour tout k réel.

Il en résulte que la fonction f définie par f (x, y) = xy avec la contrainte d’égalité x + y − 6 = 0 sur les variables
x et y possède un maximum local en X∗ = (3; 3) égal à f (3; 3) = 9.
D

 Exercice 4

Étudier les extrema de la fonction f définie sur R2 par f (x, y) = 6 − 4x − 3y, sous la contrainte x2 + y 2 = 1.

4.3 Interprétation des multiplicateurs de Lagrange


Plaçons-nous dans le cas de la recherche d’un maximum et supposons que f admette un maximum sous
la contrainte g(x, y) = c en Ac(xAc ; yAc ) et notons λAc le multiplicateur associé, en utilisant la méthode de
Lagrange.
L(x; y; λ) = f (x; y) + λ(c − g(x; y))
Relâchons la contrainte en remplaçant c par c0 > c, comment va évoluer λAc ?
Considérons

14 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

G : R × D −→ R



 c − g(x; y)

 €f €g


(λ; x; y) 7−→

 −λ (2)


 €x €x

 €f €g
 €y − λ €y


FT
À l’équilibre G(λ, x, y) = 0. Mais G dépend de c si bien que l’on peut considérer G̃(λ, x, y, c) = 0.
Supposons que l’on puisse de nouveau utiliser le théorème des fonctions implicites pour exprimer x, y et λ
comme des fonctions de classe C 1 de c.
Ainsi, Υ : c 7−→ L(λ(c); x(c); y(c)) = f (x(c); y(c)) + λ(c)(c − g(x(c); y(c))) est de classe C 1

€f 0 €f 0 €g €g
Υ 0 (c) = x (c) + y (c) + λ0 (c)(c − g(x(c); y(c))) + λ(c)(1 − ( x0 (c) + y 0 (c)))
€x €y €x €y
€f €g €f €g
RA
Υ 0 (c) = x0 (c)( − λ ) + y 0 (c)( − λ ) + λ0 (c)(c − g(x(c); y(c))) + λ(c)
€x €x €y €y

À l’optimum, on obtient :

Υ 0 (c) = λ(c)
Donc le multiplicateur de Lagrange est l’accroissement marginal de la fonction objectif lorsque l’on «relâche»
la contrainte via le coefficient c.

Exemple 13. Reprenons l’exemple 11 :


D

15 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

Le lagrangien de l’exemple 11 s’écrit :

L(x; y; λ) = f (x; y) + λ(8 − 2x − y)



3 √3
2
Le maximum est atteint en ( 34 ; 16
3 ; 3 ) pour un maximum de 8
3 2 ' 3, 36.

3
2
Ici on «relâche» la contrainte d’une unité, le maximum augmentera d’environ 3 ' 0, 42.
√ √ √
3
2
En réalité, dans cet exemple, pour la contrainte 2x + y = 9, le maximum vaut exactement 3 3 2 = 83 3 2 + 3 ;
c’est dû au fait que la contrainte est affine.

FT
4.4 Conditions du second ordre pour l’optimisation sous contrainte
Supposons que f soit de classe C 2 .
Notons fx la dérivée partielle par rapport à x, fxy la dérivée partielle seconde de f par rapport à y et à x etc.
On applique la formule de Taylor :
−−−−→ 1
f (A + H) = f (A) + grad fA · H + t H · D2A f · H + ||H||2 ε(H)
2
−−−−→
Ici à l’optimum grad fA n’est pas nul ! Aussi il est préférable de travailler avec le développement de Taylor
RA
du Lagrangien :

O Théorème 6. Soit f une fonction définie sur un domaine D de R2 . Soit g une fonction définie sur un domaine
D0 ⊂ D.
On pose L(x; y; λ) = f (x; y) + λg(x; y)
On fait les hypothèses suivantes :
1. f et g sont de classe C 2 en A.
2. dgA , 0
−−−−→
3. Il existe λA ∈ R, tel que grad L(xA ; yA ; λA ) = 0 et l’on pose L : (x; y) 7−→ L(x; y; λA )
D

Dans ces conditions :


1. Si f possède en A un minimum local sous la contrainte g(x; y) = 0 alors :
−−−−→
∀H ∈ R2 ; grad g · H = 0 ⇒ t H · D2A L · H > 0 (3)

2. Si
−−−−→
∀H ∈ R2 \{(0; 0)}; grad g · H = 0 ⇒ t H · D2A L · H > 0 (4)
alors f possède en A un minimum local strict sous la contrainte g(x; y) = 0

Remarque 3. On peut adapter le théorème (6 6) au cas d’un maximum en renversant les inégalités.
!
−−−−→ α
Preuve. Reprenons les notations de la preuve du théorème (5 5). Et notons grad gA = .
β
En appliquant la formule de Taylor à g, on a :
−−−−→
g(A + H) = g(A) + grad gA · H + ||H||ε(H)
−−−−→
qui devient grad gA · H + ||H||ε(H) = 0 cqfd

Reprenons les notations de Monge appliquées à L. Le théorème (6 6), nous invite à regarder le signe de
2 2
Q(h; k) = rh + 2shk + tk avec αh + βk = 0. On peut supposer que β , 0, on a k = − αβ h, d’où :

16 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

α α
Q̃(h) = rh2 + 2h(− h) + (− h)2 t
β β
h h i
Q̃(h) = ( )2 β2 r − 2αβs + α2 t
β

Reprenons maintenant la fonction G (2 2) et supposons que G soit de classe C 1 , sa matrice jacobienne s’écrit :
   
 0 −gx −gy   0 −α −β

FT
H = −gx fxx − λgxx fxy − λgxy  = −α r s 
   
−gy fxy − λgxy fyy − λgyy −β s t
   

Cette matrice est appelée la Hessienne bordée, calculons son déterminant :



0 −α −β
|H| = −α r s = α(−αt + βs) − β(−αs + βr) = −α2 t + 2αβs − β2 r
−β s t

6)
On peut ainsi reformuler le théorème (6
RA
O Théorème 7. Soit f une fonction définie sur un domaine D de R2 . Soit g une fonction définie sur un domaine
D0 ⊂ D.
On pose L(x; y; λ) = f (x; y) + λg(x; y)
On fait les hypothèses suivantes :
1. f et g sont de classe C 2 en A(xA ; yA ).
2. dgA , 0
−−−−→
3. Il existe λA ∈ R, tel que grad L(xA ; yA ; λA ) = 0
Enfin on pose
D

 

t −−−−→   0 gx gy
 0 grad g  

H =  −−−−→  = gx fxx − λgxx fxy − λgxy  (H)

2
grad g DL  

gy fxy − λgxy fyy − λgyy


Dans ces conditions :


1. Si |H(xA ;yA ;λA ) | < 0 alors f possède en A un minimum local strict sous la contrainte g(x; y) = 0
2. Si |H(xA ;yA ;λA ) | > 0 alors f possède en A un maximum local strict sous la contrainte g(x; y) = 0

Exemple 14. Trouver les extrema de la fonction f : (x; y) 7−→ 5x2 + 6y 2 − xy sous la contrainte : x + 2y = 24.

17 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

L(x; y; λ) = 5x2 + 6y 2 − xy + λ(x + 2y − 24)




 10x + λ
−−−−→ 

grad L =  12y + 2λ



x + 2y − 24

Condition du premier ordre 



 x=6
−−−−→ 
grad L = ~0 ⇔ 

y=9

FT


λ = −51

Il y a un point candidat, voyons maintenant la nature de ce point critique.

Conditions du second ordre Ici la hessienne bordée est constante :


 
 0 1 2 
H =  1 10 −1 
 
2 −1 12
 
RA
et son déterminant est négatif (-56)
7), la fonction f possède un minimum en (6; 9) sous la contrainte x + 2y = 24.
D’après le théorème (7
D

5 Optimisation sous contrainte d’inégalité


Dans cette partie on cherche à résoudre les programmes du type :
(
ext f (x; y)
(5)
s.c. g(x; y) > 0
où f et g sont deux fonctions de classe C 1 sur un ensemble ouvert D de R2 .
Par exemple :
(
max (x + 1)(y + 1)
(6)
s.c. 6x + y 6 3

5.1 Vocabulaire
Dans le programme (55), l’ensemble des valeurs admissibles est l’ensemble des points de R2 où g(x; y) > 0.
On cherchera donc des solutions dans l’ensemble E = D ∩ {(x; y) ∈ R2 |g(x; y) > 0}.

18 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

Définition 4. La contrainte g(x; y) > 0 est dite serrée, ou effective ou encore active au point A ∈ D si g(A) = 0.
Lorsque g(A) > 0, on dit que la contrainte est relâchée en A. Enfin, la contrainte g(x; y) > 0 est dite qualifiée
en A si :
— soit g(A) > 0
— soit g(A) = 0 et dgA , 0

5.2 Conditions nécessaires pour un optimum local

FT
O Théorème 8 (Kuhn et Tucker). On considère le programme (5 5). Si f admet un maximum local en A sur E et
si la contrainte est qualifiée en A alors il existe un réel λA tel que :
1. λA > 0
2. λA × g(A) = 0 dite relation d’exclusion
3. dfA + λA dgA = 0

Preuve. 1. E = E1 t E2 où E1 = D ∩ {(x; y) ∈ R2 |g(x; y) = 0} et E2 = D ∩ {(x; y) ∈ R2 |g(x; y) > 0}


RA
Si la contrainte est serrée en A (i.e. A ∈ E1 ) alors on peut appliquer le théorème de Lagrange (5 5) : il
existe un réel λA tel que dfA + λA dgA = 0.
Si la contrainte est lâche en A, il s’agit alors d’un problème d’optimisation libre. En effet, E2 =
D ∩ g −1 (]0; +∞[), donc E2 est un ouvert et A appartient à cet ouvert. La condition nécessaire pour avoir
un maximum en A est dfA = 0 ; ce qui nous donne (3.) avec λA = 0.
Donc soit λA = 0 et dfA + λA dgA = 0, soit g(A) = 0 et dfA + λA dgA = 0. Ce que l’on peut résumer par
(2.) et (3.).
2. Montrons maintenant que λA > 0. Mettons de côté le cas facile où λA = 0 et supposons que g(A) = 0.
On suppose donc que la contrainte est serrée en A.
Considérons la fonction
D

h : D × R −→ R
(x; y; t) 7−→ g(x; y) − t

Cette fonction h est une fonction de classe C 1 sur D × R car g l’est. De plus h(xA ; yA ; 0) = g(A) = 0 et
€h
€t
= −1 , 0. On peut donc utiliser le théorème des fonctions implicites en (xA ; yA ; 0) :
il existe un ouvert U ∈ D contenant A et un ouvert V contenant 0, une fonction de classe C 1 sur V :

φ : V −→ U
t 7−→ (φ1 (t); φ2 (t))

tels que φ(0) = A et

∀t ∈ V; h(φ(t), t) = 0.

Dérivons cette dernière expression par rapport à t.

19 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

dgA · dφ0 − 1 = 0
dgA · dφ0 = 1
λA ( dgA · dφ0 ) = (λA dgA )· dφ0 = λA
− dfA · dφ0 = λA d’après (3.)
dfA · dφ0 = −λA

FT
Donc prouver λA > 0 revient à démontrer que dfA · dφ0 6 0.
3. Soit t0 > 0 tel que [0; t0 [⊂ V. Pour tout t ∈ [0; t0 [, φ(t) ∈ E.
En effet, remarquons tout d’abord que φ(t) ∈ U ⊂ D de plus

∀t ∈ [0; t0 [, h(φ(t), t) = 0 ⇔ g(φ(t)) = t > 0

Donc ∀t ∈ [0; t0 [, φ(t) ∈ E.


Considérons pour terminer la fonction
RA
k = f ◦ φ : [0; t0 [ −→ R
t 7−→ f (φ(t))

La fonction k est de classe C 1 sur [0; t0 [ en tant que composée de fonctions de classe C 1 , k(0) = f (A) et
k admet un maximum en 0 qui vaut f (A).
D’une part k 0 (0) = dfA · dφ0 , et d’autre part :

k(t) − k(0)
k 0 (0) = lim+ 60 car ∀t ∈ [0; t0 [, k(t) 6 k(0)
D

t→0 t
En conclusion dfA · dφ0 6 0, ce qui prouve (1.)
cqfd

Exemple 15. Résoudre (6


6).

20 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

L(x; y; λ) = (x + 1)(y + 1) + λ(3 − 6x − y)

Attention
La contrainte doit être de la forme g(x; y) > 0, donc on choisit pour g(x; y) = 3 − 6x − y et non l’opposé.


y + 6λ + 1
−−−−→ 

grad L =  x+λ+1



 3 − 6x − y

que 3 − 6x − y > 0 sont qualifiés.

Conditions de Kuhn et Tucker


FT
Condition de qualification dg = −6 dx− dy, donc la différentielle n’est jamais nulle. Tous les points tels




 λ>0
 λ(3 − 6x − y) = 0





 y + 6λ + 1 = 0
RA

 x+λ+1 = 0

Condition d’exclusion
1. Si λ = 0 alors x = −1 et y = −1 dans ce cas f (−1; −1) = 0, n’est clairement pas un maximum. Pour ce
point la contrainte est lâche.
2. Si 3 − 6x − y = 0 alors
1

x=−




 6
−−−−→ 
grad L = ~0 ⇔ 

y = 4




 5
D

 λ=


6
On se retrouve avec un problème sous contrainte d’égalité.
Le multiplicateur associé est positif, donc le programme admet un maximum local en ( 16 ; 4) qui vaut
35
6 .

Exemple 16. Résoudre le programme suivant :





 max x2 + y 2
s.c. 3x2 − 4xy + 3y 2 6 a

où a > 0.

21 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

On pose
L(x; y; λ) = x2 + y 2 + λ(a − 3x2 + 4xy − 3y 2 )
L est de classe
 C 1 sur R3 .

 2x − 6λx + 4yλ
−−−−→ 

grad L = 

 2y + 4xλ − 6yλ

a − 3x2 + 4xy − 3y 2

Condition de qualification dg = (−6x + 4y) dx + (4x − 6y) dy donc dgA = 0 ⇔ A = (0; 0). Or g(A) = a > 0,
donc tous les points tels que a − 3x2 + 4xy − 3y 2 > 0 sont qualifiés.

Conditions de Kuhn et Tucker

Condition d’exclusion
FT 









λ>0
 λ(a − 3x + 4xy − 3y 2 ) = 0

 2

2x − 6λx + 4yλ = 0
2y + 4xλ − 6yλ = 0
RA
1. Si λ = 0 alors x = y = 0, mais ce point, le point A, ne correspond pas à un maximum car f (A) = 0 6
f (x; y).
−−−−→ →

2. Si λ , 0 alors grad L = 0 .

x(3λ − 1)

−x + 3xλ

y=
 
2x − 6λx + 4yλ = 0 y =

 






 2λ


 2λ

 2y + 4xλ − 6yλ = 0   −x + 3xλ


⇔ ⇔


 
 y + 2xλ − 3yλ = 0 
 + 2xλ − (−x + 3xλ) = 0
2λ 2λ
  
3x2 − 4xy + 3y 2 = a
  
3x2 − 4xy + 3y 2 = a

 

3x2 − 4xy + 3y 2 = a

x(3λ − 1) x(3λ − 1)
 
D

= y=
 

 y 



 2λ


 2λ
⇔ −x + 3xλ + 4xλ2 + 3λx − 9xλ2 = 0 ⇔ 
   
x −5λ2 + 6λ − 1 = x(5λ − 1)(λ − 1) = 0

 

2 2
 
3x − 4xy + 3y = a 3x2 − 4xy + 3y 2 = a

 

Or si x = 0 alors λ = 0 ce qui est contraire à l’hypothèse de départ. Donc soit λ = 1, soit λ = 15 .

(a) Si λ = 1 alors y = x et les points A1 ( 2a ; 2a ) et A2 (− 2a ; − 2a ) sont des points candidats.


p p p p

(b) Si λ = 51 alors y = −x et les points A3 ( 10


pa pa pa pa
; − 10 ) et A4 (− 10 ; 10 ) sont des points candidats.

22 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

2
Conclusion f (A1 ) = f (A2 ) = a2 et f (A3 ) = f (A4 ) = a5 . Sur l’ellipse d’équation 3x2 − 4xy + 3y 2 = a qui est
un compact de R2 , f est continue est atteint ses bornes, d’après l’étude précédente les points candidats sont
2
A1 , A2 , A3 et A4 . Donc, f atteint son maximum a2 en A1 et en A2 et son minimum a5 en A3 et A4 .

FT
RA
Donc les solutions du programme sont A1 ( 2a ; 2a ) et A2 (− 2a ; − 2a ).
p p p p
Remarque 4.
a − 3x2 + 4xy − 3y 2 = 0

4
3(x2 − xy + y 2 ) = a
3
2 2 4
3((x − y) + y 2 − y 2 ) = a
3 9
2 2 5 2
3((x − y) + y ) = a
3r 9
D

r r
2 a 5 2 1 3a 3a
 q 
x= y± − y = 2
2y ± 3a − 5y avec − 6y6
3 3 9 3 5 5

Remarque 5. Lorsque l’on cherche un minimum local la condition (1.) devient : λA 6 0.

5.3 Condition suffisante d’optimalité globale


Dans cette partie on suppose que g est concave sur D un ouvert convexe de R2 .

23 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

Si de plus f est convexe (resp. concave) sur D les conditions du théorème (8


8) sont suffisantes pour montrer
que f admet un minimum (resp. un maximum) sous la contrainte g(x; y) > 0.

Proposition 4. Soit le programme


(
min f (x; y)
(7)
s.c. g(x; y) > 0
où f est une fonction convexe et de classe C 1 sur un ouvert convexe, D, de R2 et g est une fonction concave et
de classe C 1 sur D. S’il existe un point A de D et un réel λA tel que

FT
— la contrainte soit qualifiée en A
— λA 6 0
— λA × g(A) = 0
— dfA + λA dgA = 0
alors f admet un minimum global sous la contrainte g(x; y) > 0 en A.

Proposition 5. Soit le programme


(
max f (x; y)
(8)
RA
s.c. g(x; y) > 0
où f est une fonction concave et de classe C 1 sur un ouvert convexe, D, de R2 et g est une fonction concave et
de classe C 1 sur D. S’il existe un point A de D et un réel λA tel que
— la contrainte soit qualifiée en A
— λA > 0
— λA × g(A) = 0
— dfA + λA dgA = 0
alors f admet un maximum global sous la contrainte g(x; y) > 0 en A.

Exemple 17.
D

(
max ln(x) + ln(y + 5)
s.c. x+y 6 4
Posons f (x; y) = ln(x) + ln(y + 5), f est de classe C 2 sur D =]0; +∞[×] − 5; +∞[.
−−−−→
— grad f = t 1x y+5 1
 

− x12
!
2 0
— Df = 1
0 − (y+5) 2

Donc f est concave sur D.


Posons g(x; y) = 4−x−y, g est affine donc g est concave et de classe C 1 sur D. La différentielle dg est constante
−−−−→
et non nulle, donc les éléments tels que g(x; y) > 0 sont qualifiés. Le théorème (8 8) s’applique, comme grad f
−−−−→ →

n’est jamais nul sur D alors λ , 0. Cherchons donc λ > 0 tel que grad L = 0 où L(x; y; λ) = f (x; y) + λg(x; y).

 1
 1  9
 − λ = 0

 x = 
 x=
λ 2
  
x

 
 

  
1 −1
  
 1
  
⇔ y = − 5 ⇔ y=
 
 − λ = 0 
λ

2
y +5

 
 

  
2 2

 
 

  

x+y = 4

 =9  λ=

λ 9
D’après la proposition (5
5), f admet un maximum global en (4, 5; −0, 5) sous la contrainte x + y 6 4.

24 V. Ledda
Optimisation des fonctions de deux variables Chapitre 2

O Théorème 9 (Conditions nécessaires et suffisante d’optimalité). Soit le programme


(
max f (x; y)
(9)
s.c. g(x; y) > 0
où f est une fonction concave et de classe C 1 sur un ouvert convexe, D, de R2 et g est une fonction concave et
de classe C 1 sur D. S’il existe au moins un point X de D tel que g(X) > 0 [condition de Slater] alors
f admet un maximum global sous la contrainte g(x; y) > 0 en A si et seulement si il existe un réel λA tel que
— λA > 0

FT
— λA × g(A) = 0
— dfA + λA dgA = 0
RA
D

25 V. Ledda

Vous aimerez peut-être aussi