0% ont trouvé ce document utile (0 vote)
39 vues36 pages

Document Mathematique

Le document traite de l'analyse convexe et de l'optimisation, en se concentrant sur les fonctions réelles de plusieurs variables. Il aborde les normes, distances, limites, continuité, et les propriétés des fonctions de deux variables réelles. Des définitions, propositions et exemples illustrent les concepts mathématiques fondamentaux liés à ces thèmes.

Transféré par

tkvhs6k2zt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
39 vues36 pages

Document Mathematique

Le document traite de l'analyse convexe et de l'optimisation, en se concentrant sur les fonctions réelles de plusieurs variables. Il aborde les normes, distances, limites, continuité, et les propriétés des fonctions de deux variables réelles. Des définitions, propositions et exemples illustrent les concepts mathématiques fondamentaux liés à ces thèmes.

Transféré par

tkvhs6k2zt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ANALYSE CONVEXE ET OPTIMISATION

Table des matières

1 Fonctions réelles de plusieurs variables réelles 2


I Normes et distances sur Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
II Foncions de deux variables réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
II.1 Définition, exemples, graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
II.2 Limite et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
III Fonctions de plusieurs variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
III.1 Définition et domaine de définition . . . . . . . . . . . . . . . . . . . . . . . . 8
III.2 Dérivée partielle et différentielle . . . . . . . . . . . . . . . . . . . . . . . . . 9
III.3 Dérivées partielles secondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
IV Approximation affines et calcul des incertitudes . . . . . . . . . . . . . . . . . . . . 12
IV.1 Erreur absolues, Erreurs relatives d’une fonction à une variable . . . . . . 12
IV.2 Erreurs absolues erreurs relatives d’une fonction à plusieurs variables . . 13
IV.3 Plan tangent associé au graphe d’une fonction à plusieurs variables . . . 16

1
Chapitre 1
Fonctions réelles de plusieurs
variables réelles

I) Normes et distances sur Rn


x1
 
 x2 
Un point x ∈ Rn considéré comme vecteur sera noté x =  ..  dont la transposé xT =
 
 . 
xn
x1 , x2 , . . . , xn est une matrice ligne.
¡ ¢

Définition I.1. Le produit scalaire de deux éléments x et y de Rn est le réel :


n
〈 x, y〉 = x i yi
X
i =1

Proposition I.1. (Inégalité de Schwarz)


Pour x et y dans Rn , on a :

n n n
¯ ¯ s s
¯X ¯
|〈 x, y〉| = ¯ x i yi ¯ ≤ x2i yi2
¯ ¯ X X
¯ i=1 ¯ i =1 i =1

Définition I.2. (Norme)


Une norme sur Rn est une application notée k.k de Rn dans R ;

k.k : Rn → R
x 7→ k xk

qui satisfait les conditions suivantes :


∀ x ∈ R n , k xk ≥ 0 ( N1 )

∀ x ∈ Rn , k xk = 0 =⇒ x1 , x2 , . . . , xn = (0, 0, . . . , 0) ( N2 )
¡ ¢

∀ x ∈ Rn , ∀λ ∈ R, kλ xk = λk xk

∀ x ∈ Rn , ∀ y ∈ Rn , k x + yk ≤ k xk + k yk (appelée inégalité triangulaire)

Exemple de normes I.1. (Exemple de normes)

2
I. NORMES ET DISTANCES SUR R N

k. k1 : R n → R

x 7→ k xk1 = | x1 | + | x2 | + · · · + | xn |

k. k2 : R n → R
• q p
x 7→ k xk2 = x12 + x22 + · · · + x2n = 〈 x, x〉
(appelée norme euclidienne car définie à partir du produit scalaire)

k. k3 : R n → R

x 7→ k xk3 = max{| x1 | , | x2 | , . . . , | xn |}

Définition I.3. Une distance (ou métrique) sur Rn est une application d : Rn × Rn → R+ telle
que :

i) ∀ x, y ∈ Rn , d ( x, y) = 0 ⇔ x = y

ii) ∀ x, y ∈ Rn , d ( x, y) = d ( y, x)

iii) ∀ x, y, z ∈ Rn , d ( x, y) ≤ d ( x, y) + d ( y, z) (inégalité triangulaire)


Si d est une distance sur Rn alors (Rn , d ) est un espace métrique.

Exemple I.1. Soit k.k une norme sur Rn . L’application

d : Rn × Rn → R+
( x, y) 7→ k x − yk

est une distance. C’est la distance associée à la norme k.k. Dans le cas de la nome euclidienne,
on parle de distance euclidienne.

Définition I.4. Soient x ∈ Rn , r > 0 et k.k est une norme sur Rn .


On appelle boule ouverte de centre x et de rayon r par rapport à la norme k.k, l’ensemble

B0 ( x, r ) = { y ∈ Rn : k y − xk < r }

On appelle boule fermée de centre de x et de rayon r par rapport à la norme k.k, l’ensemble

B f ( x, r ) = { y ∈ Rn : k y − xk ≤ r }

On appelle sphère de centre x et de rayon r par rapport à la norme k.k, l’ensemble

S( x, r ) = { y ∈ Rn : k y − xk = r

Définition I.5. On considère Rn muni de la norme k.k. On appelle voisinage d’un point a ∈ Rn ,
toute partie de X contenant une boule ouverte ou une boule fermée de centre a et de rayon r > 0.
On désigne par V (a) l’ensemble des voisinages de a.

Proposition I.2. Toute partie qui contient un voisinage de a est encore un voisinage de a. Toute
intersection d’un nombre fini de voisinages de a est un voisinage de a.

Projet LATEX 3 ANNEE UNIVERSITAIRE 2023-2024


II. FONCIONS DE DEUX VARIABLES RÉELLES

Définition I.6. On considère Rn muni de la norme k.k. Soit A ⊂ R2 .


On dit que A est borné s’il est inclus dans une boule fermée de Rn . Autrement dit, il existe r > 0
tel que k xk ≤ r pour tout x ∈ A .

Définition I.7. On considère Rn muni de la norme k.k, une partie A de Rn est appelée un ouvert
si et seulement si pour tout a dans A il existe une boule ouverte centrée en a et un rayon ρ
contenue dans A c’est-à-dire
˙A
∀a ∈ A, ∃ρ > 0 : B0 (a, ρ ) ⊂

Remarque I.1. Dans la définition ci-dessus, on peut remplacer la " boule ouverte " par " boule
fermée ".

Proposition I.3. a) Rn et ; sont des ouverts ;

b) Toute intersection d’un nombre fini d’ouverts est un ouvert ;

c) Toute réunion d’une famille quelconque d’ouverts est un ouvert.

Proposition I.4. Pour qu’une partie X soit ouverte, il faut et il suffit qu’elle soit réunion de
boules ouvertes.

Exemple I.2. Dans R2 , les ensembles R2 , R∗+ ×R∗+ , ]a, b[ × ] c, d [ avec a, b, c, d ∈ R sont des ouverts.

Définition I.8. Dans Rn muni de la norme k.k, une partie A de Bn est dite fermée si son com-
plémentaire est un ouvert, c’est-à-dire l’ensemble { x ∈ Rn : x 6∈ A } est ouvert.

Proposition I.5. a) Rn et ; sont fermés ;

b) Toute réunion d’un nombre fin de fermés est fermé ;

c) Toute intersection d’une famille quelconque de fermés est fermé.

Exemple I.3. Dans R2 , les ensembles R2 , R∗+ × R∗+ , [a, b] × [ c, d ] avec a, b, c, d ∈ R sont fermés.

II ) Foncions de deux variables réelles

II.1 ) Définition, exemples, graphes


Soit
f : R2 → R
( x, y) 7→ f ( x, y)

Définition II.1. On appelle de définition de f , l’ensemble des couples ( x, y) ∈ R2 qui ont une
image par f . O le note D f . D f est une partie de R2 .

Projet LATEX 4 ANNEE UNIVERSITAIRE 2023-2024


II. FONCIONS DE DEUX VARIABLES RÉELLES

Exemple II.1. .
y

f ( x, y) = 4 − x2 − y2
p

1) ( x, y) ∈ D f ⇔ 4 − x2 − y2 ≥ 0
x
2) Déterminons des frontières M 1(0, 0) M 2(3, 0)

4 − x2 − y2 = 0 ⇔ x2 + y2 = 22

La frontière est le cercle de centre (0, 0) et de rayon r = 2.

3) Le cercle divise le plan en deux régions. Prenons deux points quelconques de ces deux
régions.
M1 = (0, 0) et M1 = (3, 0)
Pour M1 , on a 4 − 02 − 02 ≥ 0 et pour M2 on a 4 − 32 − 02 < 0
Donc D f est les cercle et son intérieur qui est le disque fermé .

Définition II.2. On appelle graphe de f l’ensemble G tel que G = {( x, y), f ( x, y) : ( x, y) ∈ D f }.


G est une partie de R3 , sa représentation graphique dans R3 est une surface de R3 .
On confond souvent graphe et représentation graphique.

Définition II.3. Soit α ∈ R. On appelle courbe de niveau α de la fonction f , l’intersection de la


surface représentant f et le plan z = α.
C’est l’ensemble des points ( x, y) tels que f ( x, y) = α.

Exemple II.2. Soit


f : R2 → R
( x, y) 7→ f ( x, y) = x2 + y2
D f = R2 . Pour α > 0, la courbe de niveau α est le cercle d’équation x2 + y2 = α dans le plan z = α.

II.2 ) Limite et continuité


a) Limite en (0, 0)

Pour calculer lim f ( x, y), la première étape consiste à remplacer x par 0 et y par 0, si
(x,y)→(0,0)
on trouve un nombre ∞ c’est bon. Si on trouve une forme indéterminée alors il faut faire le
changement de variable en coordonnées polaires suivant :

x = r cos(θ )
½
(1.1)
y = r sin(θ )

Projet LATEX 5 ANNEE UNIVERSITAIRE 2023-2024


II. FONCIONS DE DEUX VARIABLES RÉELLES

θ contrôle la direction et donc :

lim f ( x, y) = lim f ( r cos(θ ), r sin(θ ))


(x,y)→(0,0) r →0

Ou bien poser y = tx, ici t contrôle la direction et alors

lim f ( x, y) = lim f ( x, tx)


(x,y)→(0,0) x→0

o Si la limite ne dépend pas de θ (ou t) et est finie, on dit qu’elle existe.

o Si elle dépend de θ (ou t) ou bien n’est pas finie, on dit qu’elle n’existe pas.

Exemple II.3. .

x2 + 2 y + 2 2
1) lim =
(x,y)→(0,0) x + y + 3 3

x3 + 2 x2 y
2) lim (FI)
x2 + y2 = 00
(x,y)→(0,0)
Par le changement en coordonnes polaire, on trouve

( r cos(θ ))3 + 2 ( r cos(θ ))2 ( r sin(θ )) r 3 cos3 (θ ) + 2 cos2 (θ ) sin(θ )


¡ ¢
lim = lim
r →0 ( r cos(θ ))2 + ( r sin(θ ))2 r →0 r2

= lim r cos3 (θ ) + 2 cos2 (θ ) sin(θ ) = 0


¡ ¢
r →0

x2 + 2 x2 y 0
3) lim = (FI)
(x,y)→(0,0) x2 + y2 0
Par le changement de variable e coordonnées polaires, on trouve

( r cos(θ ))2 + 2 ( r cos(θ )) ( r sin(θ )) r 2 cos2 (θ ) + 2 cos(θ ) sin(θ )


¡ ¢
lim = lim
r →0 ( r cos(θ ))2 + ( r sin(θ ))2 r →0 r2

= lim cos3 (θ ) + 2 cos(θ ) sin(θ )


¡ ¢
r →0

Cette limite dépend de θ , donc elle n’existe pas.


0
xy
4) lim (FI) =
(x,y)→(0,0) x2 + y2 0
p
par le changement de variable y = tx, on a :

x( tx) tx2 p t
lim p = lim p p = lim x2 × p =0
x →0 x2 + ( tx)2 x→0 2
x 1+ t 2 x→0 1 + t2

0 xy
5) lim (FI) =
(x,y)→(0,0) x2 + y2
0
Par changement de variable y = tx, on a :

x( tx) tx2 t
lim = lim =
x→0) x2 + ( tx)2 x→0 x2 (1 + t2 ) 1 + t2
Cette limite dépend de t, donc elle n’existe pas.

Projet LATEX 6 ANNEE UNIVERSITAIRE 2023-2024


II. FONCIONS DE DEUX VARIABLES RÉELLES

b) Limite en ( x0 , y0 )

On pose : X = x − x0 et Y = y − y0

lim f ( x, y) = lim f ( X + x0 , Y + y0 )
(x,y)→(x0 ,y0 ) (X ,Y )→(0,0)

Exemple II.4. .
x+ y−3 ( X + 1) + (Y + 2) − 3 X +Y
L = lim = lim = lim
(x,y)→(1,2) x2 + y − 3 (X ,Y )→(0,0) ( X + 1)2 + (Y + 2) − 3 (X ,Y )→(0,0) X 2 + 2 X + Y

Maintenant par le changement de variable Y = tX , on obtient :

X + tX 1+ t 1+ t
L = lim = lim =
X →0 X 2 + 2 X + tX X →0 X + 2 + t 2+ t

c) Limite en ( x0 , ∞)

1
On pose X = x − x0 , Y = y

1
lim f ( x, y) = lim f ( X + x0 , )
(x,y)→(x0 ,∞) (X ,Y )→(0,0) y

Exemple II.5.
1 ln( X + 1 + Y
L= lim y ln( x + ) = lim
(x,y)→(1,+∞) y (X ,Y )→(0,0) Y
En posant Y = tX , on obtient :

ln( X + 1 + tX ) ln (1 + (1 + t) X ) 1 + t
L = lim = lim =
X →0 tX X →0 tX t

d) Limite en (∞, ∞)

On pose : X = 1x et Y = 1
y
1 1
lim f ( x, y) = lim f( , )
(x,y)→(∞,∞) (X ,Y )→(0,0) X Y
Exemple II.6. .
1 1 sin( X + Y )
µ¶
L= lim x sin + = lim
(x,y)→(+∞,+∞) x y (X ,Y )→(0,0) X

En posant Y = tX , on obtient :

sin( X + tX ) sin ((1 + t) X )


L = lim = lim = 1+ t
X →0 X X →0 X

e) Continuité : f est continue en ( x0 , y0 ) si

lim f ( x, y) = f ( x0 , y0 )
(x,y)→(x0 ,y0 )

Projet LATEX 7 ANNEE UNIVERSITAIRE 2023-2024


III. FONCTIONS DE PLUSIEURS VARIABLES

Exemple II.7. Etudions la continuité en (0, 0) de la fonction

x2 y

si ( x, y) 6∈ (0, 0)

f ( x, y) = 2 2 (1.2)
 x +y
0 si ( x, y) = (0, 0)

On a par le changement de variable y = tx,

x2 y x2 ( tx) tx
lim 2 2
= lim 2 2
= lim = 0 = f (0, 0)
(x,y)→(0,0) x + y x→0 x + ( tx) x→0 1 + t2

Donc f est continue en (0, 0).

III ) Fonctions de plusieurs variables

III.1 ) Définition et domaine de définition


a) Fonctions numériques à n variables réelles

Définition III.1. .
o On appelle fonction numérique de n( n ∈ N∗ ) variables réelles, toute fonction de Rn dans R.
On a :
f : Rn → R
( x, y) 7→ f ( x1 , x2 , . . . , xn )

x1
 
 x2 
o On appelle ensemble de définition de f et on note D f , l’ensemble des points x =  ..  ∈ Rn
 
 . 
xn
tels que f ( x) = f ( x1 , x2 , . . . , xn ) existe dans R. On a :

x1
   
 
 x2 

 

 
n
D f = x =  .  ∈ R / f ( x1 , x2 , . . . , xn ) ∈ R
 

  ..  

 
xn
 

x1
 
 x2 
o On appelle graphe de f l’ensemble G des couples ( x, y) de Rn × R tels que x =  ..  ∈ D f et
 
 . 
xn
f ( x1 , x2 , . . . , xn ) ∈ R. 
y = f ( x ) =
x

 1 
 x2 

 

 
n
On a G = ( x, y) ∈ R × R/ x =  ..  ∈ D f et y = f ( x) ∈ R
 

  .  

 
xn
 

Exemple III.1. .
Soit
f : R2 → R
( x, y) 7→ f ( x, y)

Projet LATEX 8 ANNEE UNIVERSITAIRE 2023-2024


III. FONCTIONS DE PLUSIEURS VARIABLES

a) f ( x, y) = ax + b y est une fonction linéaire

b) f ( x, y) = ax + b y + c est une fonction affine

c) f ( x, y) = ax2 + 2 bx y + cx2 est une fonction quadratique

b) Fonctions vectorielle

Définition III.2. .

o On appelle fonction vectorielle f de R dans R p , la fonction définie par :

f : Rn → Rp
x1
 
 x2 
x =  ..  7→ f f 1 ( x), f 2 ( x), . . . , f p ( x)
  ¡ ¢
 . 
xn

où pour i = 1, 2, . . . , p, f i : Rn → R
x1
 
 x2 
 ..  7→ f i ( x1 , x2 , . . . , xn )
 
 . 
xn

x1
 
 x2 
o On appelle ensemble de définition de f et on note D f l’ensemble des points x =  ..  de Rn
 
 . 
xn
tels que f ( x) = f ( x1 , x2 , . . . , xn ) existe dans R p .

x1
   
 
 x2  p

 

  \
n p
On a : D f = x =  ..  ∈ R / f ( x1 , x2 , . . . , xn ) ∈ R = D fi
 

  .  
 i =1
 
xn
 

III.2 ) Dérivée partielle et différentielle


Soit a = (a 1 , a 2 , . . . , a n ) ∈ Rn et f une fonction réelle de n variables réelles définie sur un
voisinage V de a.

a) Dérivée partielle

Projet LATEX 9 ANNEE UNIVERSITAIRE 2023-2024


III. FONCTIONS DE PLUSIEURS VARIABLES

Définition III.3. .
Pour tout i = 1, 2, . . . , n, on appelle dérivée partielle de f par rapport à x i en a, la limite suivante
lorsqu’elle existe :
f (a 1 , a 2 , . . . , a i−1 , x i , a i+1 , . . . , a n ) − f (a 1 , a 2 , . . . , a i−1 , a i , a i+1 , . . . , a n )
lim
x i →a i xi − a i

∂f
Cette limite est alors notée f x0 i (a) ou (a).
∂xi
Définition III.4. (Gradient) Soit f dérivable en a = (a 1 , a 2 , . . . , a n ) ∈ Rn . Le gradient de f en a
est : ¶|
∂f ∂f ∂f
µ
∇ f ( a) = (a), (a), . . . , ( a) ∈ R n
∂ x1 ∂ x2 ∂ xn
b) Différentielle

Définition III.5. .
a1
 
 a2 
On dit que la fonction f est différentiable en a =  ..  ∈ Rn lorsqu’il existe des nombres réels
 
 . 
an
h1
 
 h2 
β1 , β2 , . . . , βn et une fonction ² tels que pour tout h =  .  avec a + h dans le voisinage de a :
 
 .. 
hn
f (a + h) = f (a) + β1 h 1 + β2 h 2 + · · · + βn h n + k hk²( h) avec lim ²( h) = 0.
h→0

Définition III.6. .
La différentielle de f en a est l’application linéaire d f (a) = f 0 (a) de Rn dans R telle que :
d f ( a) = f 0 ( a) : R n → R
h 7→ d f (a) h = f 0 (a) h
n ∂f
(a) h i = ∇| f (a) h = 〈∇ f (a), h〉
X
=
i =1 ∂ x i
n ∂f
L’application d f (a) : Rn → R telle que dh(a) = (a) dx i vérifiant :
X
i =1 ∂ x i

h1

 h2  n ∂f
∀ h =  .  ∈ Rn , dh(a) h = (a) dx i ( h) où dx i ( h) = h i
  X
 ..  ∂xi i =1
hn
est aussi appelée la dérivée totale de f en a.

Exemple III.2. .
Soit f ( x, y) = 5 x2 − 3 x y + y2 et h = ( h 1 , h 2 ) ∈ R2 .

1) Calculer les dérivées partielles de f .

2) En déduire la dérivée totale de f .

Projet LATEX 10 ANNEE UNIVERSITAIRE 2023-2024


III. FONCTIONS DE PLUSIEURS VARIABLES

III.3 ) Dérivées partielles secondes


a) Cas des fonctions de deux variables

Définition III.7. .
La dérivée partielle seconde de f par rapport à x1 , x2 en a = (a 1 , a 2 ), lorsqu’elle existe est la
∂f
dérivée partielle de ∂ x1
par rapport à x2 en a.
2
∂ f
On la note ∂ x2 x1
( a) ou f x002 x1 (a).
∂2 f
On définit de même les dérivées partielles secondes de f par rapport à x1 , x1 que l’on note ∂ x12
( a)
ou f x001 x1 (a) ainsi que celles par rapport à x2 , x1 et à x2 , x2 en a.

Définition III.8. .
La matrice hessienne de f en a = (a 1 , a 2 ) est la matrice carrée d’ordre 2 suivante :
∂2 f ∂2 f
 
∂ x2
( a) ∂ x1 ∂ x2
( a)
∇2 f (a) = H ess ( f (a)) =  ∂2 1f ∂2 f

∂ x2 ∂ x1
( a) ∂ x22
( a)

Théorème III.1. (de Schwarz)


∂2 f ∂2 f
Si ∂ x1 ∂ x2
et ∂ x2 ∂ x1
sont continues en a = (a 1 , a 2 ), alors

∂2 f ∂2 f
( a) = ( a)
∂ x1 ∂ x2 ∂ x2 ∂ x1

∂2 f ∂2 f
Donc si les dérivés partielles secondes ∂ x1 ∂ x2
et ∂ x2 ∂ x1
sont continues en a, la matrice hessienne
en a est symétrique.

Définition III.9. .
O dit que f est de classe C 2 en a lorsque les dérivées partielles secondes de f existent au voisi-
nage et sont continues en a.
Donc, lorsque f est de classe C 2 en a, la matrice hessienne de f en a est symétrique.

Exemple III.3. .
Soit f ( x, y) = 5 x2 − 3 x y + y2 et h = ( h 1 , h 2 ) ∈ R2 .
Calculer les dérivées partielles secondes de f et en déduire la matrice hessienne de f .

b) Généralisation à Rn

Définition III.10. .
a1
 
 a2 
La dérivée partielle seconde de f par rapport à x i , x j en a =  .. , lorsqu’elle existe est la dérivée
 
 . 
an
∂f ∂2 f
partielle de ∂xi
par rapport à x j en a. On la note ∂x j ∂xi
( a) ou f x00i x j (a)

Projet LATEX 11 ANNEE UNIVERSITAIRE 2023-2024


IV. APPROXIMATION AFFINES ET CALCUL DES INCERTITUDES

Définition III.11. .
a1
 
 a2 
La matrice hessienne de f en a =  ..  est la matrice carré d’ordre n suivante :
 
 . 
an

∂2 f ∂2 f ∂2 f
 
( a) ( a) ... ( a)
 ∂ x12 ∂ x1 ∂ x2 ∂ x1 ∂ xn 
 ∂2 f ∂2 f ∂2 f
( a) ( a) ... ( a )

∇2 f (a) = H ess( f , a) =  ∂ x2 ∂ x1 ∂ x22 ∂ x2 ∂ xn
 

... ... ... ...
 
 
∂2 f ∂2 f ∂2 f
 
∂ xn ∂ x1
( a) ∂ xn ∂ x1
( a) ... ∂ x2n
( a)

Elle est symétrique lorsque f est de classe C 2 en a (théorème de Schwarz).

Définition III.12. (Dérivée seconde)


a1
 
 a2 
Si f est deux fois différentiable en a =  ..  et que les dérivées partielles sont continues, la
 
 . 
an
dérivée seconde de f en a est l’application d 2 f (a) : Rn × Rn → R telle que

h1
 
 h2  n ∂2 f X ∂2 f
∀ h =  .  ∈ Rn , d 2 f (a)( h, h) = h 2
2 ( a) h i h j
X
+
 
 ..  ∂ x2 i
i =1 ∂xi ∂x j i< j
hn

Exemple III.4. .
Soit f ( x, y) = 5 x2 − 3 x y + y2 et h = ( h 1 , h 2 ) ∈ R2
Calculons d 2 f ( x, y)( h, h) .

IV ) Approximation affines et calcul des incertitudes

IV.1 ) Erreur absolues, Erreurs relatives d’une fonction à une va-


riable
Soit f : R → R une fonction de classe C 1 .

Définition IV.1. .
Soit x, un nombre, et x∗ une approximation de ce nombre.

o L’erreur de mesure est définie par : δ x = x − x∗ (1.1)

o L’erreur absolue est définie par : ∆ x = | x − x∗ | = |δ x | (1.2)

| x− x∗ | |δ x | ∆x |δ x |
o L’erreur relative est définie par : e r ( x∗ ) = | x| = | x| ≈ | x∗ | = | x∗ | (1.3) De plus, en
multipliant par 100, on obtient l’erreur relative à un pourcentage.

Projet LATEX 12 ANNEE UNIVERSITAIRE 2023-2024


IV. APPROXIMATION AFFINES ET CALCUL DES INCERTITUDES

Remarque IV.1. En pratique, il est difficile d’évaluer les erreurs absolues et relatives, car on
ne connait généralement pas la valeur exacte de x et l’on a pas x∗ . C’est pour quoi on utilise
∆x
l’approximation | x∗ |
pour l’erreur relative.
Dans le cas de quantités mesurées expérimentalement dont on ne connait que la valeur approxi-
mative x∗ , on dispose souvent d’une borne supérieure pour l’erreur absolue qui dépend de la
précision des instruments de mesure utilisés.
Cette borne ² est quand même appelée erreur absolue alors qu’en fait on a | x − x∗ | ≤ ² ce qui peut
également s’écrire : x∗ − ² ≤ x ≤ x∗ + ².

Définition IV.2. .
Soit f : R → R une fonction de classe C 1 .
Soit f ( x + δ x ) = f ( x) + δ x f ( x)0 + o(δ x ).
Alors

o f ( x + δ x ) ≈ f ( x) + δ x f ( x)0 l’approximation affine de f ( x + δ x )

f (x+δ x )− f (x)
o f 0 ( x) ≈ δx
l’approximation numérique de f 0 ( x).

Définition IV.3. .
Soit f : R → R une fonction de classe C 1 .
Soit x une approximation du nombre x + δ x où δ x l’erreur de l’approximation et f ( x) une ap-
proximation de f ( x + δ x ) .

o L’erreur de mesure est définie par δ f = f ( x + δ x ) − f ( x) ≈ δ x f 0 ( x)

o L’erreur absolue est définie par : ∆ f = | f ( x + δ x ) − f ( x)| = |δ f | ≈ | f 0 ( x)|∆ x

o L’erreur relative est définie par :

∆f |δ f | | f 0 ( x )|
er( f ) = = =≈ ∆ x = ∆ x |(ln| f ( x)|)0 |
| f ( x + δ x )| | f ( x + δ x )| | f ( x )|

De plus, en multipliant par 100, on obtient l’erreur relative à un pourcentage.

IV.2 ) Erreurs absolues erreurs relatives d’une fonction à plusieurs


variables
Définition IV.4. .
Soit f : R2 → R une fonction de classe C 1 .
Soit x une approximation du nombre x + δ x où δ x l’erreur de l’approximation.
Soit y une approximation du nombre y + δ y où δ y l’erreur de l’approximation et f ( x, y) une
approximation de f ( x + δ x , y + δ y ).

Projet LATEX 13 ANNEE UNIVERSITAIRE 2023-2024


IV. APPROXIMATION AFFINES ET CALCUL DES INCERTITUDES

o L’erreur de mesure est définie par :


∂ f ( x, y) ∂ f ( x, y)
δ f = f ( x + δ x , y + δ y ) − f ( x, y) ≈ δ x + δy .
∂x ∂y
∂ f (x,y) ∂ f (x,y)
Alors f ( x, y) + δ x ∂x
+ δy ∂y
est l’approximation affine de f ( x + δ x , y + δ y )

o L’erreur absolue est définie par :


∂ f ( x, y) ∂ f ( x, y)
∆ f = | f ( x + δ x , y + δ y ) − f ( x, y)| = |δ f | = | |∆ x + | |∆ y
∂x ∂y

o L’erreur relative est définie par :


∂f ∂f
∆f f|δ | | ∂ x (x,y)| | ∂ y (x,y)|
e r ( f ) = | f (x,y)| = | f (x,y)| ≈ | f (x,y)| ∆ x + | f (x,y)| ∆ y

∂ ln( f ) ∂ ln( f )
= ∆x | | + ∆ y| |
∂x ∂y
De plus, en multipliant par 100, on obtient l’erreur relative en pourcentage.

Exercice 1
p
Sans calculatrice, donner une valeur approchée de 9, 004 ; ln(1, 001) ; 1, 011,01 .
Exercice 2

1) On considère la fonction f ( x) = 100 x3 − 300 x2 + 299 x − 99.


Calculer l’ordre de grandeur de l’erreur absolue ∆ f lorsque x = 1 ± 0, 1.
p
2) On considère la fonction f ( x) = x.
Calculer l’ordre de grandeur de l’erreur absolue ∆ f lorsque x = 1 ± 10−50

Exercice 3
On considère le cercle de rayon R . On note S l’aire du disque ainsi délimité. On a
R = 10, 0 ± 0, 1 m.
Calculer l’ordre de grandeur de l’erreur absolue et de l’erreur relative commise sur S .
Exercice 4
Donner une approximation de f ( x, y) = ln( x − 3 y) en ( x, y) = (6, 9; 2, 06).
Correction de l’exercice 1

p
o 9, 004
p 1
f ( x) = x, f 0 ( x) = 2p x

1 4 × 10−3 2 × 10−3
f (9 + 0, 004) ≈ f (9) + f 0 (9) × 0, 004 = 3 + × 0, 004 ≈ 3 + ≈ 3+
2×3 2×3 3
≈ 3 + 0, 666 · · · × 10−3 ≈ 3 + 0, 000666 ≈ 3, 000666

Projet LATEX 14 ANNEE UNIVERSITAIRE 2023-2024


IV. APPROXIMATION AFFINES ET CALCUL DES INCERTITUDES

o ln(1, 001)
f ( x) = ln( x); f 0 ( x) = 1x
f (1 + 0, 001) ≈ f 0 (1) × 0, 001 ≈ 0 + 13 × 0, 001 ≈ 0, 001

o 1, 011,01
f ( x) = x x = e x ln(x) , f 0 ( x) = ln( x) + x × 1x e x ln(x) = (ln( x) + 1) e x ln(x)
¡ ¢

f (1 + 0, 01) ≈ f (1) + f 0 (1) × 0, 01 ≈ 1 + (ln(1) + 1) e1 ln(1) × 0, 01 = 1 + 0, 01 = 1, 01

Correction de l’exercice 2

1. Nous avons ∆ x = 0, 1 et f 0 ( x) = 300 x2 − 600 x + 299


Donc ∆ f = | f 0 (1)|.0, 1 = |300 − 600 + 299|.0, 1 = 0, 1

Remarque IV.2. : ∆ f 6= | f (1, 1) − f (1)|

1
2. Ici ∆ x = 10−50 et f 0 ( x) = 2p x
−50
1
Donc ∆ f = p .10−50 = 102
2 1

Remarque IV.3. .
p p
Une erreur constante consiste à dire ∆ f = | 1 + 10−50 − 1| et d’effectuer le calcul à la
calculatrice . Dans ce cas la calculatrice rendra la valeur 0 . . .

Correction de l’exercice 3
S (R ) = πR 2 , S 0 (R )2πR
∆S = 2π × 10 × 0, 1 = 2π
∆S 2π 2
| S | = π×102 = 100 = 2% Correction de l’exercice 4
f ( x, y) = ln( x − 3 y), ( x, y) = (6, 9; 2, 06)
Pour calculer une approximation nous allons avoir besoin de connaître les dérivées partielles
de f .
∂f ∂f
∂x
( x, y) = x−13y ; ∂ y ( x, y) = x−
−3
3y
A présent calculons l’approximation demandée :

f (6, 9; 2, 06) = f (7 − 0, 1; 2 + 0, 06)


∂f ∂f
≈ f (7, 2) + ∂ x (7, 2) × (−0, 1) + ∂ y (7, 2) × 0, 06
≈ ln(7 − 6) + 11 × (−0, 1) − 13 × (0, 06)
≈ −0, 1 − 0, 18
≈ −0, 28

IV.3 ) Plan tangent associé au graphe d’une fonction à plusieurs va-


riables

Projet LATEX 15 ANNEE UNIVERSITAIRE 2023-2024


IV. APPROXIMATION AFFINES ET CALCUL DES INCERTITUDES

Définition IV.5. .
Soit f : Rn → R une fonction de classe C 1 et un point (a, b) ∈ D f .
∂ f (a,b) ∂ f (a,b)
g( x, y) = f (a, b) + ( x − a) ∂x
+ ( y − b) ∂y
est l’approximation affine de f en (a, b).
3
Alors le graphe de g : C g = {( x, y, z) ∈ R /( x, y) ∈ D f et z = g( x, y) ∈ R} est le plan tangent au
point (a, b) de (C f ) du graphe de f :

∂ f (a, b) ∂ f (a, b)
T( a, b) : z = f (a, b) + ( x − a) + ( y − b)
∂x ∂y

Remarque IV.4. .
Soit f : R3 → R une fonction de classe C 1 et un point (a, b, c) ∈ D f .
L’hyperplan tangent au point a, b, c) de (C f ), le graphe de f : R3 → R est :

∂ f (a, b, c) ∂ f (a, b, c) ∂ f (a, b, c)


T( a, b, c) : w = f (a, b, c) + ( x − a) + ( y − b) + ( z − c)
∂x ∂y ∂z

Exercice
Déterminer l’équation cartésienne du plan (P T ) tangent à la surface du graphe de la fonction
x0
 

f définie au point P =  y0  où z0 = f ( x0 , y0 ).
z0

1) f ( x, y) = x2 + 2 x y + 2 y2 et P = (1, 1, 5) ∈ R3

2) f ( x, y) = x2 + Y 2 et P = (1, 2, 5) ∈ R3

3) f ( x, y) = ( y − x2 )( y − 2 x2 ) et P = (1, 3, 2) ∈ R3

4) f ( x, y) = 10 − x4 − 2 y2 et P = (1, 2, 1) ∈ R3

Projet LATEX 16 ANNEE UNIVERSITAIRE 2023-2024


Chapitre 5

Ensembles convexes

5.1 Définitions
Définition 5.1.1 On appelle combinaison linéaire convexe de deux points x et y de Rn , tout point
z = (1 − λ)x + λy avec λ ∈ [0, 1].

De façon générale :

Définition 5.1.2 On appelle combinaison linéaire convexe de k points x1 , · · · , xk de Rn , tout


élément x ∈ Rn tel que
k
∑ ∑k
x= λi xi avec λi ≥ 0 et λi = 1.
i=1 i=1

On définit les notions suivantes :

Définition 5.1.3 Soit x, y ∈ Rn ; on appelle segment ”fermé” d’extrémités x et y, l’ensemble


noté [x, y] et défini par :

[x, y] = {z ∈ Rn : z = (1 − λ) x + λy : λ ∈ [0, 1]} .

C’est l’ensemble de toutes les combinaisons linéaires convexes des points x et y.


De façon analogue, on définit :

Définition 5.1.4 On appelle segment ”ouvert” d’extrémités x et y, et on le note ]x, y[, l’ensemble

]x, y[ = {z ∈ Rn : z = (1 − λ) x + λy : λ ∈ ]0, 1[} .

On définit aussi ]x, y] et [x, y[ qui sont appelés segment semi ouvert en x respectivement en y.

]x, y] = {z ∈ Rn : z = (1 − λ) x + λy λ ∈ ]0, 1]} .

[x, y[ = {z ∈ Rn : z = (1 − λ) x + λy λ ∈ [0, 1[} .

Définition 5.1.5 Soit C une partie de Rn . C est convexe si seulement si pour tout x, y ∈ C,
(1 − λ) x + λy ∈ C pour tout λ ∈ [0, 1]. Autrement dit, C est convexe si seulement si C contient
tout segment fermé d’extrémités deux quelconques de ses points.

54
Exemple 5.1.1 - Dans Rn , les ensembles suivants sont convexes. Rn , l’ensemble vide, les single-
tons, les boules, les segments, les hyperplans, les demi-espaces, les sous-espaces affines.
- Dans R, une partie est convexe si et seulement si c’est un intervalle.

On a la proposition :

Proposition 5.1.1 Une partie C de Rn est convexe si seulement si elle contient toute combinaison
linéaire convexe de toute famille finie d’éléments qui lui appartiennent.

Preuve : Si C contient toute combinaison linéaire convexe de familles finies d’éléments qui lui
appartiennent, en particulier, prenant une famille de deux éléments x et y de C, on a [x, y] ⊂ C
et donc C est convexe.
Réciproquement, soit C un ensemble convexe de Rn . Alors C contient toute combinaison linéaire
convexe de deux quelconques de ses éléments. Donc la propriété est vraie pour une famille com-
portant deux éléments. Supposons qu’elle est vraie pour une famille de k − 1 éléments.
Soit { }
F = x1 , x 2 , · · · , x k
une famille de k élément de C.
Soit
k
∑ k

i
x= λi x avec λi ≥ 0, λi = 1.
i=1 i=1

On a
k
∑ k−1

i
x= λi x = λi xi + λk xk .
i=1 i=1

Soit
k−1

λ= λi .
i=1

On a λ ∈ [0, 1].
Si λ = 0 alors λi = 0 pour tout i = 1, · · · , k − 1 et donc λk = 1. Il vient alors que x = λk xk =
k
x ∈ C.
Si λ ̸= 0, on peut écrire
∑k−1 ( )
λi
x=λ xi + λ k xk .
i=1
λ
L’élément
k−1 (
∑ )
λi
y= xi ,
i=1
λ
est une combinaison linéaire convexe de k − 1 éléments de C. C’est donc un élément de C, par
hypothèse de recurrence. Donc x = λy+λk xk . Or λk = 1−λ avec λ ∈ [0, 1]. Donc x est combinaison
linéaire convexe de deux éléments de C. Comme par hypothèse, C est convexe, on a alors x ∈ C.


On a les propriétés suivantes.

55
5.2 Propriétés algébriques
On rappelle les notions suivantes.

Définition 5.2.1 Une application f de Rn dans Rm est dite affine si l’une des conditions suivantes
est vérifiée.
i) Pour tout x, y dans Rn et λ ∈ R, on a

f ((1 − λ)x + λy) = (1 − λ)f (x) + λf (y).

ii) Il existe une application linéaire L de Rn dans Rm et a ∈ Rm tels que :

∀ x ∈ Rn , f (x) = L(x) + a.

Les résultats suivants sont immédiats.

Proposition 5.2.1 1) Si C1 et C2 sont convexes alors pour tous α1 et α2 dans R, α1 C1 + α2 C2


est convexe.
2) Toute intersection de parties convexes est convexe.
3) Toute réunion d’une suite croissante de convexes est convexe.
4) Le produit cartésien de deux convexes est convexe.
5) L’image d’un convexe par une application affine est convexe.
6) L’image réciproque d’un convexe par une application affine est convexe.

On a la proposition suivante

Proposition 5.2.2 Si C est convexe alors pour tout α et β positifs ou nuls, on a

αC + βC = (α + β)C.

Preuve : Comme les scalaires α et β sont positifs ou nuls, le cas où α + β = 0 est trivial
Considérons α et β tels que α + β > 0.
L’inclusion ci-dessous est immédiate :

(α + β)C ⊂ αC + βC.

Montrons à présent que


αC + βC ⊂ (α + β)C.
Soit z ∈ αC + βC. Alors il existe x, y dans C tels que z = αx + βy.
On peut écrire : [ ]
α β
z = (α + β) x+ y .
α+β α+β
On a
α β α β
> 0, > 0, + = 1.
α+β α+β α+β α+β
Comme C est convexe, alors
α β
x+ y ∈ C.
α+β α+β
D’où le résultat. 

56
Chapitre 6

Fonctions convexes

6.1 Définitions et propriétés de base


Définition 6.1.1 Soit C un convexe non vide de Rn . Une fonction f : C → R est convexe sur C,
si :
∀ x, y ∈ C, ∀ λ ∈ [0, 1],
f ((1 − λ)x + λy) ≤ (1 − λ)f (x) + λf (y).
Définition 6.1.2 Soit C un convexe non vide de Rn . Une fonction f : C → R est strictement
convexe sur C si :
∀ x, y ∈ C, x ̸= y, ∀ λ ∈]0, 1[,
f ((1 − λ)x + λy) < (1 − λ)f (x) + λf (y).
Définition 6.1.3 Soit C un convexe non vide de Rn . Une fonction f : C → R est fortement
convexe de module r > 0 sur C si :
∀ x, y ∈ C, ∀ λ ∈ [0, 1],
f ((1 − λ)x + λy) ≤ (1 − λ)f (x) + λf (y) − 21 rλ(1 − λ)∥y − x∥2 .
On définit aussi une fonction concave, strictement concave fortement concave de module r > 0
sur C.

Définition 6.1.4 Soit C un convexe non vide de Rn . Une fonction f : C → R est concave
(respectivement strictement concave, fortement concave de module r > 0 sur C si :

∀ x, y ∈ C, ∀ λ ∈ [0, 1],
f ((1 − λ)x + λy) ≥ (1 − λ)f (x) + λf (y),
respectivement
∀ x, y ∈ C, x ̸= y, ∀ λ ∈]0, 1[,
f ((1 − λ)x + λy) > (1 − λ)f (x) + λf (y),
∀ x, y ∈ C, ∀ λ ∈ [0, 1],
f ((1 − λ)x + λy) ≥ (1 − λ)f (x) + λf (y) + 21 rλ(1 − λ)∥y − x∥2 .

Proposition 6.1.1 Une fonction f : C → R est concave (respectivement strictement concave,


fortement concave de module r > 0 sur C si −f est convexe, (respectivement strictement convexe,
fortement convexe de module r sur C).

57
Pour la suite nous allons considèrer sans perdre de généralités que C = Rn . On définit d’abord
les notions suivantes.

Définition 6.1.5 Soit f : Rn → R.


On appelle épigraphe de f , l’ensemble :

epi(f ) = {(x, λ) ∈ Rn × R : f (x) ≤ λ} .

On appelle section de niveau λ de f , l’ensemble

Sλ (f ) = {x ∈ Rn : f (x) ≤ λ} .

On a une caractérisation géométrique de la convexité d’une fonction.

Proposition 6.1.2 Soit f : Rn → R. Les propositions suivantes sont équivalentes.


i) f est convexe ;
ii) L’épigraphe de f , (epi(f )), est convexe.

La démonstration est immédiate.


On a les caractérisations suivantes :

Proposition 6.1.3 Soit f : Rn → R. On a les équivalences suivantes.


i) f est convexe ;

ii) Pour toute combinaison linéaire convexe x = ki=1 λi xi , on a
k
∑ k

f( λi xi ) ≤ λi f (xi ).
i=1 i=1

Proposition 6.1.4 f : Rn → R est convexe (respectivement strictement convexe) si et seulement


si pour toute droite D ⊂ Rn , la restriction de f à D est convexe (respectivement strictement
convexe). C’est-à-dire, pour tout a et d dans Rn , la fonction φa, d définie sur R par φa, d (t) =
f (a + td) est convexe (respectivement strictement convexe).

Preuve : Supposons f convexe. Soit a, d ∈ Rn , montrons que φ est convexe.


Soient t1 et t2 deux réels et λ ∈ [0, 1]. On a

φa, d (λt1 + (1 − λ)t2 ) = f (a + (λt1 + (1 − λ)t2 )d)


= f (λa + (1 − λ)a + λt1 d + (1 − λ)t2 d)
= f (λ(a + t1 d) + (1 − λ)(a + t2 d))
≤ λf (a + t1 d) + (1 − λ)f (a + t2 d)
= λφa, d (t1 ) + (1 − λ)φa, d (t2 )

d’où la convexité de φa, d .


Réciproquement supposons que pour tous a, d ∈ Rn , la fonction φ définie sur R par φ(t) =
f (a + td) est convexe. Montrons que f est convexe.

58
Soient x, y ∈ Rn et λ ∈ [0, 1]. On a

f (λx + (1 − λ)y) = f (y + λ(x − y)) = φy, x−y (λ)


= φy, x−y (λ × 1 + (1 − λ) × 0).

Comme φy, x−y est convexe, on a

φy, x−y (λ × 1 + (1 − λ) × 0) ≤ λφy, x−y (1) + (1 − λ)φy, x−y (0)


= λf (x) + (1 − λ)f (y)

d’où la convexité de f .
Pour la stricte convexité, on procède de la même façon. 

Proposition 6.1.5 Si f : Rn → R est convexe alors pour a ∈ domf et d ∈ Rn , l’application


définie sur ]0, +∞[ par
f (a + td) − f (a)
φ(t) =
t
est croissante.
t1
Preuve : Soient 0 < t1 ≤ t2 . On a alors 0 < t2
≤ 1. Donc

t1 t1 t1 t1
f (a + t1 d) = f ((1 − )a + (a + t2 d)) ≤ (1 − )f (a) + f (a + t2 d).
t2 t2 t2 t2
Il s’ensuit alors que
f (a + t1 d) − f (a) f (a + t2 d) − f (a)
≤ .
t1 t2
Ce qui prouve la proposition. 
On a aussi la proposition suivante.

Proposition 6.1.6 Si f : Rn → R est convexe alors les sections de niveau Sλ (f ), λ ∈ R sont


convexes.

Preuve : Soit λ ∈ R et x, y deux éléments de Sλ (f ) et α ∈ [0, 1].


La convexité de f et la définition de Sλ (f ) nous donnent :

f ((1 − α)x + αy) ≤ (1 − α)f (x) + αf (y) ≤ (1 − α)λ + αλ = λ.

Donc (1 − α)x + αy ∈ Sλ (f ) qui est donc convexe. 

Remarque 6.1.1 La réciproque de cette proposition n’est pas vraie.

6.2 Caractérisation des fonctions convexes différentiables


Dans les résultats qui suivent, nous donnons des caractérisations de la convexité dans le cas
différentiable.

59
Théorème 6.2.1 Soit f : Rn → R differentiable.
On a les équivalences suivantes :
1) f est convexe sur Rn ;
2) f (y) ≥ f (x) + ⟨∇f (x), y − x⟩, ∀ x, y ∈ Rn ;
3) ⟨∇f (y) − ∇f (x), y − x⟩ ≥ 0, ∀ x, y ∈ Rn .

Preuve : 1)⇒ 2) Soient x, y dans Rn et λ ∈]0, 1[. Comme f est convexe, alors on a

f (x + λ(y − x)) − f (x) ≤ λ(f (y) − f (x)).

Ce qui donne
f (x + λ(y − x)) − f (x)
≤ f (y) − f (x).
λ
En passant à la limite, on obtient :

⟨∇f (x), y − x⟩ ≤ f (y) − f (x).

D’où la proposition 2).


2)⇒ 1) On sait par hypothèse que

f (y) ≥ f (x) + ⟨∇f (x), y − x⟩, ∀ (x, y) ∈ Rn × Rn .

Soient x, et y dans Rn et λ ∈ [0, 1]. En considérant respectivement les couples (x + λ(y − x), x) et
(x + λ(y − x), y), on a :

f (x) ≥ f (x + λ(y − x) − λ⟨∇f (x + λ(y − x)), y − x⟩ (6.1)

et
f (y) ≥ f (x + λ(y − x) + (1 − λ)⟨∇f (x + λ(y − x), y − x⟩ (6.2)
On multiplie (6.1) par (1 − λ) et (6.2) par λ et on fait la somme des deux résultats. On obtient
alors
(1 − λ)f (x) + λf (y) ≥ f (x + λ(y − x).
Ce qui prouve que f est convexe.
2)⇒ 3) Soient x et y dans Rn . On a

f (y) ≥ f (x) + ⟨∇f (x), y − x⟩ (6.3)

et
f (x) ≥ f (y) + ⟨∇f (y), x − y⟩ (6.4)
En considérant la somme de (6.3) et de (6.4), on obtient

⟨∇f (y) − ∇f (x), y − x⟩ ≥ 0.

Montrons à présent que la proposition 3) implique 2).


3)⇒ 2) Soient x et y dans Rn . Comme f est differentiable alors :

∃ z ∈]x, y[ : f (y) − f (x) = ⟨∇f (z), y − x⟩ (6.5)

60
Comme z ∈]x, y[, il existe λ ∈]0, 1[ tel que z = x + λ(y − x).
D’après la proposition 3), on a :

⟨∇f (z) − ∇f (x), z − x⟩ ≥ 0.

Or z − x = λ(y − x). Il vient donc

λ⟨∇f (z) − ∇f (x), y − x⟩ ≥ 0.

Soit
⟨∇f (z) − ∇f (x), y − x⟩ ≥ 0
car λ ∈]0, 1[. C’est-à-dire
⟨∇f (z), y − x⟩ ≥ ⟨∇f (x), y − x⟩.
En utilisant (6.5), on obtient

f (y) − f (x) = ⟨∇f (z), y − x⟩ ≥ ⟨∇f (x), y − x⟩.

D’où la proposition 2). Ce qui termine la démonstration 

On a des résultats similaires pour la stricte convexité.

Théorème 6.2.2 Soit f : Rn → R differentiable. On a les équivalences suivantes.


1) f est strictement convexe sur Rn ;
2) f (y) > f (x) + ⟨∇f (x), y − x⟩, ∀ x, y ∈ Rn , x ̸= y ;
3) ⟨∇f (y) − ∇f (x), y − x⟩ > 0, ∀ x, y ∈ Rn , x ̸= y.

Dans le cas où la fonction est deux fois differentiable, on a aussi les caractérisations suivantes.

Théorème 6.2.3 Soit f : Rn → R deux fois differentiable. On a les équivalences suivantes.


1) f est convexe sur Rn ;
2) Pour tout x ∈ Rn , ⟨∇2 f (x)h, h⟩ ≥ 0 ∀ h ∈ Rn ;

Preuve : Soit x ∈ Rn . On sait que pour tout h ∈ Rn et t ∈ R, suffisamment petit, on a

t2 2
f (x + th) = f (x) + t⟨∇f (x), h⟩ + ⟨∇ f (x)h, h⟩ + t2 ∥h∥2 ε(t).
2
Par hypothèse, la fonction f est convexe, donc on a pour tout h ∈ Rn et t ∈ R,

f (x + th) ≥ f (x) + t⟨∇f (x), h⟩.

Donc
t2 2
f (x) + t⟨∇f (x), h⟩ + ⟨∇ f (x)h, h⟩ + t2 ∥h∥2 ε(t) ≥ f (x) + t⟨∇f (x), h⟩.
2
Ce qui donne

⟨∇2 f (x)h, h⟩ + ∥h∥2 ε(t) ≥ 0.


Comme la fonction ε tend vers 0 quand t tend vers 0, on obtient :

⟨∇2 f (x)h, h⟩ ≥ 0.

61
On conclut que la matrice hessienne ∇2 f (x) est semi définie positive.
Réciproquement supposons que pour tout x ∈ Rn , ∇2 f (x) est semi définie positive.
Soit x ∈ Rn . On sait que pour tout y ∈ Rn , on a
1
f (y) = f (x) + ⟨∇f (x), y − x⟩ + ⟨∇2 f (z)(y − x), y − x⟩,
2
avec z ∈]x, y[. Comme par hypothèse la matrice ∇2 f (z) est semi définie positive, alors on a

⟨∇2 f (z)(y − x), y − x⟩ ≥ 0.

Ce qui implique que


f (y) ≥ f (x) + ⟨∇f (x), y − x⟩.
Par suite la fonction f est convexe. 

Le résultat qui suit concerne la stricte convexité.

Théorème 6.2.4 Soit f : Rn → R deux fois differentiable. Si pour tout x ∈ Rn , on a

⟨∇2 f (x)h, h⟩ > 0 ∀ h ∈ Rn , h ̸= 0,

alors f est strictement convexe sur Rn .

Preuve : Soit x, y ∈ Rn avec x ̸= y. On a


1
f (y) = f (x) + ⟨∇f (x), y − x⟩ + ⟨∇2 f (z)(y − x), y − x⟩,
2
avec z ∈]x, y[. Comme par hypothèse la matrice ∇2 f (z) est définie positive, alors on a ⟨∇2 f (z)(y −
x), y − x⟩ > 0 car x ̸= y. On obtient alors

f (y) > f (x) + ⟨∇f (x), y − x⟩.

Ce qui signifie que f est strictement convexe. 

Remarque 6.2.1 Il faut signaler que la réciproque de ce résultat n’est pas vraie. On peut considérer
la fonction φ définie sur R suivante : φ(t) = t4 . Cette fonction est strictement convexe mais sa
dérivée seconde en 0 est nulle.

6.3 Opérations sur les fonctions convexes


On montre facilement que

Proposition 6.3.1 Si f : Rn → R est convexe et φ : R → R est convexe et croissante alors la


fonction h = φ ◦ f est convexe.

On en déduit alors que

Proposition 6.3.2 Si f : Rn → R est concave et φ : R → R est concave et croissante alors la


fonction h = φ ◦ f est concave.

62
Chapitre 8

Optimisation sans contraintes

Dans cette partie nous nous intéressons aux problèmes du type

α = min f (x)
x∈Ω

où f est une fonction définie sur Ω un sous-ensemble ouvert non vide de Rn et à valeurs dans R.
Ce problème d’optimisation étant donné, deux questions se posent : existe-t-il des solutions ?
Et comment détecter les solutions éventuelles ? La théorie de l’optimisation affronte donc deux
problèmes classiques en mathématiques : celui de l’existence et celui des méthodes de recherche.
Nous allons considérer et cela sans perdre de généralités que Ω = Rn . Il revient alors à s’inter-
esser au problème :

α = minn f (x) (P )
x∈R

8.1 Résultats d’existence et unicité


On considère d’abord la définition suivante.

Définition 8.1.1 La fonction f est dite coercive (on dit aussi que f est infinie à l’infini) si on
a : f (x) −→ +∞ quand ∥x∥ −→ +∞.

Exemple 8.1.1

1) f : Rn → R telle que f (x) = ∥x∥ est coercive.


2) f : R2 → R telle que f (x, y) = x2 − y 2 n’est pas coercive.
3) f : Rn → R définie par f (x) = ⟨a, x⟩ + b avec a ∈ Rn et b ∈ R n’est pas coercive.
4) f (x, y) = x4 + y 4 − (x − y)2 est coercive sur R2 .
5) f : x ∈ Rn 7→ 12 ⟨Ax, x⟩ − ⟨b, x⟩ où A ∈ Sn (R) est définie positive et b ∈ Rn est coercive.
Pour montrer que f est coercive, on utilise souvent la proposition suivante :

Proposition 8.1.1 Si f : Rn → R est une application et g : R → R vérifie

f (x) ≥ g(∥x∥) avec lim g(t) = +∞


t→+∞

alors f est infinie à l’infini.

72
Preuve : Immédiate 

Théorème 8.1.1 Si f : Rn → R est continue et coercive (infinie à l’infini), alors il existe un


point qui réalise le minimum de f sur Rn . Autrement dit, il existe x ∈ Rn tel que

f (x) ≤ f (y) ∀y ∈ Rn .

Preuve :
Soit α = inf x∈Rn f (x) < +∞. Soit (xk )k∈N une suite minimisante c’est-à-dire telle que :

lim f (xk ) = α < +∞. (8.1)


k→+∞

Montrons que la suite (xk )k∈N est bornée. Par l’absurde, on suppose qu’elle ne l’est pas c’est-
à-dire qu’il existe une sous suite notée (xφ(k) )k de (xk )k∈N telle que : limk→+∞ ∥xφ(k) ∥ = +∞. Par
coercivité de f , on a alors : limk→+∞ f (xφ(k) ) = +∞, ce qui contredit (8.1).
La suite (xk )k∈N est donc bornée : il existe alors une suite extraite notée (xψ(k) )k de (xk )k∈N
qui converge vers x ∈ Rn . En utilisant maintenant la continuité de f , on a alors :

f (x) = lim f (xψ(k) ) = α.


k→+∞

On en déduit alors deux choses : α > −∞ et x solution du problème (P). 

Théorème 8.1.2 (Condition suffisante d’existence de solution optimale) Considérons le


problème (P ). Si f est continue et s’il existe x̄ ∈ Rn tel que l’ensemble {x ∈ Rn : f (x) ≤ f (x̄)}
soit borné alors le problème (P ) admet au moins une solution optimale globale. Ce qui est le cas
si f est continue et coercive.

En ce qui concerne l’unicité de la solution optimale on a le théorème ci-dessous.

Théorème 8.1.3 (Condition suffisante d’unicité) Si f est strictement convexe, alors le problème
(P ) a au plus une solution optimale globale.

Ce théorème n’est pas une condition d’existence de minimum pour la fonction f . Par exemple
la fonction f (x) = ex est strictement convexe mais n’atteint pas son minimum sur R.

Théorème 8.1.4 (Condition d’existence et d’unicité) Si f est continue, coercive et stricte-


ment convexe, alors le problème (P ) admet une et une seule solution optimale globale.

Remarque 8.1.1 Il faut noter que l’hypothèse de continuité dans le théorème ci-dessus n’est pas
nécessaire, car toute fonction convexe sur Rn et à valeurs dans R est continue.

Définition 8.1.2 On appelle fonction elliptique une fonction f ∈ C 1 (Rn , R) fortement convexe.

Théorème 8.1.5 (Condition suffisante d’existence et d’unicité) Si f est une fonction el-
liptique alors le problème (P ) admet une et une seule solution optimale globale.

73
8.2 Conditions d’optimalité
8.2.1 Conditions d’optimalité du premier ordre
Les conditions que nous donnons ici concernent le cas où la fonction-objectif f est différentiable.
On définit :
Définition 8.2.1 Si f : Rn → R une fonction différentiable. On dit que x∗ est un point station-
naire ou critique de f si ∇f (x∗ ) = 0.
On a le théorème :

Théorème 8.2.1 (Condition nécessaire d’optimalité du premier ordre) On suppose que


f : Rn → R est une fonction différentiable. Si x∗ réalise un minimum local (global) de f sur Rn ,
alors on a ∇f (x∗ ) = 0.
Preuve : Soit x∗ réalisant un minimum local de f sur Rn . Le developpement de Taylor au voisinage
de x∗ donne :
f (x) = f (x∗ ) + ⟨∇f (x∗ ), x − x∗ ⟩ + ∥x − x∗ ∥ε(x)
avec limx→x∗ ε(x) = 0.
Si ∇f (x∗ ) ̸= 0, alors en choisissant x = x(λ) = x∗ − λ∇f (x∗ ), on aurait, pour λ > 0 suffi-
samment petit, f (x(λ)) < f (x∗ ). Ce qui contredirait le fait que x∗ réalise un minimum local de f .
Donc la condition est nécessaire. 

Remarque 8.2.1 1) Ce théorème n’a pas de sens si la fonction f n’est pas différentiable en x∗ .
2) Cette condition nécessaire du premier ordre permet de sélectionner un certain nombre de
candidats à être des minima locaux ou globaux. La réciproque est fausse. Un point critique n’est pas
nécessairement un minimum local (global). Ce peut être un minimum local ou global, un maximum
local ou global ou ni l’un ni l’autre. C’est dire que ce résultat n’est en général pas une condition
suffisante.
Dans le cas convexe, la condition nécessaire du premier ordre ci-dessus est suffisante.

Théorème 8.2.2 (Condition nécessaire et suffisante d’optimalité) Si f : Rn → R est une


fonction convexe et différentiable, alors un point x∗ réalise un minimum global de f sur Rn si et
seulement si
∇f (x∗ ) = 0.
Preuve : On sait que la condition est nécessaire. Montrons à présent qu’elle est suffisante.
Soit x∗ un point tel que ∇f (x∗ ) = 0. Comme f est convexe alos, on a :
f (x) ≥ f (x∗ ) + ⟨∇f (x∗ ), x − x∗ ⟩ ∀ x ∈ Rn .
Par hypothèse, on a ∇f (x∗ ) = 0 ; il vient alors que
f (x) ≥ f (x∗ ) ∀ x ∈ Rn .
Ce qui termine la démonstration. 

Corollaire 8.2.1 Si f est une fonction quadratique avec f (x) = 21 ⟨Ax, x⟩ − ⟨b, x⟩ où A est une
matrice carrée d’ordre n à coefficients réels, symmetrique et définie positive, alors il existe un
minimum unique x̄ ∈ Rn de f et qui est l’unique solution du système Ax = b.

74
8.2.2 Conditions d’optimalité du second ordre
Théorème 8.2.3 (Condition nécessaire d’optimalité du second ordre) Si f : Rn → R est
une fonction deux fois différentiable sur Rn , une condition nécessaire pour que x∗ soit un minimum
local (global) de f sur Rn est que : ∇f (x∗ ) = 0 et ∇2 f (x∗ ) est semi défini positif.

Preuve : Soit x∗ un minimum local de f sur Rn . On sait que la condition 1) est satisfaite. Il reste
à montrer la condition 2). Par définition du minimum local, il existe un voisinage V de x∗ dans
Rn tel que f (x) ≥ f (x∗ ) pour tout x ∈ V .
Soit h ∈ Rn . En utilisant le développement de Taylor au voisinage de x∗ , à l’ordre deux et la
condition 1), on a : pour t suffisamment petit,

t2 2
f (x∗ + th) = f (x∗ ) + ⟨∇ f (x∗ )h, h⟩ + t2 ∥h∥2 ε(th),
2
avec ε continue et limt→0 ε(th) = 0.
Pour t ̸= 0 suffisamment petit de sorte que x∗ + th ∈ V , on a :

f (x∗ + th) − f (x∗ ) 1


0≤ 2
= ⟨∇2 f (x∗ )h, h⟩ + ε(th).
t 2
En passant à la limite, t tendant 0, on obtient : ⟨∇2 f (x∗ )h, h⟩ ≥ 0. 
On a aussi une condition suffisante d’optimalité.

Théorème 8.2.4 (Condition suffisante d’optimalité du second ordre) On suppose que f :


Rn → R est une fonction deux fois différentiable sur Rn . Si x∗ est tel que ∇f (x∗ ) = 0 et ∇2 f (x∗ )
est défini positif, alors x∗ est un minimum local strict de f .

Preuve : La matrice étant définie positive, il existe λ > 0 tel que

∀ h ∈ Rn , ⟨∇2 f (x∗ )h, h⟩ ≥ λ∥h∥2 .

D’après la formule de Taylor on a :


1
f (x) − f (x∗ ) = ⟨∇f (x∗ ), x − x∗ ⟩ + ⟨∇2 f (x∗ )(x − x∗ ), x − x∗ ⟩ + ∥x − x∗ ∥2 ε(x − x∗ )
2
avec ε continue et limx→x∗ ε(x − x∗ ) = 0.
On a alors ( )
∗ ∗ 2 λ ∗
f (x) − f (x ) ≥ ∥x − x ∥ + ε(x − x )
2
λ
Pour x suffisamment proche de x∗ , 2
+ ε(x − x∗ ) est du signe de λ c’est-à-dire strictement
positif. 
Point méthode
Pour trouver les extrema locaux de f une fonction réelle de n variables réelles de classe C 2 sur un o
Pour voir si la matrice hessienne ∇2 f (x) est définie positive ou définie négative on peut ap-
pliquer la définition ou bien calculer les valeurs propres de la matrice et examiner leur signe ou
encore utiliser le critère des déterminants des sous-matrices.
On rappelle qu’une matrice symétrique est définie positive (respectivement définie négative)
si, et seulement si, ses valeurs propres sont strictement positives (respectivement négatives)

75
Elle est semi-définie positive (respectivement semi-définie négative) si, et seulement si, ses
valeurs propres sont positives ou nulles (respectivement négatives ou nulles).
Donc si on trouve une valeur propre nulle on ne peut pas conclure quant à l’optimalité du
point étudié.
Dans le cas d’une fonction de deux variables, le signe des valeurs propres peut être déterminé
en calculant le déterminant et la trace de la matrice. Le déterminant étant égal au produit des
deux valeurs propres et la trace égale à la somme des deux valeurs propres, si le déterminant
est strictement positif les deux valeurs propres sont du même signe et dans ce cas, si la trace est
strictement positive, les deux valeurs propres sont strictement positives et si la trace est strictement
négative, les deux valeurs propres sont strictement négatives. Si le déterminant est nul alors l’une
des valeurs propres est nulle. Par contre si le déterminant est strictement négatif les deux valeurs
propres sont de signes contraires. Attention : ceci n’est valable que pour des matrices symétriques
d’ordre 2. Pour des fonctions de plus de deux variables il faut calculer les valeurs propres de
la matrices hessienne au point candidat pour trouver leur signe ou bien utiliser le critère des
déterminants des sous-matrices.

Corollaire 8.2.2 Si f ∈ C 2 (Rn , R) (c’est-à-dire que f : Rn → R admet des dérivées partielles


d’ordre 1 et 2 qui sont continues), si x est un point critique de f tel que la matrice hessienne de f
en x (qui est une matrice carrée d’ordre n symmetrique) a pour valeurs propres (qui sont réelles)
ordonnées λ1 ≤ λ2 ≤ · · · ≤ λn , alors :
• Si λi > 0 pour tout i ∈ {1, · · · , n}, f admet un minimum local en x.
• Si λi < 0 pour tout i ∈ {1, · · · , n}, f admet un maximum local en x.
• Si λ1 < 0 et λn > 0, f n’admet pas d’extremum en x.
• S’il existe un i ∈ {1, · · · , n} tel que λi = 0 et les autres valeurs propres sont de même signe,
on ne peut pas conclure.

Corollaire 8.2.3 (cas de dimension deux) Si x est un point critique de f ∈ C 2 (R2 , on définit
les coefficients r, s, t par :

∂ 2f ∂ 2f ∂ 2f ∂ 2f
r= (x), s= (x) = (x), t= (x).
∂x2 ∂x∂y ∂y∂x ∂y 2
Alors
• Si rt − s2 > 0 et r > 0, f admet un minimum local en x.
• Si rt − s2 > 0 et r < 0, f admet un maximum local en x.
• Si rt − s2 < 0, f n’admet pas d’extremum en x, c’est un point selle.
• Si rt − s2 = 0, on ne peut pas conclure.

8.2.3 Récapitulation des conditions


Soit f de classe C 2 sur un ouvert Ω de Rn , et a ∈ Ω :
• f quelconque
Condition nécessaire du premier ordre (CN1) et du second ordre (CN2) :
f admet un minimum local en a =⇒ ∇f (a) = 0 et ∇2 f (a) semi-définie positive
f admet un maximum local en a =⇒ ∇f (a) = 0 et ∇2 f (a) semi-définie négative
Condition suffisante du second ordre (CS2) :
∇f (a) = 0 et ∇2 f (a) définie positive =⇒ f admet un minimum local strict en a
∇f (a) = 0 et ∇2 f (a) définie négative =⇒ f admet un maximum local strict en a

76
Chapitre 9

Optimisation avec contraintes

Dans ce chapitre on s’intéresse au problème


α = min f (x) (P )
x∈C

où C est une partie non ouverte de Rn et f : Rn → R.

9.1 Résultats d’existence et d’unicité


On considère tout d’abord la définition suivante :

Définition 9.1.1 On appelle suite minimisante de f sur C toute suite {xk } de C telle

lim f (xk ) = inf f (x).


k→+∞ x∈C

On montre le résultat d’existence suivant dans le cas où C est borné.

Théorème 9.1.1 (Théorème de Weierstrass) Si f est continue et C est compact non vide,
alors le problème (P ) admet au moins une solution optimale.

Pour le cas où C est non borné, on considère d’abord les définitions suivantes.

Théorème 9.1.2 Si f est continue, coercive, C est non vide, fermé alors le problème (P ) admet
au moins une solution optimale.

Preuve :
Soit {xk } une suite minimisante de f sur C.
La suite {xk } est bornée. En effet si ça n’était pas le cas, il existerait une sous suite {xkl } de
{xk } telle que ∥xkl ∥ −→ +∞. Comme f est coercive, cela impliquerait que α = liml f (xkl ) = +∞.
Ce qui est impossible car f est finie en au moins un point de C car non vide.
La suite {xk } étant bornée, il existe une sous suite {xkl } de {xk } qui converge vers un point x̄
de C car C est fermé.
Comme f est continue, alors on a
α = lim f (xkl ) = f (lim xkl ) = f (x̄).
l l

Donc α = f (x̄) ∈ R. 
On a le résultat sur l’unicité de la solution optimale.

87
Théorème 9.1.3 Si C est convexe et f strictement convexe sur C alors (P ) admet au plus une
solution optimale.
La démonstration est immédiate.

9.2 Conditions d’optimalité


9.2.1 Cas des contraintes d’égalité
On suppose ici que :
C = {x ∈ Rn : hj (x) = 0, j = 1, · · · , q}
où les fonctions hj , j = 1, · · · , q sont définies sur Rn et à valeurs dans R.
On considère la définition suivante :

Définition 9.2.1 Soit x ∈ C. On suppose que les fonction hj (j = 1, · · · , q) sont différentiables


dans un voisinage de x. On dira que le point x est qualifié ou que les contraintes sont qualifiées
en x, si le système {∇hj (x), j = 1, · · · , q} est libre.
On a les conditions nécessaires d’optimalité.

Théorème 9.2.1 (Conditions Nécessaires d’optimalité du premier ordre) Soit x∗ ∈ C.


On suppose que f est différentiable en x∗ , que les fonctions hj , j = 1, · · · , q sont de classe C 1 dans
un voisinage de x∗ ∈ C et que x∗ est qualifié. Alors une condition nécessaire pour que x∗ soit une
solution optimale locale de (P ) est que :
q

∗ ∗
∃!µ ∈ R q
tel que ∇f (x ) + µ∗j ∇hj (x∗ ) = 0.
j=1

(le vecteur µ∗ est appelé vecteur multiplicateur de Lagrange)

On peut reformuler ces résultats en considérant la fonction de Lagrange.

Définition 9.2.2 On appelle lagrangien associé au problème (P ) avec containtes d’égalité, c’est-
à-dire
min [f (x) : hj (x) = 0, j = 1, · · · , q]
la fonction
L : Rn × Rq −→ R

(x, µ) 7−→ f (x) + qj=1 µj hj (x).
Les conditions nécessaires du premier ordre s’écrivent alors avec la fonction de Lagrange de la
façon suivante.

Proposition 9.2.1 On suppose qu f est différentiable en x∗ ∈ C, que les fonctions hj , j =


1, · · · , q sont de classe C 1 dans un voisinage de x∗ et que le point x∗ est qualifié. Alors une
condition nécessaire pour que x∗ soit une solution optimale locale de (P ) est que :
{
∗ q ∇x L(x∗ , µ∗ ) = 0
∃! µ ∈ R tel que
∇µ L(x∗ , µ∗ ) = 0

88
Y a-t-il des situations où la condition nécessaire du théorème (9.2.1) ci-dessus est suffisante
pour que x∗ minimise f sur C ? Oui.

Théorème 9.2.2 (CNS d’optimalité du premier ordre) Supposons f convexe sur un ouvert
contenant C et les hj affines (i.e. de la forme x 7−→ hj (x) = ⟨aj , x⟩−bj ) linéairement indépendantes.
Alors, un élément x∗ ∈ C pour lequel
q

∗ ∗
∃µ ∈ R q
tel que ∇f (x ) + µ∗j ∇hj (x∗ ) = 0
j=1

est un minimum global de f sur C.

9.2.2 Problème avec contraintes d’inégalité


On suppose ici que
C = {x ∈ Rn : gi (x) ≤ 0, i = 1, · · · , p}
où les fonctions gi , i = 1, · · · , m sont définies sur Rn et à valeurs dans R.

Définition 9.2.3 Soit x̄ ∈ C. On dit que la contrainte d’inégalité gi (x) ≤ 0 est active en x̄, si on
a gi (x̄) = 0.
Pour x ∈ C on note I(x) = {i ∈ {1, · · · , p} : gi (x) = 0} l’ensemble des indices des contraintes
actives en x.

Définition 9.2.4 On dira que les contraintes sont qualifiées en un point x de C, si l’une des
conditions suivantes est vérifiée :
- Condition de qualification globale de Karlin : toutes les fonctions gi sont affines et
C non vide.
- Condition de qualification globale de Slater : toutes les fonctions gi sont convexes et
différentiables sur un ouvert contenant C, et ∃ x̃ ∈ C tel que : gi (x̃) < 0 pour tout i, c’est-à-dire
que C est d’intérieur non vide.
- Condition de qualification locale d’indépendance linéaire : les fonctions gi sont
toutes différentiables dans un voisinage de x et le système formé des gradients des contraintes
actives en x est libre.
On a les conditions d’optimalité :

Théorème 9.2.3 (CN d’optimalité de Kuhn- Tucker)


Soit x∗ ∈ C. On suppose que pour tout i, les gi sont toutes différentiables dans un voisinage de
x∗ et que les contraintes sont qualifiées en x∗ . Alors une condition nécessaire pour x∗ soit une
solution optimale locale de (P ) est :

p

 ∃ λ ∈ R+ tel que :
∑p
∇f (x ) + i=1 λi ∇gi (x∗ ) = 0


 λ g (x∗ ) = 0, ∀ i ∈ {1, · · · , p}.
i i

Dans le cas où le problème (P ) est convexe, la condition nécessaire d’optimalité de Kuhn-Tucker
est aussi suffisante.

89
9.2.3 Problème avec contraintes d’égalité et d’inégalité
On s’intéresse ici au
{ }
g (x) ≤ 0, i = 1, · · · , p,
C= x∈R : i
n
hj (x) = 0, j = 1, · · · , q
où les fonctions gi , i = 1, · · · , p et hj , j = 1, · · · , q sont définies sur Rn et à valeurs dans R.
Comme dans le cas précédent, pour x ∈ C on note I(x) = {i ∈ {1, · · · , p} : gi (x) = 0}
l’ensemble des indices des contraintes actives en x.
On définit ici aussi les conditions de qualification.

Définition 9.2.5 On dira que les contraintes sont qualifiées en un point x de C, si l’une des
conditions suivantes est vérifiée :
- Condition de qualification globale de Karlin : toutes les fonctions gi et hj sont affines
et C non vide.
- Condition de qualification globale de Slater : toutes les fonctions gi sont convexes et
différentiables sur un ouvert contenant C, les fonctions hj sont affines linéairement indépendantes,
et ∃ x̃ ∈ C tel que : gi (x̃) < 0 pour tout i.
- Condition de qualification locale d’indépendance linéaire : les fonctions gi et hj
sont toutes différentiables dans un voisinage de x et le système formé des gradients de toutes les
contraintes actives en x est libre c’est-àdire : {∇gi (x̄), i ∈ I(x̄), ∇hj (x̄) j = 1, · · · , q} est libre.

Théorème 9.2.4 Soit x∗ ∈ C. On suppose que les fonctions f , gi et les hj sont continûment
différentiables dans un voisinage de x∗ et que les contraintes sont qualifiées en x∗ . Alors une
condition nécessaire pour que x∗ soit une solution optimale locale de (P ) est que :


 ∃ λ∗i ≥ 0, i = 1, · · · , p, µ∗j ∈ R, j = 1, · · · , q








 tels que

 ∑p ∑q

 ∇f (x ∗
) + λ∗
∇g i (x ∗
) + ∗ ∗
j=1 µj ∇hj (x ) = 0,

 i=1 i




 ∗
λi gi (x∗ ) = 0, i = 1, · · · , p.
Dans le cas convexe la condition nécessaire devient aussi suffisante.

Théorème 9.2.5 (CNS d’optimalité de Kuhn-Tucker)


Soit x∗ ∈ C. On suppose que les fonctions f , gi sont convexes et continûment différentiables dans
un voisinage de x∗ , les hj sont affines et que les contraintes sont qualifiées en x∗ . Alors x∗ est une
solution optimale globale de (P ) si et seulement si :


 ∃ λ∗i ≥ 0, i = 1, · · · , p, µ∗j ∈ R, j = 1, · · · , q








 tels que

 ∑ ∑


 ∇f (x∗ ) + pi=1 λ∗i ∇gi (x∗ ) + qj=1 µ∗j ∇hj (x∗ ) = 0,





 ∗
λi gi (x∗ ) = 0, i = 1, · · · , p.

90
Comme dans les cas précédents, on définit la fonction de Lagrange.

Définition 9.2.6 On appelle lagrangien associé au problème (P ) avec containtes d’égalité et


d’inégalité, c’est-à-dire

min [f (x) : gi (x) ≤ 0, i = 1, · · · , p, hj (x) = 0, j = 1, · · · , q]

la fonction
L : Rn × Rp+ × Rq −→ R
∑ ∑
(x, λ, µ) 7−→ f (x) + pi=1 λi gi (x) + qj=1 µj hj (x).

On montre alors

Proposition 9.2.2 Soit x∗ ∈ C, on suppose que les fonctions f , les gi et les hj sont continûment
différentiables dans un voisinage de x∗ et que les contraintes sont qualifiées en x∗ . Alors une
condition nécessaire pour qu’il soit une solution optimale locale de (P ) est :

∗ p ∗

 ∃ λ ∈ R+ , µj ∈ R, j = 1, · · · , q tel que :
∇x L(x∗ , λ∗ , µ∗ ) = 0

 λ∗ g (x∗ ) = 0, ∀ i ∈ {1, · · · , p}.
i i

91

Vous aimerez peut-être aussi