0% ont trouvé ce document utile (0 vote)
75 vues41 pages

Cours de Programmation MathAÌ Â©matique

Transféré par

Relax Life
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
75 vues41 pages

Cours de Programmation MathAÌ Â©matique

Transféré par

Relax Life
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours

Programmation Mathématique
Cycle Préparatoire

Abdelmalek Aboussoror

Année Universitaire 2021-2022

Université Cadi Ayyad


Ecole Nationale des Sciences Appliquées

Marrakech
2

Avant Propos

Pour des raisons pédagogiques, les démonstrations des résultats


(Théorèmes, Propositions,...) présentés dans ce polycopié ne sont données
qu’en Amphi. Certaines d’entre elles sont faites sous forme d’exercices en
travaux dirigés. Une bonne compréhension de ces démontrations facilite la
résolution des exercices posés en travaux dirigés. A noter aussi que la plupart
des exercices proposés en cours sont corrigés en travaux dirigés. Le cours sur
les méthodes d’optimisation sera traité séparément. Les prérequis demandés
pour ce cours sont essentiellement ceux de topologie, espaces normés, calcul
différentiel, algèbre linéaire et bilinéaire.

c Abdelmalek Aboussoror
Contents

1 Sous Espaces Affines 5

2 Ensembles Convexes 9
2.1 Définitions et Propriétés . . . . . . . . . . . . . . . . . . . . . 9
2.2 Propriétés Topologiques des Ensembles Convexes . . . . . . . 10
2.3 L’Enveloppe Convexe . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Séparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5 Point Extrémal et Face . . . . . . . . . . . . . . . . . . . . . . 17
2.6 Cône Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Fonctions Convexes 21
3.1 Préliminaires et Définitions . . . . . . . . . . . . . . . . . . . 21
3.2 Propriétés Topologiques des Fonctions Convexes et Application 23
3.3 Propriétés des Fonctions Convexes Différentiables . . . . . . . 24
3.4 Sous Différentiel de Fonctions Convexes . . . . . . . . . . . . 27

4 Conditions d’Optimalité 31
4.1 L’ensemble des contraintes est un ouvert . . . . . . . . . . . . 31
4.2 Contraintes d’Egalités Linéaires . . . . . . . . . . . . . . . . . 32
4.3 Contraintes d’Egalités non Linéaires . . . . . . . . . . . . . . 34
4.4 Contraintes d’Inégalités . . . . . . . . . . . . . . . . . . . . . 34
4.5 Contraintes d’Egalités et d’Inégalités . . . . . . . . . . . . . . 35
4.6 Conditions d’Optimalité: cas non Différentiable . . . . . . . . 37

5 Dualité Lagrangienne 39
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Etude de la Dualité Lagrangienne . . . . . . . . . . . . . . . . 40

3
4 CONTENTS
Chapter 1

Sous Espaces Affines

Ce chapitre est consacré aux sous espaces affines de Rn . Dans ce chapitre


on s’intéresse aux définitions et propriétés qui nous seront utiles pour la
suite. Notamment, celles qui seront utilisées pour définir et établir quelques
propriétés topologiques des ensembles convexes en chapitre 2.

Définition 1.1 1) Soient x, x1 , ..., xp ∈ Rn , p ∈ N∗ . On dit que x est


Pp combinaison affine de x1 , ..., xp , s’il existe λ1 , ..., λp ∈ R, avec
une
i=1 λi = 1, tels que

p
X
x= λ i xi .
i=1

2) Soient u0 , ..., uq ∈ Rn , q ∈ N∗ . On dit que u0 , ..., uq , sont


P affinement
indépendents si pour tous λi ∈ R, i = 0, ..., q, vérifiant qi=0 λi = 0, et
q
X
λi ui = 0
i=0

alors

λi = 0 ∀ i ∈ 0, ..., q .
Dans le cas contraire, on dit qu’ils sont affinement dépendents.

Proposition 1.1 Soient x0 , ..., xk ∈ Rn , k ≥ 2. Alors, les propriétés suiv-


antes sont équivalentes :

1) x0 , ..., xk , sont affinement indépendents,

2) x1 − x0 , ..., xk − x0 , sont linéairement indépendents.

Preuve. Voir TD.

5
6 CHAPTER 1. SOUS ESPACES AFFINES

Remarque 1.1 La propriété 2) de la Proposition 1.1 peut être écrite sous


la forme plus générale
 suivante :
Pour tout j ∈ 0, ..., k , les vecteurs xi − xj , i = 0, ..., k, i 6= j, sont linéaire-
ment indépendents.

Définition 1.2 Soit A un sous ensemble non vide de Rn . L’ensemble A est


dit un sous espace affine de Rn , si pour tous x, y ∈ A et α ∈ R, on a

αx + (1 − α)y ∈ A

i.e., A contient la droite passant par x et y.

Exemple 1.1 i) Rn et tout singleton {a}, a ∈ Rn , sont des sous espaces


affines de Rn .
ii) Tout sous espace vectoriel de Rn est un sous espace affine.
n o
iii) Soit C = x ∈ Rn / Ax = b , où A ∈ Mm,n (R) et b ∈ Rm . Alors, on
vérifie facilement que C est un sous espace affine.

Exercice 1.1 Soit A ⊂ Rn , A 6= ∅. Montrer que si A est un sous espace


affine contenant 0, alors A est un sous espace vectoriel de Rn .

Définition 1.3 Soit A un sous ensemble non vide de Rn . L’enveloppe affine


engendrée par A, notée affA, est le plus petit sous espace affine contenant A,
i.e., l’intersection de tous les sous espaces affines contenant A
\
affA = C.
C sous espace affine
A⊂C

Remarque 1.2 Il est clair d’après la Définition 1.3 que si A et B sont des
sous ensembles de Rn avec A ⊂ B, on a affA ⊂ affB. En effet, on a

A ⊂ B ⊂ affB.

Puisque affA est le plus petit sous espace affine contenant A, il s’en suit que
affA ⊂ affB.

Exercice 1.2 Soit A un sous ensemble non vide de Rn . Montrer que


1) aff(affA) = affA,
2) si A est un sous espace affine, alors affA = A.

Proposition 1.2 Soient A un sous espace affine de Rn et a ∈ A. Alors,


A − a est un sous espace vectoriel de Rn .

Preuve. Voir TD.


7

Proposition 1.3 Soit A un sous ensemble non vide de Rn . Alors, A est


un sous espace affine si et seulement si il existe un sous espace vectoriel V ,
tel que A soit une translation de V par un élément de A. De plus, le sous
espace vectoriel V est unique, appelé le sous espace vectoriel associé à A.

Preuve : Preuve donnée en Amphi.

Remarque 1.3 Géométriquement, le sous espace V est parallèle à A. De


plus, on remarque que le sous espace vectoriel V associé à A ne dépend pas
du choix de a dans A. C’est à dire, on peut choisir n’importe quel élément
dans A.

Définition 1.4 1) Nous appelons la dimension d’un sous espace affine de


n
R , la dimension du sous espace vectoriel qui lui est associé.

2) Soit A un sous ensemble non vide de Rn . On appelle dimension affine


de A, la dimension de son enveloppe affine affA.

Notation : dimA = dim(affA) = dimV, où V est le sous espace vectoriel


associé à affA.

Théorème 1.1 Soit A un sous ensemble non vide de Rn . Alors


n k
X k
X o
n
affA = x ∈ R / x = αi xi , xi ∈ A, αi ∈ R, i = 1, ..., k, αi = 1, k ∈ N∗
i=1 i=1

Preuve. Preuve donnée en Amphi.

Proposition 1.4 Soient A un sous ensemble non vide de Rn et x0 ∈ A.


Alors
affA = Vect(A − x0 ) + x0
où Vect(A − x0 ) désigne le sous espace vectoriel de Rn engendré par A − x0 .
Donc, Vect(A − x0 ) est le sous espace vectoriel associé à affA.

Preuve. Preuve donnée en Amphi.

Exercice 1.3 Soient C1 et C2 deux sous ensembles non vides de Rn tels que
C1 ⊂ C2 .

1) Montrer que affC1 ⊂ affC2 .

2) Supposons que dim(affC1 ) = dim(affC2 ). Montrer que affC1 = affC2 .

Proposition 1.5 Soient C1 et C2 deux sous ensembles de Rn et Rm , respec-


tivement. Alors
aff(C1 × C2 ) = affC1 × affC2 .
8 CHAPTER 1. SOUS ESPACES AFFINES

Preuve. Voir TD.


 
Exemple 1.2 Soit C = 0, 1 × {1}. Alors
 
affC = aff 0, 1 × aff({1}) = R × {1}.

Proposition 1.6 Soient X et Y deux sous ensembles non vides de Rn . Soit


(α, β) ∈ R2 . Alors aff(αX + βY ) = αaffX + βaffY .

Preuve. La preuve est laissée comme exercice (voir TD).


Chapter 2

Ensembles Convexes

2.1 Définitions et Propriétés


Définition 2.1 1) Soit C un sous ensemble de Rn . On dit que C est
convexe si
 
∀ x, y ∈ C, ∀ λ ∈ 0, 1 , λx + (1 − λ)y ∈ C
 
i.e., C contient le segment x, y .

2) Soient xi ∈ Rn , i = 1, ..., k, k ∈ N∗ . Toute


Psomme de la forme α1 x1 +
k
... + αk xk , avec αi ∈ 0, 1 , i = 1, ..., k, i=1 αi = 1, est appelée une
combinaison convexe de x1 , ..., xk .

Exemple 2.1 1) L’ensemble Rn , l’ensemble vide ∅, et tout singleton {a},


n
a ∈ R , sont des convexes.

2) Toute boule de Rn est convexe.


   
3) Soit A ⊂ R, avec A = 1, 2 ∪ 3, 4 . Alors, A est non convexe. Par
exemple la combinaison convexe 12 .2 + (1 − 12 ).3 = 52 6∈ A.

C
C

Fig 2.1 : C est convexe Fig 2.2 : C est non convexe

Nous avons les propriétés élémentaires suivantes :

Proposition 2.1 1) Soient C et D deux sous ensembles de Rn . On a

9
10 CHAPTER 2. ENSEMBLES CONVEXES
n o
i) si C est convexe, alors, pour tout réel α, αC = αx, x ∈ C est
convexe,
n o
ii) si C et D sont convexes, alors, C + D = x + y/ x ∈ C, y ∈ D
est convexe.

2) Soient C et D deux sous ensembles non vides de Rn et Rm , respective-


ment. Alors, C × D est un convexe de Rn × Rm si et seulement si C
et D sont convexes.

Preuve. Les preuves sont laissées sous forme d’exercice.

Remarque 2.1 D’après i) et ii) de la Proposition 2.1, on déduit que si C


et D sont deux convexes de Rn , alors αC + βD est un convexe pour tous
α, β ∈ R.

Exercice 2.1\Soit (Ci )i∈I une famille de sous ensembles convexes de Rn .


Montrer que Ci est convexe.
i∈I

Proposition 2.2 Soit C un sous ensemble non vides de Rn. Alors, C est
convexe si et seulement si pour tous xi ∈ C, et αi ∈ 0, 1 , i = 1, ..., k,
k ∈ N∗ , avec ki=1 αi = 1, on a α1 x1 + ... + αk xk ∈ C.
P

Preuve. Preuve donnée en Amphi.

2.2 Propriétés Topologiques des Ensembles Con-


vexes
Définition 2.2 Soit C un sous ensemble convexe de Rn . L’intérieur relatif
de C, noté par riC, est l’intérieur de C relative à affC muni de la topologie
induite par celle de Rn , i.e.,

x ∈ riC ⇐⇒ x ∈ affC et ∃ B(x, r) telle que B(x, r) ∩ affC ⊂ C,

où B(x, r) est la boule ouverte de Rn de centre x et de rayon r. On dit que


C est relativement ouvert si C = riC.

Exemple 2.2 Soit x ∈ Rn et C = x . Alors





1) affC = x (utiliser le Théorème 1.1),

2) dim(affC) = dim (affC − x) = dim 0 = 0,

3) riC = x ,

4) intC = ∅.
2.2. PROPRIÉTÉS TOPOLOGIQUES DES ENSEMBLES CONVEXES11

Pour deux convexes C1 et C2 de Rn , on peut avoir C1 ⊂ C2 , mais riC1 6⊂ riC2


comme on peut le voir dans l’exemple suivant.
  
Exemple 2.3 Soient C1 = 1 , et C2 = 1, 2 . Alors
  
riC1 = 1 et riC2 = 1, 2 .

On a donc C1 ⊂ C2 , mais riC1 6⊂ riC2 .

On a le résultat important suivant d’analyse convexe.

Théorème 2.1 Soit C un sous ensemble non vide de Rn . Alors, riC 6= ∅,


i.e., l’intérieur relatif d’un convexe non vide est toujours non vide.

Exercice 2.2 Soient C1 et C2 deux ensembles non vides convexes de Rn ,


avec C1 ⊂ C2 . Montrer que si affC1 = affC2 , alors riC1 ⊂ riC2 .

Définition 2.3 Soit C un sous ensemble non vide de Rn . La frontière rel-


ative de C, notée rbdC, est l’ensemble défini par rbdC = C \ riC.

Exercice 2.3 Soit C un sous ensemble convexe non vide de Rn d’intérieur


non vide.

1) Montrer que affC = Rn . Déduire la dimension affine de C.

2) Montrer que riC = intC.

Exercice 2.4 Soient α, β ∈ R+ et C un sous ensemble convexe de Rn .


Montrer que
αC + βC = (α + β)C.

Proposition 2.3 Soit C un sous ensemble non vide convexe de Rn . Soit


x ∈ C, et y ∈ riC. Alors
 n o
x, y = z ∈ Rn / z = αx + (1 − α)y, 0 ≤ α < 1 ⊂ riC.


Preuve. Voir TD.

Remarque 2.2 Soit C un sous ensemble convexe de Rn avec intC 6= ∅


 intC = riC. D’après la Proposition 2.3 pour x ∈ C et
(Exercice 2.3). Alors,
y ∈ intC, on a x, y ⊂ intC.

Proposition 2.4 Soit C un sous ensemble non vide convexe de Rn . Alors

1) riC = C,

2) riC = riC.
12 CHAPTER 2. ENSEMBLES CONVEXES

Preuve. 1) Preuve donnée en Amphi.


2) Voir TD.
On obtient alors le corollaire suivant.

Corollaire 2.1 Soit C un sous ensemble convexe de Rn . Supposons que


intC 6= ∅. Alors, on a

1) intC = C,

2) intC = intC.

Preuve. Résulte de la Proposition 2.4.

Proposition 2.5 Soit C un sous ensemble non vide convexe de Rn . Alors,


riC et riC sont convexes.

Preuve. Preuve donnée en Amphi.

Corollaire 2.2 Soit C un sous ensemble non vide convexe de Rn avec


intC 6= ∅. Alors, intC et intC sont convexes.

Preuve. Résulte de la Proposition 2.5.

Exercice 2.5 Soient C1 et C2 deux sous ensembles non vides de Rn , vérifi-


ant riC1 ∩ riC2 6= ∅. Montrer que

riC1 ∩ riC2 = C1 ∩ C2 .

Proposition 2.6 Soient C1 et C2 deux sous ensembles non vides convexes


de Rn , vérifiant riC1 ∩ riC2 6= ∅. Alors

ri (C1 ∩ C2 ) = riC1 ∩ riC2 .

Preuve. Preuve donnée en Amphi.

2.3 L’Enveloppe Convexe


Par analogie à l’enveloppe affine d’un ensemble définie dans le chapitre
précédent, on définit aussi l’enveloppe convexe d’un ensemble.

Définition 2.4 Soit C un sous ensemble non vide de Rn . L’enveloppe con-


vexe de C notée par conv C, ou coC, est le plus petit convexe contenant C,
i.e., l’intersection de tous les convexes contenant C
\
convC = F.
F convexe
C⊂F
2.4. SÉPARATION 13

co C
C

Fig 2.3 : C et son enveloppe convexe

Remarque 2.3 Si C est convexe, alors convC = C.

Théorème 2.2 Soit C un sous ensemble non vide de Rn . Alors


n k
X
convC = x ∈ Rn / x =
 
λi xi , λi ∈ 0, 1 , xi ∈ C,
i=1 o
Pk
i = 1, ..., k, i=1 λi = 1, k ∈ N∗ .

Preuve. Preuve identique à celle du Théorème 1.1 en remplaçant la combi-


naison affine par la combinaison convexe.
On a le résultat important suivant dû à Carathéodory.

Théorème 2.3 (C. Carathéodory) Soit C un sous ensemble non vide de Rn .


Alors, tout élément de convC peut être exprimé comme combinaison convexe
d’au plus n + 1 éléments de C.

Preuve. Preuve donnée en Amphi.

Exercice 2.6 Soit C un sous ensemble compact de Rn . Montrer que convC


est compact.

2.4 Séparation
Dans cette section, avant de donner des résultats sur la séparation de
deux convexes, nous commençons par donner des résultats préliminaires.

Proposition 2.7 Soient f : Rn → R une fonction, et C un sous ensemble


fermé non vide de Rn . Supposons que f est semicontinue inférieurement
(s.c.i.) sur C, et 0-coercive, i.e.,

lim f (x) = +∞.


kxk→+∞

Alors, le problème
(P) : Min f (x)
x∈C

admet au moins une solution.


14 CHAPTER 2. ENSEMBLES CONVEXES

Preuve. Preuve donnée en Amphi.


Le résultat suivant dont la démonstration utilise des éléments de topologie
sera utilisé ultérieurement.

Proposition 2.8 Soit f : Rn → R une fonction semicontinue supérieure-


ment (s.c.s.) sur Rn . Soit A un sous ensemble non vide de Rn . Alors

inf f (x) = inf f (x).


x∈A x∈Ā

Dans le cas où f est semicontinue inférieurement (s.c.i.) sur Rn on a le


résultat analogue suivant

sup f (x) = sup f (x).


x∈A x∈Ā

Définition 2.5 Soit f : Rn → R une fonction. On dit que f est strictement


convexe si pour tous x, y ∈ Rn , x 6= y, et tout α ∈]0, 1[, on a

f (αx + (1 − α)y) < αf (x) + (1 − α)f (y).

Exemple 2.4 La fonction f définie sur Rn par f (x) = kx−x0 k22 , où x0 ∈ Rn


donné, est strictement convexe (voir chapitre 3 sur les fonctions convexes).

Exercice 2.7 Montrer que la fonction considérée dans l’exemple 2.4 est 0-
coercive.

Exercice 2.8 Soient f : Rn → R, une fonction strictement convexe et C


un sous ensemble non vide convexe de Rn . Montrer que le problème de
minimisation suivant
(P) : min f (x)
x∈C

admet au plus une solution.

Définition 2.6 Soient C ⊂ Rn et x̄ ∈ Rn . Une solution du problème


1 2
Min x − x̄ 2
x∈C 2
est appelée une projection de x̄ sur C. C’est à dire le point de C le plus
proche de x̄.

Théorème 2.4 Soient C un sous ensemble convexe fermé de Rn , et x ∈ Rn .


Soit x̄ ∈ C. Alors, x̄ est une projection de x sur C si et seulement si

x − x̄, y − x̄ ≤ 0 ∀ y ∈ C.

Preuve. Preuve donnée en Amphi.


2.4. SÉPARATION 15

Théorème 2.5 Soit C un sous ensemble convexe fermé de Rn et x0 6∈ C.


Alors

1) La projection de x0 sur C existe et est unique. On la note par pC (x0 ),

2) Pour tout x ∈ C, on a x̄ − x0 2
≤ x − x0 2
, avec x̄ = pC (x0 ).

Preuve. Preuve donnée en Amphi.

Proposition 2.9 Soit C un sous ensemble convexe fermé de Rn . Alors

pC (x) − pC (y) 2
≤ x−y 2
∀ x, y ∈ Rn .

Preuve. Voir TD.


Remarquons que si 0 ∈ C, alors

kpC (x) 2
≤ x 2, ∀x ∈ Rn .

Définition 2.7 Soient a ∈ Rn \ {0}, et b ∈ R.


n o
1) L’ensemble H = x ∈ Rn / ha, xi = b est appelé un hyperplan affine.

2) Les ensembles
n o n o
H + = x ∈ Rn / ha, xi ≥ b et H − = x ∈ Rn / ha, xi ≤ b

sont appelés des demi espaces. Il s’en suit qu’un hyperplan donne deux
demi espaces.

3) Pour un sous ensemble A non vide de Rn , un hyperplan H est appelé


un hyperplan d’appui de A en x̄ ∈ rbdA, si x̄ ∈ H, et A ⊂ H + , ou
A ⊂ H −.

Définition 2.8 Soient A et B deux sous ensembles non vides de Rn , et


n o
H = x ∈ Rn / ha, xi = b

un hyperplan affine. On dit que

1) H sépare A et B, si A ⊂ H + et B ⊂ H − ,

2) H sépare A et B strictement, s’il existe  > 0, tel que A ⊂ H− et


B ⊂ H+ , où
16 CHAPTER 2. ENSEMBLES CONVEXES

n o n o
H+ = x ∈ Rn / ha, xi ≥ b+ et H− = x ∈ Rn / ha, xi ≤ b− .

ha, xi = b

ha, xi ≥ b +  ha, xi ≤ b − 

B
A

Fig 2.4 : séparation stricte des convexes A et B

Proposition 2.10 Soit C un sous ensemble convexe fermé de Rn . Soit


x ∈ Rn , avec x 6∈ C. Alors, il existe α ∈ R, et y ∈ Rn \ {0}, tels que

hy, zi ≤ α < hy, xi, ∀ z ∈ C.

Preuve. Voir TD.

Exercice 2.9 Soit C un sous ensemble convexe de Rn , avec intC 6= ∅. Mon-


trer que (intC)c = (C)c , où pour un sous ensemble A de Rn , Ac désigne le
complémentaire de A dans Rn .

Exercice 2.10 Soit C ⊂ Rn un convexe, avec intC 6= ∅. Soit x̄ ∈ Rn \ intC.


Montrer qu’il existe d ∈ Rn \ {0}, tel que

suphx, di ≤ hx̄, di.


x∈C

Proposition 2.11 Soit C un sous ensemble convexe de Rn . Soit x̄ ∈ rbdC.


Alors, il existe un hyperplan d’appui de C en x̄.

Preuve. Preuve donnée en Amphi.

Remarque 2.4 Si dimC = n, alors riC = intC. Dans ce cas, rbdC =


C \ riC = C \ intC = FrC.

Exercice 2.11 Soient C et D deux convexes de Rn vérifiant

ha, xi ≤ ha, yi, ∀ x ∈ C, ∀ y ∈ D

où a ∈ Rn \ {0}. Monter qu’il existe un hyperplan affine qui sépare C et D.


2.5. POINT EXTRÉMAL ET FACE 17

Théorème 2.6 Soient C et D deux convexes de Rn vérifiant C ∩ D = ∅.


Alors, C et D sont séparés au sens large, i.e., il existe a ∈ Rn \ {0} et α ∈ R,
tel que
ha, xi ≤ α ≤ ha, yi ∀ x ∈ C, ∀ y ∈ D.

Preuve. Preuve donnée en Amphi.

Exercice 2.12 Soient C et D deux convexes disjoints de Rn . Montrer que


C et D sont strictement séparés si et seulement si il existe a ∈ Rn \ {0}, tel
que
supha, xi < inf ha, yi.
x∈C y∈D

Théorème 2.7 (Hahn-Banach, Séparation stricte) Soient C et D deux sous


ensembles non vides de Rn , tels que

1) C est un convexe fermé,

2) D est un convexe compact,

3) C ∩ D = ∅.

Alors, il existe un hyperplan affine qui sépare strictement C et D.

Preuve. Preuve donnée en Amphi.

2.5 Point Extrémal et Face


Définition 2.9 Soit C un sous ensemble convexe non vide de Rn .

1) Soit F une partie convexe de C. On dit que F est une face de C si la


propriété suivante est satisfaite
   
∀ x, y ∈ C tels que x, y ∩ F 6= ∅ =⇒ x, y ⊂ F.

2) Soit a ∈ C. On dit que a est point extrémal de C si a ne peut être écrit
sous la forme a = αx + (1 − α)y, avec α ∈ 0, 1 , x, y ∈ C, x 6= y,
i.e., a ne peut être écrit comme combinaison convexe stricte de deux
éléments distincts de C.
L’ensemble des points extrémaux de C est noté extC.

Exercice 2.13 Soit C un sous ensemble convexe de Rn et H un hyperplan


d’appui de C en un point de rbdC. Montrer que H ∩ C est une face de C.
18 CHAPTER 2. ENSEMBLES CONVEXES

Exercice 2.14 Soit C un convexe de Rn non vide.


1) Soit F une partie convexe de C. On suppose que F est une face de C.
Montrer que extF ⊂ extC.
2) On suppose maintenant que C est un convexe fermé de Rn . Soit H un
hyperplan d’appui de C en un point de rbdC, avec H ne contenant pas C.
Montrer que
dim(H ∩ C) < dimC.

Remarque 2.5 Notons que dans l’exercice 2.14, on a


1) la condition F est une face est suffisante mais pas nécessaire (voir
figure 2.5),

2) si F n’est pas une face, on peut avoir un point extrémal F qui n’est pas
un point extrémal de C (voir figure 2.6).

y
x
C C
F = [x, y] F ⊂C
x
Fig 2.5 : F n’est pas une face, mais Fig 2.6 : F n’est pas une face et
extF = {x, y} ⊂ extC x un point extrémal de F
mais pas un point extrémal de C

Théorème 2.8 Soit C un sous ensemble convexe compact de Rn . Alors,


extC 6= ∅.

Preuve. Preuve donnée en Amphi.


On a le résultat important suivant d’analyse convexe.
Théorème 2.9 (H. Minkowski) Soit C ⊂ Rn un convexe compact. Alors,
C = co(extC).

2.6 Cône Normal


Cette notion de cône normal en un point d’un ensemble convexe sera
utilisée ultérieurement pour donner des conditions d’optimalité pour un prob-
lème d’optimisation.
Définition 2.10 Soit C un sous ensemble convexe de Rn . Soit x̄ ∈ C. Le
cône normal à C en x̄, noté NC (x̄) ou N (C, x̄) est l’ensemble défini par
n o
NC (x̄) = x∗ ∈ Rn / hx∗ , x − x̄i ≤ 0, ∀ x ∈ C .
2.6. CÔNE NORMAL 19

Remarque 2.6 1) Soient x∗ ∈ N (C, x̄) \ {0} et y ∈ C, avec y 6= x̄. Soit


θ l’angle entre x∗ et y − x̄. On a

hx∗ , y − x̄i
cos θ = ≤ 0.
kx∗ k2 ky − x̄k2

Alors, θ est obtus (voir figure 2.7 ci-dessous).

2) NC (x̄) est un cône convexe fermé contenant zéro.

3) Supposons que C est un sous ensemble convexe fermé de Rn . Soit


x ∈ Rn , x 6∈ C et posons x̄ = pc (x) (une telle projection existe et est
unique puisque C est un convexe fermé). On a

x̄ = pC (x) ⇐⇒ hx − x̄, y − x̄, i ≤ 0 ∀y ∈ C


⇐⇒ x − x̄ ∈ NC (x̄).

NC (x̄)

x̃ NC (x̃)
C

Fig 2.7: Cônes normaux en différents points de C

Proposition 2.12 Soient C et D deux sous ensembles convexes non vides


de Rp et Rq respectivement. Soit (x̄, ȳ) ∈ C × D. Alors

NC×D (x̄, ȳ) = NC (x̄) × ND (ȳ).

Preuve. Preuve laissée comme exercice.


Nous avons le résultat suivant pour les points intérieurs de C.

Proposition 2.13 Soit C un sous ensemble convexe de Rn d’intérieur non


vide. Soit x̄ ∈ intC. Alors

N (C, x̄) = 0 .

Preuve. Preuve donnée en Amphi.

Proposition 2.14 Soit C un sous ensemble non vide convexe de Rn


d’intérieur non vide. Soit x ∈ FrC. Alors, il existe a∗ ∈ N (C, x), avec
a∗ 6= 0.

Preuve. Voir TD.


20 CHAPTER 2. ENSEMBLES CONVEXES
Chapter 3

Fonctions Convexes

3.1 Préliminaires et Définitions


Dans toute la suite k.k désigne la norme euclidienne.
Soit X un sous ensemble non vide de Rn , et f : X → R, une fonction. On
définit les ensembles suivants :
n o
1) domf = x ∈ X/ f (x) < +∞ ,
n o
2) epif = (x, t) ∈ X × R/ f (x) ≤ t ,

appelés respectivement, le domaine effectif et l’épigraphe de f .

Définition 3.1 Soit X un sous ensemble non vide de Rn , et f : X → R,


une fonction. On dit que la fonction f est propre si

f (x) > −∞, ∀ x ∈ X et ∃ x̄ ∈ X tel que f (x̄) < +∞.

Définition 3.2 Soit f : Rn −→ R, une fonction.


  La fonction f est dite
convexe si pour tous x, y ∈ domf et tout α ∈ 0, 1 , on a

f (αx + (1 − α)y) ≤ αf (x) + (1 − α)f (y).

Elle est dite strictement convexe si l’inégalité ci-dessus est stricte pour tous
x, y ∈ domf , x 6= y, et tout α ∈ ]0, 1[. La fonction f est dite concave
(respectivement strictement concave), si −f est convexe (respectivement si
−f is strictement convexe).

Proposition 3.1 Soit f : Rn −→ R, une fonction. Alors, f est convexe si


et seulement si epif est convexe dans Rn+1 .

Preuve. Preuve donnée en Amphi.

21
22 CHAPTER 3. FONCTIONS CONVEXES

Exercice 3.1 Montrer que si f est convexe sur Rn , alors domf est un
convexe de Rn .

Proposition 3.2 (Inégalité de Jensen) Soit f : Rn → R, une fonction.


Alors, f est convexe si et seulement si pour tout p ∈ N∗ , pour tout xi ∈
p
X
 
domf , et tout αi ∈ 0, 1 , i = 1, ..., p, avec αi = 1, on a
i=1

p p
!
X X
f αi xi ≤ αi f (xi ).
i=1 i=1

Preuve. Preuve donnée en Amphi.

Comme application de l’analyse convexe en optimisation, on a les résultats


suivants sur un problème de maximisation d’une fonction convexe.

Proposition 3.3 Soient f : Rn → R, une fonction convexe et C un sous


ensemble non vide de Rn . Alors

sup f (x) = sup f (x).


x∈C x∈conv C

Preuve. Preuve donnée en Amphi.

Théorème 3.1 Soient f : Rn → R, une fonction convexe et C un sous


ensemble convexe compact de Rn . Alors

sup f (x) = sup f (x).


x∈C x∈extC

Preuve. Preuve donnée en Amphi.

Pour un exemple voir exemple 3.1.

Exercice 3.2 1) Soit (fi )i∈I une famille de fonctions convexes, où fi :


n
R → R. Montrer que la fonction sup fi est convexe, où sup fi est la
i∈I i∈I
fonction définie sur Rn par (sup fi )(x) = sup fi (x).
i∈I i∈I

2) Soit (gi )i∈I une famille de fonctions concaves, où gi : Rn → R. Montrer


que la fonction inf i∈I gi est concave, où inf gi est la fonction définie de
i∈I
la même manière que dans 1).
3.2. PROPRIÉTÉS TOPOLOGIQUES DES FONCTIONS CONVEXES ET APPLICATION23

3.2 Propriétés Topologiques des Fonctions Con-


vexes et Application
Dans cette section nous donnons quelques propriétés topologiques fondamen-
tales des fonctions convexes, ainsi qu’une application en optimisation.

Théorème 3.2 Soit f : Rn → R ∪ {+∞}, une fonction convexe et propre.


Alors, la fonction f est continue sur ri(domf ).

Remarque 3.1 1) Si int(domf ) 6= ∅, alors int(domf ) = ri(domf ) et


donc f est sur int(domf ).
2) Soit g : Rn → R une fonction convexe. On a domg = Rn . Donc
ri(domg) = int(domg) = Rn . Par suite, g est continue sur Rn .

Théorème 3.3 Soient f : Rn → R ∪ {+∞}, une fonction convexe propre et


C un sous ensemble convexe compact de Rn , avec C ⊂ ri(domf ). Soit M
l’ensemble des solutions du problème
Max f (x).
x∈C

Alors
M ∩ extC 6= ∅.
C’est à dire le supremum de f sur C est atteint en un point extrémal de C.

Preuve. Preuve donnée en Amphi.


Exemple 3.1 Soit f : R2 −→ R, la fonction définie par
f (x1 , x2 ) = x21 + 3x1 − 2x2
et soit
C = [−1, 1] × [−1, 1] ⊂ R2 .
Considérons le problème de maximisation suivant
(P) : Max (x21 + 3x1 − 2x2 ).
(x1 ,x2 )∈[−1,1]×[−1,1]

Pour tout (x1 , x2 ) ∈ R2 , on a


   
2x1 + 3 2 0
∇f (x1 , x2 ) = , ∇2 f (x1 , x2 ) = = M,
−2 0 0
et pour λ ∈ R,
det(M − λI2 ) = −λ(2 − λ),
où I2 est la matrice unité d’ordre 2. Les valeurs propres de ∇2 f (x1 , x2 ) sont
0 et 2. Donc ∇2 f (x1 , x2 ) est semi-définie positive pour tout (x1 , x2 ) ∈ R2
(voir Théorème 3.6 plus loin). Alors f est convexe sur R2 (voir Proposition
3.6).
24 CHAPTER 3. FONCTIONS CONVEXES

x2

(−1, 1) 1 (1, 1)

C
-1 0 1 x1

(−1, −1) -1 (1, −1)

Figure 1: Représentation des points extrémaux de C

Les points extrémaux de C sont (−1, 1), (1, 1), (1, −1) et (−1, −1). On a
C est un convexe compact et f une fonction convexe. Alors, d’après le
Théorème 3.3, il existe un point extrémal de C où le maximum de (P) est
atteint. Calculons alors les valeurs de f en les points extrémaux. On a


 f (1, −1) = 6,
f (−1, 1) = −4,


 f (1, 1) = 2,
f (−1, −1) = 0.

Donc max f (x1 , x2 ) = max f (x1 , x2 ) = 6 (Théorème 3.1), et


(x1 ,x2 )∈C (x1 ,x2 )∈extC
(1, −1) est une solution de (P) (Théorème 3.3).

3.3 Propriétés des Fonctions Convexes Différen-


tiables
Rappelons tout d’abord des définitions et résultats de calcul différentiel que
nous aurons besoin dans la suite.

Définition 3.3 Soient U un ouvert non vide de Rn et f : U −→ R, une


fonction. Soit x̄ ∈ U .
1) La fonction f est dite différentiable en x̄ s’il existe un vecteur noté ∇f (x̄),
appelé gradient de f en x̄, et une fonction βx̄ (.) : Rn −→ R, tels que pour
tout x ∈ U , on a

f (x) = f (x̄) + h∇f (x̄), x − x̄i + kx − x̄kβx̄ (x − x̄),

avec limx→x̄ βx̄ (x − x̄) = 0.


3.3. PROPRIÉTÉS DES FONCTIONS CONVEXES DIFFÉRENTIABLES25

2) La fonction f est dite deux fois différentiable en x̄ ∈ U s’il existe une


matrice notée ∇2 f (x̄) ∈ Mn (R), appelée la matrice hessienne de f en x̄, et
une fonction βx̄ (.) : Rn −→ R, telles que pour tout x ∈ U , on a
1
f (x) = f (x̄) + h∇f (x̄), x − x̄i + h∇2 f (x̄)(x − x̄), x − x̄i + kx − x̄k2 βx̄ (x − x̄)
2
avec limx→x̄ βx̄ (x − x̄) = 0.

Théorème 3.4 (la valeur moyenne) Soit U un ouvert convexe de Rn , et


f : U −→ R,  fonction différentiable sur U . Alors, pour tous x, y ∈ U , il
 une
existe α ∈ 0, 1 , tel que

f (x) − f (y) = h∇f (αx + (1 − α)y), x − yi.

Théorème 3.5 (Théorème de Taylor) Soit U un ouvert convexe de Rn , et


f : U −→ R, une fonction  deux fois différentiable sur U . Alors, pour tous
x, y ∈ U , il existe α ∈ 0, 1 , tel que

1
f (y) − f (x) = h∇f (x), y − xi + h∇2 f (αy + (1 − α)x)(y − x), y − xi.
2
Proposition 3.4 Soient f : Rn → R, une fonction, et C un ouvert con-
vexe de Rn . Supposons que f est différentiable sur C. Alors, les propriétés
suivantes sont équivalentes

1) f est convexe sur C,

2) f (x) ≥ f (y) + h∇f (y), x − yi, ∀ x, y ∈ C,

3) h∇f (x) − ∇f (y), x − yi ≥ 0, ∀ x, y ∈ C.

Preuve. Preuve donnée en Amphi.

Proposition 3.5 Soient f : Rn → R, une fonction et C un ouvert convexe


de Rn . Supposons que f est différentiable sur C. Alors, la fonction f est
strictement convexe sur C si et seulement si

f (y) > f (x) + h∇f (x), y − xi, ∀ x, y ∈ C, x 6= y.

Preuve. Preuve donnée en Amphi.


Nous rappelons les résultats importants suivants d’algèbre que nous utilis-
erons dans la suite pour reconnaitre la convexité d’une fonction.

Théorème 3.6 Soit A ∈ Mn (R) une matrice symétrique. Alors

1) A est semi-définie positive (resp. définie positive) si et seulement si ses


valeurs propres sont positives ou nulles (resp. strictement positives),
26 CHAPTER 3. FONCTIONS CONVEXES

2) A est semi-définie négative (resp. définie négative) si et seulement si


ses valeurs propres sont négatives ou nulles (resp. strictement néga-
tives).

Proposition 3.6 Soient f : Rn → R, une fonction deux fois différentiable


sur un ouvert convexe C de Rn . Alors, les assertions suivantes sont équiva-
lentes

1) la fonction f est convexe sur C,

2) pour tout x ∈ C, la matrice hessienne ∇2 f (x) est semi-définie positive


sur Rn , i.e.,
h∇2 f (x)y, yi ≥ 0, ∀ y ∈ Rn .

Preuve. Voir TD.

Remarque 3.2 En remarquant qu’une fonction g est concave si et seule-


ment si −g est convexe, on déduit le résultat suivant analogue à celui de la
Proposition 3.6 :
- La fonction f est concave sur C si et seulement si pour tout x ∈ C la
matrice hessienne ∇2 f (x) est semi-définie négative sur Rn , i.e.,

h∇2 f (x)y, yi ≤ 0, ∀ y ∈ Rn .

Proposition 3.7 Soit f : Rn → R, une fonction deux fois différentiable sur


un ouvert convexe C de Rn . Supposons que pour tout x ∈ C, la matrice
hessienne ∇2 f (x) est définie positive sur Rn , i.e.,

h∇2 f (x)y, yi > 0, ∀ y ∈ Rn .

Alors, f est strictement convexe sur C.

Preuve. La preuve est simple et laissée comme exercice (Indication : utiliser


le Théorème 3.5).

Exemple 3.2 1) Soit f : Rn → R, la fonction définie par f (x) = kxk2 =


x21 + x22 + ... + x2n , avec x = (x1 , ..., xn ). Soit x ∈ Rn . On a ∇2 f (x) = 2In , où
In est la matrice unité d’ordre n. La seule valeur propre de ∇2 f (x) est alors
2 qui est strictement positive. Par suite f est strictement convexe sur Rn .
2) Soit f : R2 → R, la fonction définie par f (x1 , x2 ) = x21 + x1 − 4x2 . Soit
x = (x1 , x2 ) ∈ R2 . On a
   
2x1 + 1 2 2 0
∇f (x1 , x2 ) = , ∇ f (x1 , x2 ) = ,
−4 0 0

dont les valeurs propres sont 0 et 2. Par suite f est convexe sur R2 .
3.4. SOUS DIFFÉRENTIEL DE FONCTIONS CONVEXES 27

3.4 Sous Différentiel de Fonctions Convexes


Dans cette section, nous allons voir une notion plus faible que la différen-
tiabilité appelée sous différentiabilité qui sera utilisée pour étudier des prob-
lèmes d’optimisation. Plus précisément, nous l’utiliserons pour exprimer des
conditions d’optimalité pour un problème d’optimisation dans le cas non
différentiable.
Définition 3.4 Soit f : Rn → R, une fonction. On définie la fonction
f ∗ : Rn → R, par n o
f ∗ (x∗ ) = sup hx∗ , xi − f (x)
x∈Rn

appelée la conjuguée de Legendre-Fenchel de f .

Remarque 3.3 D’après la définition de f ∗ , on a toujours

f ∗ (x∗ ) + f (x) ≥ hx∗ , xi, ∀ x∗ ∈ Rn , ∀ x ∈ Rn ,

appelée inégalité de Fenchel.

Définition 3.5 Soit f : Rn → R ∪ {+∞}, une fonction convexe et propre.


Soit x̄ ∈ domf . Un vecteur x∗ ∈ Rn est dit un sous gradient de f en x̄ si

f (x) ≥ f (x̄) + hx∗ , x − x̄i, ∀ x ∈ Rn .

L’ensemble des sous gradients de f en x̄ est appelé le sous differential de f


en x̄, et est noté ∂f (x̄), i.e.,
n o
∂f (x̄) = x∗ ∈ Rn / f (x) ≥ f (x̄) + hx∗ , x − x̄i, ∀ x ∈ Rn .

La fonction f est dite sous différentiable en x̄ si ∂f (x̄) 6= ∅.

Remarque 3.4 Si x 6∈ domf , alors f (x) = +∞. Il en résulte que ∂f (x) =


∅. En effet, supposons le contraire, i.e., ∂f (x) 6= ∅. Soit alors x∗ ∈ ∂f (x).
On a

x∗ ∈ ∂f (x) =⇒ f (y) ≥ f (x) + hx∗ , y − xi, ∀ y ∈ Rn


= +∞ + hx∗ , y − xi, ∀ y ∈ Rn
= +∞, ∀ y ∈ Rn .

Donc f (y) = +∞, pour tout y ∈ Rn . Ceci contredit le fait que f est non
identique à +∞ puisqu’elle est propre (∃x̄ ∈ Rn , tel que f (x̄) < +∞).

Exercice 3.3 Soit f : Rn → R ∪ {+∞}, une fonction convexe et propre.


Soit x∗ ∈ Rn . Montrer que pour tout x ∈ domf , on a

x∗ ∈ ∂f (x) ⇐⇒ f ∗ (x∗ ) + f (x) = hx∗ , xi.


28 CHAPTER 3. FONCTIONS CONVEXES

Théorème 3.7 Soit f : Rn → R ∪ {+∞}, une fonction convexe et propre.


Alors
1) Pour tout x ∈ ri(domf ), on a ∂f (x) 6= ∅.
2) Si int(domf ) 6= ∅, alors pour tout x ∈ int(domf ), ∂f (x) 6= ∅, et ∂f (x)
est un convexe compact.

Exercice 3.4 Montrer que ∂f (x) est un convexe fermé pour tout x ∈ domf .

Proposition 3.8 Soit f : Rn → R, une fonction convexe. On suppose que


f est différentiable sur Rn . Alors, pour tout x ∈ Rn , on a ∂f (x) = {∇f (x)}.

Preuve. Voir TD.


On a l’application suivante du sous différentiel pour exprimer des conditions
d’optimalité pour un problème de minimisation dont la fonction objectif est
convexe, que nous donnons dans la remarque suivante.

Remarque 3.5 Soit f : Rn → R, une fonction convexe. On a domf =


{x ∈ Rn : f (x) < +∞} = Rn . Par suite d’après le Théorème 3.7, on a
pour tout x ∈ Rn , ∂f (x) 6= ∅. Considérons le problème de minimisation sans
contrainte suivant
(P) : minn f (x).
x∈R

Soit x̄ ∈ Rn . Alors

x̄ solution de (P) ⇐⇒ f (y) ≥ f (x̄), ∀y ∈ Rn


⇐⇒ f (y) ≥ f (x̄) + h0, y − x̄i, ∀y ∈ Rn
⇐⇒ 0 ∈ ∂f (x̄).

Si de plus f est différentiable sur Rn , alors ∂f (x̄) = {∇f (x̄)}. Dans ce cas,
on a alors

x̄ solution de (P) ⇐⇒ 0 ∈ ∂f (x̄) = {∇f (x̄)}


⇐⇒ ∇f (x̄) = 0.

Exercice 3.5 Soit X un sous ensemble non vide de Rn et iX sa fonction


indicatrice, i.e., la fonction définie sur Rn par

0, si x ∈ X,
iX (x) =
+∞, si x 6∈ X.

Montrer que X est convexe si et seulement si iX est convexe sur Rn .

Proposition 3.9 Soient X un sous ensemble non vide convexe de Rn et


x ∈ X. Montrer que
∂iX (x) = NX (x).
3.4. SOUS DIFFÉRENTIEL DE FONCTIONS CONVEXES 29

Preuve. Voir TD.

Théorème 3.8 Soient f, g : Rn → R ∪ {+∞}, deux fonctions convexes et


propres. On suppose qu’il existe x0 ∈ domg tel que f est continue en x0 .
Alors, on a

∂(f + g)(x) = ∂f (x) + ∂g(x), ∀x ∈ domf ∩ domg.

Théorème 3.9 Soit f : Rn → R ∪ {+∞}, une fonction convexe et propre,


avec int(domf ) 6= ∅ . Alors, pour tout x ∈ int(domf ), on a
h 0 0
i
∂f (x) = fg (x), fd (x) ,

0 0
où fg (x) et fd (x) sont respectivement les dérivées à gauche et à droite de f
en x.

Exemple 3.3 Soit f : R → R, la fonction définie par f (x) = |x|. Alors,


0
f est une fonction convexe qui est non dérivable en 0. On a fg (0) = −1 et
0
fd (0) = 1. Par suite ∂f (0) = [−1, 1].
30 CHAPTER 3. FONCTIONS CONVEXES
Chapter 4

Conditions d’Optimalité

Dans ce chapitre, nous donnons des conditions nécessaires et suffisantes


d’optimalité pour des problèmes d’optimisation avec et sans contraintes. A
titre de rappel, les démonstrations sont données en Amphi. D’autres exem-
ples illustratifs sont aussi donnés en Amphi.

4.1 L’ensemble des contraintes est un ouvert


On considère le problème de minimisation suivant
(P) : min f (x),
x∈C
où f :Rn → R, est une fonction et C un ouvert de Rn . Si f est différentiable
en x ∈ C, et ∇f (x) = 0, on dit que x est un point stationnaire de f .
Conditions Nécessaire d’Optimalité
Théorème 4.1 (Conditions nécessaire d’optimalité de premier ordre) Soit
x̄ ∈ C une solution locale (i.e. minimum local) de (P). Supposons que f est
différentiable en x̄. Alors, ∇f (x̄) = 0.
Exemple 4.1 Considérons le problème
(P) : min f (x1 , x2 )
x∈C

x21
où f (x1 , x2 ) = − 2x22
+ x1 x2 et C =] − 2, 2[×] − 2, 2[ qui est un ouvert
2 T −1
de R . Soit x̄ = (−1, 1) . On a ∇f (x̄) = −5 . Alors, x̄ ne vérifie pas
la condition nécessaire d’optimalité de premier ordre, et par suite ne peut
pas être un minimum local de (P). L’unique point réalisable qui satisfait la
condition nécessaire d’optimalité est (0, 0)T .
Théorème 4.2 (Conditions nécessaire d’optimalité de second ordre) Soit
x̄ ∈ C une solution locale du problème (P). Supposons que f est deux fois
continûment différentiable en x̄. Alors, ∇f (x̄) = 0, et la matrice hessienne
∇2 f (x̄) est semi-définie positive sur Rn .

31
32 CHAPTER 4. CONDITIONS D’OPTIMALITÉ

Conditions suffisantes d’optimalité


Théorème 4.3 Supposons que f et C sont convexes. Soit x̄ ∈ C. Supposons
de plus que f est différentiable en x̄ et ∇f (x̄) = 0. Alors, x̄ est solution de
(P), i.e., minimum global de f sur C.

Alors, quand le problème (P) est convexe d’après les Théorèmes 4.1 et 4.3
on a la caractérisation d’optimalité suivante.

Corollaire 4.1 Supposons que f et C sont convexes. Soit x̄ ∈ C. Supposons


que f est différentiable en x̄. Alors, x̄ est un minimum global de (P) si et
seulement si ∇f (x̄) = 0.

Théorème 4.4 (Conditions suffisantes d’optimalité de premier ordre) Sup-


posons que f est deux fois différentiable en x̄ ∈ C. Si ∇f (x̄) = 0, et la
matrice hessienne ∇2 f (x̄) est définie positive sur Rn , alors x̄ est un mini-
mum local strict de f sur C.

Remarque 4.1 Si ∇f (x̄) = 0 et ∇2 f (x̄) est semi-définie positive, en


général x̄ n’est pas un minimum local comme on peut le voir dans l’exemple
suivant.

Exemple 4.2 Soit C = R2 , et f (x1 , x2 ) = −2x61 + x22 . Soit x̄ = (x̄1 , x̄2 )T .


L’équation
∇f (x̄) = (−12x̄51 , 2x̄2 )T = (0, 0)T ,
admet la solution unique x̄ = (0, 0)T . On a

−60 x̄41 0
   
0 0
∇2 f (x̄) = = ,
0 2 0 2
1
2
qui est semi-définie positive. Soit xk = k . On a f (xk ) = − 6 , et xk → x̄,
0 k
quand k → +∞. Pour tout r > 0, il existe k0 (r) = k0 ∈ N, tel que pour tout
k ≥ k0 , xk ∈ B(x̄, r), et
2
f (xk ) = − < f (x̄) = 0.
k6
Par suite, x̄ n’est pas un minimum local de f sur R2 .

4.2 Contraintes d’Egalités Linéaires


Considérons le problème de minimisation suivant

(P) : min f (x),


x∈Rn
Ax=b

où f : Rn → R, A ∈ Mm,n (R), et b ∈ Rm , avec m ≤ n. Posons


4.2. CONTRAINTES D’EGALITÉS LINÉAIRES 33
n o
C = x ∈ Rn / Ax = b .

Remarque 4.2 1) Soient x̄ ∈ C, i.e., Ax̄ = b, et d ∈ Rn \ {0}. Soit


KerA = {x ∈ Rn : Ax = 0Rm }, le noyau de A. Alors, d est une
direction admissible de C en x̄
 
⇐⇒ ∃ α > 0, tel que x̄ + td ∈ C, ∀ t ∈ 0, α
 
⇐⇒ ∃ α > 0, tel que A(x̄ + td) = b, ∀ t ∈ 0, α
 
⇐⇒ ∃ α > 0, tel que tAd = 0, ∀ t ∈ 0, α
⇐⇒ Ad = 0 ⇐⇒ d ∈ KerA

où pour le passage de la deuxième équivalence à la troisième, on utilise


le fait que Ax̄ = b. Donc d est une direction admissible de C en x̄, si
et seulement si d ∈ KerA.

2) Puisque KerA est un espace vectoriel, nous avons alors

d ∈ KerA ⇐⇒ −d ∈ KerA.

Donc d est une direction admissible de C en x̄ si et seulement si −d


est une direction admissible de C en x̄.

Conditions Nécessaires d’Optimalité


Théorème 4.5 Soit x̄ ∈ C une solution locale (minimum local) de (P).
Supposons que f est différentiable en x̄. Alors, il existe un vecteur λ ∈ Rm ,
vérifiant
∇f (x̄) + AT λ = 0.
Si de plus, rgA = m, alors le vecteur λ est unique.

Conditions Suffisantes d’Optimalité


Théorème 4.6 Soit x̄ ∈ C. Supposons que f est différentiable en x̄ et
convexe sur Rn . S’il existe λ ∈ Rm , tel que

∇f (x̄) + AT λ = 0,

alors, x̄ est un minimum global de (P).


Les résultats des Théorèmes 4.5 et 4.6 entraînent le résultat suivant.

Corollaire 4.2 (Conditions nécessaires et suffisantes d’optimalité) Soit x̄ ∈


C. Supposons que f est convexe et différentiable en x̄ et que rgA = m. Alors,
x̄ est un minimum global de (P) si et seulement si il existe λ ∈ Rm , tel que

∇f (x̄) + AT λ = 0.
34 CHAPTER 4. CONDITIONS D’OPTIMALITÉ

4.3 Contraintes d’Egalités non Linéaires


Considérons le problème de minimisation suivant

(P) : Min f (x)


x∈Rn
h(x)=0

où f : Rn → R, et h = (h1 , ..., hm )T : Rn → Rm , hj : Rn → R, avec m ≤ n.


Posons n o
C = x ∈ Rn : h(x) = 0 .

Dans le cas où f et h sont différentiables on dit que (P) est un problème


différentiable.

Conditions Nécessaires d’Optimalité

Théorème 4.7 Soit x̄ ∈ C un minimum local de f sur C. Supposons que les


fonctions f et h sont continûment différentiables sur Rn , et que les vecteurs
gradients ∇h1 (x̄),...,∇hm (x̄), sont linéairement indépendants. Alors, il ex-
iste un unique vecteur λ = (λ1 , ..., λm )T ∈ Rm , tel que
m
X
∇f (x̄) + λi ∇hi (x̄) = 0.
i=1

Le vecteur λ = (λ1 , ..., λm )T est dit le vecteur multiplicateur de Lagrange


associé au problème (P) (les scalaires λi , i = 1, ..., m, sont aussi appelés les
multiplicateurs de Lagrange).

4.4 Contraintes d’Inégalités


Considérons le problème de minimisation suivant

(P) : min f (x)


x∈C

où f : Rn → R, C l’ensemble défini par

C = x ∈ Rn : gi (x) ≤ 0, i = 1, ..., m ,


et gi : Rn → R, des fonctions. Soit x̄ ∈ C. Si gi (x̄) = 0, on dit que la


contrainte gi est active ou saturée en x̄. On note par I(x̄) = {i ∈ {1, ..., m} :
gi (x̄) = 0}, l’ensemble des indices des contraintes gi , i = 1, ..., m, saturées
en x̄.

Remarque 4.3 Si les fonctions gi , i = 1, ..., m, sont convexes, alors


l’ensemble C est convexe (voir TD 1).
4.5. CONTRAINTES D’EGALITÉS ET D’INÉGALITÉS 35

Conditions Nécessaires d’Optimalité

Théorème 4.8 Soit x̄ un point réalisable minimum local de f sur C. Sup-


posons que les fonctions f , gi , i = 1, ..., m, sont de classe C 1 , et que l’une
des quatre conditions suivantes de qualification des contraintes est satisfaite
1) les fonctions gi , i = 1, ..., m, sont affines,
2) Condition de Slater : les fonctions gi , i = 1, ..., m, sont convexes et il
existe x0 ∈ Rn , tel que gi (x0 ) < 0, pour tout i = 1, ..., m,
3) {∇gi (x̄), i ∈ I(x̄)} est un système libre,
4) Condition de Mangasarian-Fromovitz

(MFCQ): ∃ d ∈ Rn \ {0} tel que h∇gi (x̄), di < 0, ∀ i ∈ I(x̄).

Alors, il existe λi ∈ R, i = 1, ..., m, tels que

i) ∇f (x̄) + m
P
i=1 λi ∇gi (x̄) = 0,

ii) λi gi (x̄) = 0, ∀ i = 1, ..., m (condition de complémentarité),

iii) λi ≥ 0, ∀ i = 1, ..., m.

Conditions Suffisantes d’Optimalité

Théorème 4.9 Supposons que les fonctions f , gi , i = 1, ..., m, sont con-


vexes et de classe C 1 . Soit x̄ un point réalisable de (P). S’il existe un vecteur
λ = (λ1 , ..., λm )T ∈ Rm , tel que les conditions de Kuhn-Tucker i), ii) et iii)
ci-dessus sont satisfaites, alors x̄ est un minimum global de f sur C.

4.5 Contraintes d’Egalités et d’Inégalités


Considérons le problème de minimisation suivant

(P) : min f (x),


x∈C

où n o
C = x ∈ Rn : g(x) ≤ 0, h(x) = 0 ,

f : Rn → R, g = (g1 , ..., gm )T : Rn → Rm , et h = (h1 , ..., hl )T : Rn → Rl ,


des fonctions avec ` < n. Si les fonctions f , g et h sont différentiables, on dit
que le problème (P) est différentiable.

Remarque 4.4 Si les fonctions gi , i = 1, ..., m, sont convexes, et les fonc-


tions hj , j = 1, ..., l, sont affines, alors l’ensemble C est convexe (voir TD
6).

Posons I = {1, ..., m} et J = {1, ..., `}. Alors, on a le théorème suivant.


36 CHAPTER 4. CONDITIONS D’OPTIMALITÉ

Théorème 4.10 (Conditions nécessaires d’optimalité de Kuhn-Tucker) Soit


x̄ ∈ C un minimum local de (P). Supposons que les fonctions f , et gi ,
i ∈ I, sont de classe C 1 et que les fonctions hj , j = 1, ..., l, avec l < n,
sont continûment différentiables sur Rn . Si de plus, la condition suivante de
qualification des contraintes (MFCQ) (condition de Mangasarian-Fromovitz)
est satisfaite en x̄:
1) ∃ d ∈ Rn \ {0}/ h∇gi (x̄), di < 0, ∀ i ∈ I(x̄), h∇hj (x̄), di = 0, ∀ j ∈ J,
2) les gradients ∇h1 (x̄), ..., ∇h` (x̄), sont linéairement indépendants,
alors, il existe α = (α1 , ..., αm )T et β = (β1 , ..., β` )T , tels que
m
X `
X
i) ∇f (x̄) + αi ∇gi (x̄) + βj ∇hj (x̄) = 0,
i=1 j=1

ii) αi gi (x̄) = 0, ∀ i ∈ I (condition de complémentarité),


iii) αi ≥ 0, ∀ i ∈ I.
Les vecteurs α et β sont appelés les multiplicateurs de Lagrange (ou de
Lagrange-Kuhn-Tucker) associés au problème (P) ou associés respectivement
aux contraintes d’égalités et d’inégalités.

Remarque 4.5 La condition de Mangasarian-Fromovitz ne peut être sat-


isfaite si ` = n. En effet dans ce cas, puisque ∇h1 (x̄), ..., ∇h` (x̄), sont
linéairement indépendants, on a
n o n o
n
R = Vect ∇h1 (x̄), ..., ∇h` (x̄) = Vect ∇h1 (x̄), ..., ∇hn (x̄) ,

et donc le vecteur d est orthogonal aux vecteurs ∇h1 (x̄), ..., ∇hn (x̄), qui for-
ment une base de Rn . Par conséquent d ∈ (Rn )⊥ = {0}.

Conditions Suffisantes d’Optimalité


Théorème 4.11 (Conditions suffisantes d’optimalité de Kuhn-Tucker) Soit
x̄ ∈ C un point réalisable de (P). Supposons que les fonctions f et g sont
convexes et de classe C 1 , et les fonctions hj , j = 1, ..., l, sont affines sur Rn .
Si x̄ satisfait les conditions suivantes dites de Kuhn-Tucker :
∃ (α, β) ∈ Rm × R` , α = (α1 , ..., αm )T , β = (β1 , ..., β` )T , tels que
m
X `
X
i) ∇f (x̄) + αi ∇gi (x̄) + βj ∇hj (x̄) = 0,
i=1 j=1

ii) αi gi (x̄) = 0, ∀i = 1, ..., m,


iii) αi ≥ 0, ∀ i = 1, ..., m,
alors, x̄ est un minimum global de (P).
4.6. CONDITIONS D’OPTIMALITÉ: CAS NON DIFFÉRENTIABLE 37

4.6 Conditions d’Optimalité: cas non Différentiable


Soient f : Rn → R, une fonction convexe et C un sous ensemble non vide
convexe de Rn . Dans cette section, on donne des conditions d’optimalité
dans le cas non différentiable pour les problèmes de minimisation suivants

(P1 ) : min f (x) et (P2 ) : min f (x).


x∈Rn x∈C

Ces conditions d’optimalité sont exprimées en fonction du cône normal et du


sous différentiel.

Théorème 4.12 Soit x̄ ∈ Rn . Alors, les propriétés suivantes sont équiva-


lentes

i) x̄ minimise f sur Rn , i.e., solution globale de (P1 ),

ii) 0 ∈ ∂f (x̄).

Théorème 4.13 Supposons que f et C sont convexes. Alors, les propriétés


suivantes sont équivalentes
i) x̄ minimise f sur C, i.e., solution globale de (P2 ),
ii) 0 ∈ ∂f (x̄) + NC (x̄),
où NC (x̄) désigne le cône normal à C en x̄.

Dans le cas où f est en plus différentiable, on a ∂f (x) = {∇f (x)}, et le


Théorème 4.13 donne alors le résultat suivant

Théorème 4.14 Supposons que f est convexe différentiable sur Rn et C


convexe. Alors, les propriétés suivantes sont équivalentes

i) f (x̄) = min f (x), i.e., x̄ minimise f sur C,


x∈C

ii) −∇f (x̄) ∈ NC (x̄).

Remarque 4.6 Si C est un ouvert de Rn (en particulier C = Rn ), ou


x̄ ∈ intC, alors NC (x̄) = {0} (voir chapitre 2), et donc la propriété ii) du
Théorème 4.14 devient ∇f (x̄) = 0.

Théorème 4.15 Soient f, f1 , ..., fk : Rn → R, des fonctions convexes. Con-


sidérons le problème
(P) : min f (x),
x∈C


k
\ n o
C= Ci et Ci = x ∈ Rn / fi (x) ≤ 0 , i = 1, ..., k.
i=1
38 CHAPTER 4. CONDITIONS D’OPTIMALITÉ

Supposons que ki=1 intCi 6= ∅. Un point x̄ ∈ C résout (P) si et seulement


T
si il existe α1 , ..., αk ∈ R, tels que
 Pk
 i) 0 ∈ ∂f (x̄) + i=1 αi ∂fi (x̄),
ii) αi fi (x̄) = 0, ∀ i = 1, ..., k,
iii) αi ≥ 0, ∀ i = 1, ..., k.

Remarque 4.7 Dans le cas où les fonctions fi , i = 1, ..., k, sont différen-


tiables et convexes, alors les conditions i), ii) et iii) du Théorème 4.15 de-
viennent  Pk
 i) ∇f (x̄) + i=1 αi ∇fi (x̄) = 0,
ii) αi fi (x̄) = 0, ∀ i = 1, ..., k,
iii) αi ≥ 0, ∀ i = 1, ..., k.

qui sont les conditions de Kuhn-Tucker dans le cas différentiable.


Chapter 5

Dualité Lagrangienne

5.1 Introduction
Soient f : Rn → R, g = (g1 , ..., gm )T : Rn → Rm , h = (h1 , ..., hl ) : Rn → Rl
des fonctions, et X un sous ensemble non vide de Rn . On considère le
problème de minimisation suivant

(P) : min f (x).


x∈X
g(x)≤0
h(x)=0

Posons
n o
C = x ∈ X / g(x) ≤ 0, h(x) = 0 .

Définition 5.1 1) La fonction L : Rn × Rm l


+ × R → R, définie par

L(x, λ, µ) = f (x) + λ> g(x) + µ> h(x)


m
X l
X
= f (x) + λi gi (x) + µj hj (x),
i=1 j=1

est appelée la fonction lagrangienne associée au problème (P), où λ =


(λ1 , ..., λm )> et µ = (µ1 , ..., µl )> .

2) Le problème dual lagrangien associé au problème (P) est le problème

(D) : max θ(λ, µ),


(λ,µ)∈Rm
+ ×R
l


n o
θ(λ, µ) = inf f (x) + λ> g(x) + µ> h(x)
x∈X
= inf L(x, λ, µ).
x∈X

39
40 CHAPTER 5. DUALITÉ LAGRANGIENNE

Le problème (P) est appelé problème primal, θ la fonction duale, et λ


et µ les variables duales.

Définition 5.2 1) On dit que


i) les problèmes (P) et (D) sont en dualité faible si inf(P) ≥ sup(D),
ii) les problèmes (P) et (D) sont en dualité forte si inf(P) = sup(D),
et le dual (D) admet des solutions.
2) Le nombre ν = inf(P) − sup(D) est appelé le saut de dualité. Quand
(P) et (D) sont en dualité forte, on a ν = 0.

5.2 Etude de la Dualité Lagrangienne


Le recours à la dualité suppose que la résolution du problème dual (D) est
moins difficile que celle du problème primal (P). Dans section, on donne des
résultats sur la dualité faible et forte entre le problème primal (P) et son
dual (D). Ces résultats permettent de faire le lien entre les valeurs optimales
et les solutions des problèmes (P) et (D).

Dualité Faible
Théorème 5.1 (Dualité faible) On a
inf(P) ≥ sup(D),
i.e., les problèmes (P) et (D) sont en dualité faible. Donc, f (x) ≥ θ(λ, µ),
pour tous x ∈ C, et (λ, µ) ∈ Rm+ ×R.
l

Corollaire 5.1 1) s’il existe x̄ ∈ C, et (λ̄, µ̄) ∈ Rm l


+ × R , tels que

f (x̄) ≤ θ(λ̄, µ̄)


alors x̄ est solution de (P) et (λ̄, µ̄) solution de (D).
2) Si inf(P) = −∞, alors θ(λ̄, µ̄) = −∞, pour tout (λ, µ) ∈ Rm l
+ ×R.

Dualité Forte
Le théorème suivant donne des conditions assurant la dualité forte entre (P)
et son dual (D).
Théorème 5.2 (Dualité forte) Supposons que X est convexe, les fonctions
f et g sont convexes et les fonctions hj , j = 1, ..., m, sont affines. De plus,
on suppose que la condition suivante de qualification des contraintes (dite
condition de Slater) est satisfaite

 ∃x b ∈ X tel que gi (x̂) < 0, i = 1, ..., m et h(x̂) = 0,

0 ∈ int h(X),

5.2. ETUDE DE LA DUALITÉ LAGRANGIENNE 41
n o
où h(X) = h(x), x ∈ X . Alors

1) inf(P) = sup(D),

2) si de plus inf(P) est fini, alors sup(D) est atteint en un point (ū, v̄) ∈
Rm
+ ×R,
l

3) si inf(P) est atteint en un point x̄, alors,

ūT g(x̄) = 0.

Vous aimerez peut-être aussi