0% ont trouvé ce document utile (0 vote)
302 vues23 pages

Optimisation par Rachid Ellaia

Ce document présente plusieurs exercices d'optimisation en géométrie. Le premier exercice consiste à minimiser une fonction sur un triangle isocèle. Le deuxième exercice cherche la hauteur d'une intersection entre une sphère et un cône. Le troisième exercice vise à inscrire un triangle maximal dans un cercle donné.

Transféré par

Reda
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
302 vues23 pages

Optimisation par Rachid Ellaia

Ce document présente plusieurs exercices d'optimisation en géométrie. Le premier exercice consiste à minimiser une fonction sur un triangle isocèle. Le deuxième exercice cherche la hauteur d'une intersection entre une sphère et un cône. Le troisième exercice vise à inscrire un triangle maximal dans un cercle donné.

Transféré par

Reda
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 1

OPTIMISATION

TRAVAUX DIRIGÉES

par
Rachid ELLAIA

Année scolaire 2018-2019

Exercice 1 : Applications à la géométrie


1o ) Dans IR2 , on considère un triangle isocèle ABC vérifiant
−→ −→
kABk = kACk.

Résoudre le programme mathématique sans contrainte suivant :


−−→ −−→ √ −−→
Minimiser f (M ) = kBM k + kCM k − 3kAM k


M ∈ IR2 .
2o ) Soit S l’intersection de la sphère d’équation

x2 + y 2 + z 2 = 1

et du cône d’équation
(x + 2z)2 + y 2 = z 2 .
Quelle est la hauteur de S, c’est-à-dire zmax − zmin ?
3o ) Etant donné un cercle C. Inscrire dans C un triangle dont la somme des côtés est maximale.
4o ) Chercher la distance maximale entre les deux points P1 et P2 , où P1 est un point de
l’ellipsoı̈de d’équation
2x2 + y 2 + 2z 2 − 8 = 0
et P2 est un point du plan d’équation

x + y + z − 10 = 0.
0
RACHID ELLAIA
2

5o ) Déterminer parmi les triangles ayant le même périmètre 2p, celui dont l’aire est maximale.
6o ) Déterminer à l’intérieur d’un triangle donné dont on connaı̂t l’aire A, le point P dont le
produit des distances aux trois côtés est maximum.
7o ) Soient v0 , v1 , · · · vl des vecteurs de IRn linéairement indépendants et
V = s.e.v {v1 , v2 , · · · vl } le sous-espace engendré par v1 , v2 , · · · vl . Montrer que la distance,
dV (v0 ), du vecteur v0 au sous-espace V est donnée par
r
det Al+1
dV (v0 ) = .
det Al
où Al+1 et Al sont des matrices carrées définies par
   
Al+1 = hvi , vj i 0≤i≤l et Al = hvi , vj i 1≤i≤l .
0≤j≤l 1≤j≤l

8o ) Soit H un hyperplan défini par

H = {x ∈ IRn : ha, xi + b = 0} a ∈ IRn , a 6= 0, b ∈ IR.

Calculer la fonction distance, dH , en un point x0 ∈ IRn .

Corrigé 2 : Applications à la géométrie 1o ) Quitte à faire un changement de repère, on

peut supposer que A = (0, −a) avec a > 0, B = (b, 0) et C = (−b, 0) avec b > 0.
La fonction f est évidemment continue et différentiable en tout point M ∈ R2 \ {A, B, C}. Les
inégalités triangulaires suivantes
−−→ −−→ −→ −−→ −−→ −→
kBM k ≥ kAM k − kABk et kCM k ≥ kAM k − kACk,

entraı̂nent
√ −−→ −→
f (M ) ≥ (2 − 3)kAM k − 2kABk.

On en déduit que f n’est pas majorée et


−→
−→ −−→ kABk
f (M ) > 2kABk = f (A) si kAM k > 4 √ .
2− 3
Cherchons alors le minimum de la fonction f sur la boule fermée de centre A et de rayon
−→
kABk
4 √ . Comme f (x, −y) > f (x, y) pour y > 0, le minimum est atteint en un point tel que
2− 3
y ≥ 0. Pour M ∈ IR2 \ {A, B, C}, on a
−−→ −−→ √ − −→
AM BM CM
∇f (M ) = −−→ + −−→ − 3 −−→ .
kAM k kBM k kCM k
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 3

Si M est un point minimum de la fonction f , alors soit M ∈ {A, B, C}, et même M ∈ {B, C}
à cause de −a < 0, soit ∇f (M ) = 0, c’est-à-dire
−−→ −−→ √ − −→
AM BM CM
−−→ + −−→ = 3 −−→ .
kAM k kBM k kCM k

En orientant IR2 de manière que le repère utilisé soit direct, alors


−−→ −−→ −−→ −−→ π
(∗) (M C, M A) = (M A, M B) = ε ( mod 2π) ε = ±1.
6
−−→ −−→
Si ε = −1, alors la relation (∗) entraı̂ne (M C, M B) = −π/3, c’est-à-dire que le point M
appartient à un arc contenu dans le demi-plan y < 0, ce qui est exclu, car le minimum est
atteint en un point tel que y ≥ 0. On se limite à ε = +1.

la relation (∗) est vérifiée par le point D = (0, 3b), situé dans le demi-plan y > 0 et tel que le
triangle BCD soit équilatéral, et la relation (∗) s’écrit

M ∈ C1 ∩ C2

où C1 et C2 sont les arcs d’extrémités (exclues) C et A d’une part, A et B d’autre part. Ces
arcs contenant l’un et l’autre le point D.

— Si b 6= 3a, C1 et C2 appartiennent à deux cercles distincts qui n’ont en commun que A
et D, et C1 ∩ C2 = {D}.

— Si b = 3a, C1 ∩ C2 est l’intersection Γ du cercle Ω circonscrit au triangle BCD et du
demi-plan y > 0. On a
√ √ √
f (B) = 2b − 3 a2 + b2 , f (D) = b − 3a.

On vérifie que

signe (f (B) − f (D)) = signe ( 3a − b).

[ < 2π , on a f (B) > f (D) et le minimum est atteint au seul point
1er cas : b < 3a, ou BAC
√ 3
D et vaut b − 3a.

2ème cas : b > 3a ou BAC[ > 2π , on a f (B) < f (D) et le minimum est atteint aux seuls
√ √ 3
points B et C et vaut 2b − 3 a2 + b2 .

[ = 2π , on a a ∈ Ω ( cercle circonscrit à BCD), et f (B) = f (D) = 0.
3ème cas : b = 3a ou BAC
3 −−→ −−→
A tout point M de l’arc Γ de Ω, on associe M B, colinéaire à CM et de même sens, tel que
−−→ −−→
kM P k = kM Bk, de telle sorte que
−→ √ −−→
f (M ) = kCP k − 3kAM k.

Remarquons que
−→ −→ −−→ −−→ π −→ −−→ −→ −−→
(P C, P B) = (M A, M B) = , (CB, CM ) = (AB, AM )
6
4

et on en déduit que les triangles CBP et ABM sont semblables. D’où


−→ −→
kCP k kBCk 2b √
−−→ = −→ = 2a = 3, et f (M ) = 0.
kAM k kBAk

Le minimum est alors atteint en tout point de l’arc Γ en ses extrémités B et C.


2o ) L’intersection de la sphère et du cône est un ensemble fermé borné; donc zmax et zmin
existent. Soit (x̄, ȳ, z̄) une solution du programme mathématique

 Extrémiser f (x, y, z) = z

sous les contraintes :


 2
x + y 2 + z 2 = 1, (x + 2z)2 + y 2 = z 2 .

Si (x̄, ȳ, z̄) est une solution de ce programme, alors des conditions d’optimalité de Karush-Kuhn-
Tuker, il en résulte que
0 2x̄ 2(x̄ + 2z̄)
 

det  0 2ȳ 2ȳ  = 0,


1 2z̄ 2(x̄ + 2z̄) − 2z̄
soit ȳz̄ = 0. La solution z̄ = 0 est exclue, donc ȳ = 0 et par suite x̄ = −z̄ ou x̄ = −3z̄. Les
solutions sont
1 1 3 1
(x̄, ȳ, z̄) = (± √ , 0, ∓ √ ), (± √ , 0, ∓ √ ).
2 2 3 10
D’où
2
zmax − zmin = √ .
10
3o ) Le problème s’exprime sous forme du programme mathématique suivant :

Maximiser f (x1 , x2 ) = kx1 − x2 k2 + kx1 − ek2 + kx2 − ek2




sous les contraintes : kx1 k2 = kx2 k2 = 1,

où e = (1, 0) et x1 , x2 ∈ IR2 . L’existence d’une solution optimale est assurée, car l’ensemble
des contraintes est compact et la fonction objectif est continue. Les conditions d’optimalité de
Karush-Kuhn-Tucker pour que le point (x̄1 , x̄2 ) soit une solution de ce programme s’écrivent :
Il existe µ1 , µ2 ∈ IR tels que
 ∂f
 (x̄1 , x̄2 ) + 2µ1 x̄1 = 0 ⇐⇒ (2 + µ1 )x̄1 = x̄2 + e
 ∂x1


∂f
(x̄ , x̄ ) + 2µ2 x̄2 = 0 ⇐⇒ (2 + µ2 )x̄2 = x̄1 + e
 ∂x2 1 2


kx̄1 k2 = kx̄2 k2 = 1.

Le système obtenu admet six solutions

x̄1 = x̄2 = e; x̄1 = e, x̄2 = −e; x̄1 = −e, x̄2 = e; x̄1 = x̄2 = −e;
√ √ √ √
1 3 1 3 1 3 1 3
x̄1 = (− , ), x̄2 = (− , − ) et x̄1 = (− , − ), x̄2 = (− , ).
2 2 2 2 2 2 2 2
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 5

Les deux dernières solutions vérifient les contraintes; par suite le maximum est atteint en ces
deux solutions. Le triangle ainsi obtenu est un triangle équilatéral.
4o ) Soit
E = {(x, y, z) ∈ IR3 : 2x2 + y 2 + 2z 2 − 8 = 0}.
Pour tout (x, y, z) ∈ E, on a
x2 + y 2 + z 2 ≤ 2x2 + y 2 + 2z 2 = 8,

donc la distance de l’origine à tout point de l’ellipsoı̈de E est inférieure à 2 2. Il s’ensuit du

fait que la distance de l’origine au plan d’équation x + y + z − 10 = 0 vaut 10 3, que l’ellipsoı̈de
E se trouve du même côté que l’origine par rapport au plan d’équation x + y + z − 10 = 0. Par
conséquent le problème proposé s’exprime sous forme du programme mathématique suivant:
( x + y + z − 10
Minimiser f (x, y, z) = √
3
sous le contrainte : 2x2 + y 2 + 2z 2 − 8 = 0
L’existence d’une solution est évidente. Si (x̄, ȳ, z̄) est un minimum de ce programme, alors les
conditions d’optimalité de Karush-Kuhn-Tucker s’écrivent : ∃µ ∈ IR tel que
 1
 − √ + 4µx̄ = 0
3



1


 − √ + 2µȳ

3
 1
− √ + 4µz̄



 23 2



2x̄ + ȳ + 2z̄ 2 − 8 = 0.
On trouve deux solutions
(x̄, ȳ, z̄) = (1, 2, 1) et (x̄, ȳ, z̄) = (−1, −2, −1).
Comme
√ √
f (1, 2, 1) = 6/ 3 < 14/ 3 = f (−1, −2, −1)
6
il en résulte que la distance minimale l d’un point de E au plan x + y + z = 10 vaut √ .
3
o
5 ) le problème s’exprime sous forme du programme mathématique suivant :
 Maximiser f (x, y, z) = p(p − x)(p − y)(p − z)

sous les contraintes :



x, y, z ≥ 0 et x + y + z − 2p = 0.
Si (x̄, ȳ, z̄) est une solution de ce programme, alors d’après Karush-Kuhn-Tucker il existe µ ∈ IR
et λ1 , λ2 , λ3 ≥ 0 tels que
−p(p − ȳ)(p − z̄) + µ + λ1 = 0



 −p(p − x̄)(p − ȳ) + µ + λ2 = 0



−p(p − x̄)(p − z̄) + µ + λ3 = 0

 x̄ + ȳ + z̄ − 2p

 = 0


λ1 x̄ = λ2 ȳ = λ3 z̄ = 0.
6

En constatant que f (2p/3, 2p/3, 2p/3) > 0 et si x̄ȳz̄ = 0 on a f (x̄, ȳ, z̄) ≤ 0, on en déduit que
λ1 = λ2 = λ3 = 0. Puisque p(p − x̄)(p − ȳ)(p − z̄) 6= 0, on a nécessairement x̄ = ȳ = z̄. Par
conséquent le triangle en question n’est autre que le triangle équilatéral dont chaque côté vaut
2p
.
3
6o ) Le problème revient à résoudre le programme mathématique suivant :

 Maximiser f (x, y, z) = xyz


sous les contraintes :



x, y, z ≥ 0 et ax + by + cz − 2A = 0
Le maximum existe car l’ensemble des contraintes est un compact et la fonction objectif est
continue. Si (x̄, ȳ, z̄) est une solution de ce problème, alors il existe µ ∈ IR et λ1 , λ2 , λ3 ≥ 0 tels
que
ȳz̄ + µa + λ1 = 0



 x̄z̄ + µb + λ2 = 0



x̄ȳ + µc + λ3 = 0




 ax̄ + bȳ + cz̄ = 0

λ1 x̄ = λ2 ȳ = λ3 z̄ = 0.
Comme f (x̄, ȳ, z̄) ≥ f (2A/3a, 2A/3b, 2A/3c) > 0, on déduit que λ1 = λ2 = λ3 = 0 et x̄ȳz̄ 6= 0.
Ce qui entraı̂ne que µax̄ = µbȳ = µc̄z̄. D’autre part, puisque x̄ȳz̄ 6= 0, on a µ 6= 0, par
conséquent ax̄ = bȳ = cz̄. Finalement on trouve
24 24 24
(x̄, ȳ, z̄) = ( , , ).
3a 3b 3c
7o ) On a
d2V (v0 ) = inf kx − v0 k2 .
x∈V

Comme V est le sous-espace engendré par v1 , · · · , vl , donc le calcul de d2V (v0 ) revient à résoudre
le programme mathématique sans contrainte suivant:
( l
Minimiser f (λ1 , · · · , λl ) = k λi vi − v0 k2
P
i=1
(λ1 , · · · , λl ) ∈ IRl .
l
λi vi − v0 k2 est strictement convexe et 0-coercive, donc le minimum
P
La fonction f : λ 7→ k
i=1
existe et est unique. On a
f (λ) = hAl λ, λi − 2hb, λi + c
avec    
Al = hvi , vj i 1≤i≤l , b = hv0 , v1 i, · · · , hv0 , vl i et c = hv0 , v0 i.
1≤j≤l

Soit¯λ le minimum unique de f (λ), on a

f 0 (¯λ) = 0 −→ Al¯λ − b = 0 −→¯λ = A−1


l b Al étant définie positive.
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 7

la valeur de d2V (v0 ) est


d2V (v0 ) = hv0 , v0 i − hb, A−1
l bi.

Développons maintenant la matrice Al+1 suivant la première colonne, on obtient


l
X
det Al+1 = hv0 , v0 i det Al + hv0 , vi i∆i
i=1

où ∆i = (−1)i+1 (A)i1 , (A)i1 étant le déterminant de la matrice obtenue à partir de Al+1 en
supprimant la ième ligne et la 1ère colonne.
Développons ensuite chaque déterminant ∆i , i = 1, · · · , l suivant la première ligne, on obtient
l
X
det Al+1 = hv0 , v0 i det Al + hv0 , vi ihv0 , vj i∆ij .
i,j=1

D’après la définition de la matrice inverse de la matrice Al , on a

det Al+1 = det Al (hv0 , v0 i − hb, A−1


l bi).

D’où
det Al+1
d2V (v0 ) = hv0 , v0 i − hb, A−1
l bi = ,
det Al
c’est-à-dire r
det Al+1
dV (v0 ) = .
det Al
8o ) On a
d2H (x0 ) = inf kx − x0 k2 .
x∈H

Le calcul de d2H (x0 ) revient à résoudre le programme mathématique suivant:

Minimiser kx − x0 k2


sous la contrainte : ha, xi + b = 0.


L’existence d’une solution optimale est assurée, car l’ensemble des contraintes est fermé et la
fonction objectif est 0-coercive. Les conditions d’optimalité de Karush-Kuhn-Tucker pour que
le point x̄ soit une solution optimale de ce programme s’écrivent : Il existe µ0 , µ1 ∈ IR non tous
nuls, tels que
µ0 ∇(k · −x0 k2 (x̄) + µ1 ∇(ha, ·i + b)(x̄) = 0


ha, x̄i + b = 0,
soit encore
2µ0 (x̄ − x0 ) + µ1 a = 0


ha, x̄i + b = 0.
Le multiplicateur µ0 est non nul, car sinon on aura a = 0, ce qui contredit l’hypothèse a 6= 0.
Posons µ0 = 1, alors
µ1 ha, x0 i + b
x̄ = x0 − a et µ1 = 2 ,
2 kak2
8

donc  ha, x i + b 
0
x̄ = x0 − a.
kak2
La fonction dH (x0 ) est alors égale à :

ha, x0 i + b
dH (x0 ) = kx̄ − x0 k = .
kak

Exercice 2 : Programmes différentiablesPour n ≥ 2, on considère le programme mathématique

suivant:
n
 1X 3
 Minimiser f (x) =
 x
3 i=1 i
(P) n n
x2i − n = 0.

 sous les contraintes : h (x) = P P
1 xi = 0, h2 (x) =
i=1 i=1
o
1 ) Etudier l’existence des solutions optimales du programme (P)
2) Montrer que tout point admissible de (P) vérifie la condition de régularité de Lagrange.
3o ) Trouver tous les points satisfaisant les conditions nécessaires d’optimalité de Karush-Kuhn-
Tucker du programme (P), et les multiplicateurs de Lagrange correspondants.
4o ) Déduire parmi les points satisfaisant les conditions nécessaires d’optimalité de Karush-
Kuhn-Tucker du programme (P), ceux qui sont des minimums globaux de (P).
Répondre aux mêmes questions que ci-dessus, lorsque le programme (P) a la forme suivante:
2n+1
1X 4

 Minimiser f (x) = 4


 xi n≥1
i=1
(P) sous les contraintes :
2n+1 2n+1 2n+1


 h (x) = P x = 0, h (x) = P x2 − 1 = 0, h (x) = P x3 = 0.

1 i 2 i 3 i
i=1 i=1 i=1

Corrigé 2 : Programmes différentiables1o ) Le programme (P) est un problème différentiable

car les fonctions f, h1 , h2 sont de classe C ∞ (IRn ). L’ensemble des contraintes

S = {x ∈ IRn : h1 (x) = 0, h2 (x) = 0}


q q
est un ensemble fermé borné. De plus il est non vide car ( 12 , − 12 , 0 · · · , 0) ∈ S. Donc
l’existence d’une solution optimale est assurée.
2o ) On a
1 2x1
   
. .
∇h1 (x) =  ..  , ∇h2 (x) =  ..  .
1 2xn
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 9

Soit x̄ un point admissible et montrons que ∇h1 (x̄) et ∇h2 (x̄) sont linéairement indépendants;
il suffit de montrer qu’il existe deux indices i, j ∈ {1, · · · , n} tels que x̄i − x̄j 6= 0. Supposons
au contraire que pour tout i, j ∈ {1, · · · , n}, i 6= j, on a xi − xj = 0, de la première contrainte
Pn
x̄i = 0, il résulte que x̄i = 0 pour tout i ∈ {1, · · · , n}, ceci contredit la deuxième contrainte.
i=1
D’où tout point admissible vérifie la condition de régularité de Lagrange.
3o ) Les conditions nécessaires d’optimalité de Karush-Kuhn-Tucker s’écrivent:
Il existe deux multiplicateurs de Lagrange µ1 , µ2 ∈ IR tels que

∇f (x̄) + µ1 ∇h1 (x̄) + µ2 ∇h2 (x̄) = 0




h1 (x̄) = 0, h2 (x̄) = 0,

donc pour tout i ∈ {1, · · · , n}

x̄2i + µ1 + 2µ2 x̄i = 0


(
n n
x̄i = 0, x̄2i − n = 0.
P P
i=1 i=1

n n
x̄2i +
P P
Donc (µ1 +2µ2 x̄i ) = 0, soit n+µ1 n = 0 ce qui donne µ1 = −1. Toutes les composantes
i=1 i=1
x̄i vérifient
x̄2i + 2µ2 x̄i − 1 = 0.

Deux possibilités se présentent :


– Soient toutes les composantes sont égales.
– Soit pour i, j ∈ {1, · · · , n}, on a x̄i x̄j = −1.
x̄2i − 1
De la seconde équation, on déduit que x̄i 6= 0 pour tout i ∈ {1, · · · , n}, donc µ2 = .
2x̄i
x̄21 − 1
Prenons par exemple µ2 = , il résulte de la seconde équation que
2x̄1

1
x̄i = x̄1 ou x̄i = − pour tout i ∈ {2, · · · , n}.
x̄1

1
Le point x̄ aura donc p composantes égales à x̄1 et (n − p) composantes égales à − . On a
x̄1
(n − p) px̄2 − (n − p) n
– h1 (x̄) = px̄1 − = 1 = 0, donc p = 2 .
x̄1 x̄1 x̄1 + 1
1 (n − p) 1 n(x̄21 − 1)
– f (x̄) = [px̄31 − ] = .
3 x̄31 3 x̄1
n 1
La fonction f (x̄1 ) = (x̄1 − ) n’est pas définie en 0, mais elle est partout croissante.
3 x1
Si x̄1 > 0, alors pour minimiser f , x̄1 doit être le plus proche possible de l’origine; puisque
n
x̄21 = − 1 ( n 6= p ) donc p doit être le plus grand possible, c’est-à-dire p = n − 1 et
p
10

1
x̄1 = √ . D’où la solution x̄ est de la forme
n−1
 1 
les n − 1 composantes égales à x̄1 = √
x̄ =  n − 1 .
1
la n ème composante est égale à −
x̄1
Si x̄1 < 0, alors comme ci-dessus, p doit être le plus petit possible, c’est-à-dire p = 1 et

x̄1 = − n − 1. Donc la solution optimale x̄ est de la forme
√ !
la première composante est égale à x̄1 = − n − 1
x̄ = 1 1 .
les autres composantes sont égales à − =√
x̄1 n−1
Conclusion :
Les solutions optimales du programme (P) sont de la forme :
1 !
n − 1 composantes égales à x̄1 = √
x̄ = √ n−1 .
une composante égale à − n − 1
La valeur optimale est égale à
n √ 1 n(n + 2)
f (x̄) = (− n − 1 + √ )=− √ .
3 n−1 3 n−1
Les multiplicateurs de Lagrange sont égaux à
3f (x̄)
µ1 = −1, µ2 = .
2n
1o ) Le programme
2n+1
1X 4

 Minimiser f (x) = 4


 xi n≥1
i=1
(P) sous les contraintes :
2n+1 2n+1 2n+1


 h (x) = P x = 0, h (x) = P x2 − 1 = 0, h (x) = P x3 = 0.

1 i 2 i 3 i
i=1 i=1 i=1

est un problème différentiable, car les fonctions f, h1 , h2 , h3 sont de classe C ∞ (IRn ). L’ensemble
des contraintes
S = {x ∈ IRn : h1 (x) = 0, h2 (x) = 0, h3 (x) = 0}
est un ensemble fermé borné. De plus il est non vide car
1 1 1 1
x̃ = ( √ , · · · √ , − √ , · · · , − √ , 0) ∈ S.
2n 2n 2n 2n
Donc l’existence d’une solution optimale est assurée.
2o ) On a  2
1
  
2x1
 3x1
. . . 
∇h1 (x) =  ..  , ∇h2 (x) =  ..  , ∇h3 (x) =  ..  .

1 2xn 3x2n
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 11

Soit x̄ un point admissible et montrons que ∇h1 (x̄), ∇h2 (x̄) et ∇h3 (x̄) sont linéairement
indépendants. Soient α1 , α2 , α3 ∈ IR tels que

α1 ∇h1 (x̄) + α2 ∇h2 (x̄) + α3 ∇h3 (x̄) = 0.

Pour tout i = 1, 2, · · · , 2n + 1, on a

(∗) α1 + 2α2 x̄i + 3α3 x̄2i = 0.

Multiplions l’équation (∗) par x̄i , on obtient

(∗∗) α1 x̄i + 2α2 x̄2i + 3α3 x̄3i = 0.

Additionnons maintenant chacune des équations (∗) et (∗∗) pour i variant de 1 à 2n + 1, on


obtient
(2n + 1)α1 + 2α2 × 0 + 3α3 = 0 et 2α2 = 0.
1
Si α1 6= 0 ou α3 6= 0, alors (∗) entraı̂ne (2n+1) = −3α3 et (∗∗) entraı̂ne x̄2i = c’est-à-dire
2n + 1
εi 2n+1
P
x̄i = √ , (εi = ±1). La contrainte h1 (x̄) = 0 entraı̂ne que εi = 0, impossible car
2n + 1 i=1
2n + 1 est impair. D’où
α1 = α2 = α3 = 0.
D’où tout point admissible vérifie la condition de régularité de Lagrange.
3o ) Les conditions nécessaires d’optimalité de Karush-Kuhn-Tucker s’écrivent:
Il existe trois multiplicateurs de Lagrange µ1 , µ2 , µ3 ∈ IR non tous nuls tels que
∇f (x̄) + µ1 ∇h1 (x̄) + µ2 ∇h2 (x̄) + µ3 ∇h3 (x̄) = 0


h1 (x̄) = 0, h2 (x̄) = 0, h3 (x̄) = 0,


donc pour tout i ∈ {1, · · · , 2n + 1}
( 3
x̄i + µ1 + 2µ2 x̄i + 3µ3 x̄2i = 0
2n+1
P 2n+1
P 2 2n+1
P 3
x̄i = 0, x̄i − 1 = 0, x̄i = 0.
i=1 i=1 i=1

Donc
2n+1
X  2n+1
X 
x̄3i + µ1 + 2µ2 x̄i + 3µ3 x̄2i = 0 et x̄4i + µ1 x̄i + 2µ2 x̄2i + 3µ3 x̄3i = 0
i=1 i=1

soit
2n+1
X
(2n + 1)µ1 + 3µ3 = 0 et x̄4i + 2µ2 = 0.
i=1

D’où, si x̄ est une solution optimale du programme (P), alors sa valeur optimale est égale à val
2n+1
1X 4 µ2
(P) = x̄i = −
4 i=1 2
12

Soit maintenant y1 , y2 , y3 les racines de l’équation x3 + 3µ3 x2 + 2µ2 x + µ1 = 0. Deux possibilités


se présentent:
— Les trois racines sont égales, dans ce cas on aura

x̄1 = x̄2 = · · · = x̄2n+1


2n+1 2n+1
x̄2i = 1.
P P
ceci n’est pas possible à cause des deux contraintes x̄i = 0 et
i=1 i=1
— Deux racines sont égales: Soient y1 , y2 les deux racines différentes et n1 , n2 leurs nombres de
2n+1
P 2n+1
P 3
multiplicité respectifs. Les deux contraintes x̄i = 0 et x̄i = 0 entraı̂nent n1 y1 + n2 y2 =
i=1 i=1
n1 y13 + n2 y23 = 0, donc y12 = y22 , soit y1 = −y2 . Ceci entraı̂ne que n1 = n2 , impossible car
n1 + n2 = 2n + 1 est impair. D’où les racines y1 , y2 , y3 sont différentes et vérifient

y1 + y2 + y3 = −3µ3 , y1 y2 + y1 y3 + y2 y3 = 2µ2 , y1 y2 y3 = −µ1


y1 y2 + y1 y3 + y2 y3
val (P) = − .
4
Soit ni le nombre des racines yi , i = 1, 2, 3. On a


 n1 + n2 + n3 = 2n + 1

n y + n y + n y = 0
1 1 2 2 3 3
(∗ ∗ ∗)

 n1 y1 + n2 y2 + n3 y32 = 1
2 2

n1 y13 + n2 y23 + n3 y33 = 0.

Si x̄ est une solution optimale, alors −x̄ est aussi une solution optimale, on suppose alors sans
perdre de généralité que les racines vérifient y1 < y2 ≤ 0 < y3 . Grâce à la relation (∗ ∗ ∗),
on a y1 + y3 ≤ 0. D’autre part, le nombre n3 ≤ n car sinon, on aura n ≥ n + 1 et par suite
n1 + n2 ≤ n < n3 . Dans ce cas
√ 3
p √ √ 3
n3 y3 = −n1 y1 − n2 y2 ≤3 n1 n2 n1 (y1 )3 + n(y2 )3 <3 n3 n3 y3 = n3 y3 . Contradiction.

1
Montrons que val P = .
8n
— Si y2 + y3 ≥ 0, alors

−y1 (y2 + y3 ) − y2 y3 y32


val (P) = = .
4 4(n1 y12 + n2 y22 + n3 y32 )

— Si y2 + y3 < 0, alors y32 + y2 y3 < 0 car y3 > 0, par suite

−y1 (y2 + y3 ) − y2 y3 −y2 y3 y2 y32


val (P) = ≥ > 3 = .
4 4 4 4(n1 y12 + n2 y22 + n3 y32 )

Or d’après la relation (∗ ∗ ∗), on a


√ q
n1 y 2 + n2 y 2 ≤ −n1 y1 − n2 y2 −n1 y13 − n2 y23 = n2 y32
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 13

donc
y32 1 1
val (P) ≥ 2 2 2
≥ ≥ ,
4(n1 y1 + n2 y2 + n3 y3 ) 8n3 8n
1 1
mais val (P ≤ f (x̃) = . D’où val (P) = . Les relations (∗), (∗∗) et (∗ ∗ ∗) entraı̂nent que
8n 8n
les solutions optimales du programme (P) sont de la forme
 1 
n composantes égales à √
 2n 
x̄ =  n composantes égales à − √1  .
 
2n
 
une composante égale à 0

Les multiplicateurs de Lagrange sont égaux à


1
µ1 = 0, µ2 = − , µ3 = 0.
4n
Exercice 3 : Exemple d’un programme primal-dualSoit a, b ∈ IR∗+ et m = (m1 , · · · , mn ) ∈

n
IR∗+ ×· · ·×IR∗+ tels que
P
mi = 1. Pour x ∈ IR+ ×· · ·×IR+ , on considère les fonctions suivantes:
i=1

n
X n
Y
f (x) = mi xi et g(x) = xm
i .
i

i=1 i=1

Soient les programmes mathématiques suivants:



Minimiser f (x)
(P)
sous la contrainte : x ∈ {x ∈ IR+ × · · · × IR+ : g(x) ≥ b}
et

Maximiser g(x)
(D)
sous la contrainte : x ∈ {x ∈ IR+ × · · · × IR+ : f (x) ≤ a}.

1o ) Etudier l’existence des extrémums de (P) et (D).


2o ) Ecrire les conditions nécessaires d’optimalité pour le programme (P) et trouver le minimum
de (P).
3o ) Ecrire les conditions nécessaires d’optimalité pour le programme (D) et trouver le maximum
de (D).
4o ) Montrer à l’aide de 2o ) et 3o ) que

∀x ∈ IR+ × · · · × IR+ : g(x) ≤ f (x)

avec égalité, si et seulement si x1 = · · · = xn . Est-il possible de retrouver 2o ) et 3o ) à l’aide de


4o )?
14

5o ) Applications:
(i) On souhaite réaliser une boı̂te à base rectangulaire ouverte sur le dessus, de surface S0 et
de volume maximal. Quelles sont ces dimensions?
(ii) Même question lorsque le volume est égal à V0 et de surface minimale.
Corrigé 4 : Exemple d’un programme primal-dual 1o ) Existence d’un minimum de (P):

l’ensemble des contraintes

S = {x ∈ IR+ × · · · × IR+ : g(x) ≥ b}

est fermé non vide, mais non borné. Montrons que la fonction f est 0-coercive. Soit M > 0
suffisamment grand tel que x21 + · · · + x2n ≥ M , donc
r r
M M
sup xi ≥ et f (x) ≥ inf mi .
i=1,···n n i=1,···,n n

Il en résulte que
lim f (x) = +∞.
kxk→+∞

D’où l’existence d’un minimum de la fonction f sur l’ensemble S.


Même raisonnement pour le programme (D).
2o ) Soit x̄ une solution du programme (P). D’après les conditions d’optimalité de Karush-
Kuhn-Tucker, il existe λ, λ1 , · · · , λn ≥ 0 tels que

 ∇f (x̄) − λ∇g(x̄) = 0

λ(g(x̄) − b) =0

λi x̄i =0 pour i = 1, · · · , n,

donc, pour tout i = 1, · · · , n, on a


g(x̄)
mi = λmi .
x̄i
Le point x̄ se trouve alors sur la droite

D = {(x1 , · · · , xn ) : x1 = · · · = xn }.

L’intersection de cette droite avec l’ensemble des contraintes {x ∈ IRn+ : g(x) ≥ b} est l’ensemble
{(k, · · · , k) : k ≥ b}. Or f (k, · · · , k) = k, donc le minimum de la fonction f sur l’ensemble
{x ∈ IRn+ : g(x) ≥ b} est atteint en (b, · · · , b) et la valeur optimale est égale à b.
3) De la même manière que 2o ), le maximum de la fonction g sur l’ensemble des contraintes
{x ∈ IRn+ : f (x) ≤ a} est atteint au point (a, · · · , a) et la valeur maximale de (D) est égale à a.
4o ) Il est clair que si x̄1 = · · · = x̄n , alors f (x̄) = g(x̄).
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 15

Réciproquement, soit x̄ ∈ IRn+ ne vérifiant pas x̄1 = · · · = x̄n ; posons


n
X
f¯ = mi x̄i = f (x̄),
i=1

alors d’après la question 3o ), la fonction g n’atteint pas son maximum f¯ sur l’ensemble {x ∈
IRn+ : f (x) ≤ f¯} au point x̄, donc g(x̄) < f¯ = f (x̄). Contradiction.
6o ) Applications
(i) Il s’agit de maximiser le volume V (x, y, z) = xyz sous les contraintes : x, y, z ≥ 0 et
xy + 2xz + 2yz = S0 . Considérons la transformation suivante:

X = xy, Y = 2xz, Z = 2yz.

On a
1 1 1 S0
X+ Y + Z= ,
3 3 3 3
D’après la question ci-dessus, on a:

S0 S0
X 1/3 Y 1/3 Z 1/3 ≤ i.e., XY Z ≤ ( )3 ,
3 3
1  S 0 3
avec égalité si et seulement si X = Y = Z. D’où le volume maximal est égal à . Le
2 3
maximum est atteint au point (x̄, ȳ, z̄) vérifiant

S0
x̄ȳ = 2x̄z̄ = 2ȳz̄ =
3
soit r r
S0 1 S0
x̄ = ȳ = et z̄ = .
3 2 3
(ii) Il s’agit de minimiser la fonction surface S(x, y, z) = xy+2yz +2xz sous les contraintes
x, y, z ≥ 0 et xyz = V0 . Considérons encore la transformation

X = xy, Y = 2xz, Z = 2yz.

De la question 4o ), il résulte que

X + Y + Z ≥ 3(4V0 )1/3 (XY Z = 4V0 )

donc, même raisonnement que (i), la surface minimale est égale à 3(2V0 )2/3 et le minimum est
atteint au point (x̄, ȳ, z̄):
1
x̄ = ȳ = (2V0 )2/3 , z̄ = (2V0 )1/3 .
2
Exercice 4 : Gestion de portefeuille On considère un univers de titres constitué de
16

deux titres risqués dont les rendements nets, les volatilités (écart-types), et les coefficients
de corrélation sont les suivants :

titres rend. espérés (%)volatilité (%) Actif 1 Actif 2 Actif 1 8 16 1

L’univers comprend également un actif monétaire supposé sans risque dont le rendement est
égal à 2%.
1o ) Déterminer la matrice variance covariance et écrire le programme qui permet de minimiser
le risque pour un rendement R̂ donné.
2o ) Déterminer l’ensemble des portefeuilles efficients de cet univers. Donner l’équation de la
frontière des portefeuilles efficients.
3o ). On suppose désormais que l’actif monétaire est risqué mais non corrélé avec les autres titres.
On note σ son écart-type. Calculer à nouveau l’ensemble des portefeuilles efficients. Quel sera
l’impact de l’écart type sur les choix optimaux de portefeuille ? Représenter graphiquement
l’impact du risque de l’actif monétaire sur la frontière des portefeuilles efficients en prenant
comme volatilité σ = 1%. Calculer une des ”bases de portefeuilles” (= deux portefeuilles ici)
que l’on doit combiner pour obtenir un portefeuille optimal.
4o ) On considère maintenant que l’univers de titres est constitué de trois titres risqués dont les
rendements nets, les volatilités (écart-types), et les coefficients de corrélation sont les suivants
:

titres rend. espérés (%)volatilité (%) Actif 1 Actif 2 Actif 3 Actif 1 10 16 1 −0

L’actif 3 représente l’actif monétaire.


On suppose que l’investisseur considéré a des préférences représentables par le critère espérance
- variance suivant:
γ
R̄p − σp2
2
où R̄p est l’espérance du portefeuille, σp sa variance (Attention les unités de Rp et de σp2 doivent
2

être homogènes).
4.1) Déterminer la matrice variance covariance et écrire le programme qui permet de minimiser
le risque pour un rendement R̂ donné.
4.2) Caractériser les portefeuilles optimaux (portefeuilles moyenne-variance efficients), puis cal-
culez le portefeuille optimal pour une aversion γ égale à 5 (avec un incrément unitaire).

Corrigé 4 : Gestion de portefeuille


La matrice de covariance est

−0.2
   
16 0 1 16 0
σ= (10−4 )
0 8 −0.2 1 0 8
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 17

et donc on obtient :
−25.6
 
256
σ= (10−4 )
−25.6 64
Les portefeuilles efficients sont donnés par la minimisation du risque sous la contrainte que le
rendement espéré excédentaire dépasse un certain niveau.
−25.6
  
 256 x1
 Minimiser σp = (x1 , x2 )
−25.6 64 x2


(P) sous les contraintes
  :
 R̄ = (x , x ) 8 ≥ R̂,


p 1 2
4
Le lagrangien associé à ce programme peut s’écrire

L(x1 , x2 , λ)) = σp + λ(R̂ − R̄p )

où λ est le multiplicateur associé à la contrainte du rendement.


Les conditions d’optimalité du premier ordre caractérisant les choix optimaux sont :

σ11 x1 + σ12 x2 = λR̄1
σ21 x1 + σ22 x2 = λR̄2
où λR̄j est le rendement espéré du titre j, σij la covariance entre le titre i et le titre j, σi2 la
variance du titre i. Sous forme matricielle, le système à vérifier est donc
   
x1 R̄1
σ =λ
x2 R̄2
Numériquement le système est donc
−25.6
    
256 x1 8
=λ .
−25.6 64 x2 4
Ce système (paramétré par λ) peut être résolu soit par la méthode de Cramer, soit en calculant
directement l’inverse de la matrice σ. Comme l’inverse de la matrice de covariance est
4.06910−3 1.627510−3
 
−1
σ =
1.627510−3 1.627510−2
4.06910−3 1.627510−3
    
x1 8

x2 1.627510−3 1.627510−2 4
   −2 
x1 3.906210

x2 7.812510−2
La contrainte de rendements excédentaire :

8x1 + 4x2 = R̂

nous donne la valeur de λ :

8(3.906 × 10−2 λ) + 4(7.81210−2 λ) = R̂ =⇒ λ = 1.6R̂


18

donc :
x1 = 1.6(3.906210−2 )R̂ = 0.0625R̂

x2 = 1.6(7.81210−2 )R̂ = 0.1250R̂.

Par conséquent :
x0 = 1 − 0.0625R̂ − 0.12500R̂ = 1 − 0.1875R̂

Le portefeuille risqué que doit détenir chaque agent est donc

x1 1 x2 2
z1 = = , z2 = =
x1 + x2 3 x1 + x2 3

Connaissant les quantités (paramétrées) des actifs risqués, on peut alors évaluer la variance :

−25.6
  
256 0.0625
σp2 2
= R̂ × (0.0625, 0.1250)
−25.6 64 0.1250

Dans l’espace volatilité (= écart-type) - rendement espéré, l’enveloppe des portefeuilles efficients
est donc donné par :
σp = 1.265|Rp − 2|

2o ) Si l’actif monétaire est risqué mais non corrélé alors :

16 0 0 1 −0.2 0 16 0 0
   

σ =  0 8 0   −0.2 1 0 0 8 0 
0 0 σ 0 0 1 0 0 σ

256 −25.6 0
 

σ =  −25.6 64 0 
0 0 σ2
Comme désormais la variance du portefeuille est définie par rapport à x0 , il n’est plus possible
de réduire comme auparavant le programme écrit plus haut. Le programme définissant le choix
optimal de portefeuille :


 Minimiser σp

 sous les contraintes :
(P)

 2x0 + 10x1 + 6x2 ≥ R̂,

x0 + x1 + x2 = 1

Les conditions d’optimalité du premier ordre assure l’existence de deux multiplicateurs de


Lagrange λ ≥ 0 et µ ∈ IR tels que

 256x1 − 25.6x2 = 10λ − µ


−25.6x1 + 64x2 = 6λ − µ

x0 σ 2 = 2λ − µ
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 19

ou sous forme matricielle


256 −25.6 0 x1 10 1
      
 −25.6 64 0   x2  = λ  6  − µ  1 
0 0 σ2 x0 2 1

En raison de la nullité des covariances entre l’actif monétaire et les autres, le système peut être
résolu par partie :
σ 2 x0 = 2λ − µ
−25.6
      
256 x1 10 1
=λ −µ
−25.6 64 x2 6 1
Comme à la première question, on peut notamment résoudre ce dernier système par la méthode
de Cramer ou en utilisant directement l’inverse de la matrice de covariance (déjà calculée plus
haut).      
x1 −1 10 −1 1
= λσ − µσ .
x2 6 1
Numériquement

4.069 × 10−3 1.6276 × 10−3 5.0456 × 10−2


      
−1 10 10
σ = =
6 1.6276 × 10−3 1.6276 × 10−2 6 0.11393
et
4.069 × 10−3 1.6276 × 10−3 5.6966 × 10−3
      
−1 1 1
σ = =
1 1.6276 × 10−3 1.6276 × 10−2 1 1.7904 × 10−2
Par conséquent en fusionnant les conditions obtenues pour x0 d’une part, et pour x1 et x2
d’autre part, on obtient l’expression suivante :

x1 5.0456 × 10−2 5.6966 × 10−3


     
 x2  = λ  0.11393  − µ  1.7904 × 10−2 
2 1
x0 σ2 σ2

Cette expression du portefeuille optimal est paramétré par λ et µ, lesquelles dépendent de


l’objectif R̂
Pour σ = 1%, l’ecriture précédente est donc

x1 5.0456 × 10−2 5.6966 × 10−3


     
 x2  = λ  0.11393  − µ  1.7904 × 10−2 
x0 2 1

Pour expliciter le portefeuille optimal en fonction de R̂, il convient d’utiliser les contraintes du
programme d’optimisation:

x1 x1
   

(10 6 2) x2 = R̂ et (1 1 1) x2  = 1
  
x0 x0
20

Comme :
x1
 

(10 6 2)  x2  = 5.1881λ − 2.1644µ


x0
et
x1
 

(1 1 1)  x2  = 2.1644λ − 1.0236µ = R̂
x0
le système à résoudre est :
5.1881λ − 2.1644µ = R̂


2.1644λ − 1.0236µ = 1
donc
λ = 1.6354R̂ − 3.4580


µ = 3.4580R̂ − 8.2889
En remplacant λ et µ par leurs expressions, on trouve le portefeuille solution en fonction du
rendement exigé
x1 6.2817 × 10−2 R̂ − 0.12726
   

xopt =  x2  =  0.12441R̂ − 0.24557  .


x0 −0.1872R̂ + 1.3729
La variance est alors

2
σopt = xTopt σxopt = 1.6356R̂2 − 6.9171R̂ + 8.2903.

L’enveloppe ainsi obtenue détermine l’ensemble de portefeuilles efficients, la partie supérieure


de l’enveloppe dont le premier portefeuille est celui de variance minimale.
2
∂σopt
= 0 ⇐⇒ 2(1.6356R̂) − 6.9171 = 0
∂ R̂
donc
R̂min = 2.1145%

et
2
σopt = 1.6356(2.1145)2 − 6.9171(2.1145) + 8.2903 = 0.97704.

4o ) Si l’atif monétaire est risqué, mais non corrélé, alors la matrice de covariance est

16 0 0 1 −0.2 0 16 0 0
   

σ =  0 8 0   −0.2 1 0   0 8 0  (10−4 )
0 0 1 0 0 1 0 0 1

256.0 −25.6 0.0


 

σ =  −25.6 64.0 0.0  (10−4 )


0.0 0.0 1
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 21

Le problème d’optimisation définissant le choix optimal de portefeuille est alors


γ 2
 Maximiser R̄p − 200 σp

(P) sous les contraintes :



x0 + x 1 + x2 = 1

(γ/200 et non γ/2 car les variances obtenues a l’aide de la matrice sont en 10−4 alors que les
rendements sont en 10−2 ). Le lagrangien du programme (P) s’écrit :
γ 2
L(x1 , x2 , x3 , µ) = R̄p − 104 σ − µ(x0 + x1 + x2 − 1)
200 p
(car la fonction objectif est à maximiser et donc le coût imputé en cas de violation de la
contrainte budgétaire µ.(x0 + x1 + x2 − 1) doit être retranché de ce ”gain” que l’on cherche à
maximiser).
Remarque 1: On observe que le lagrangien est assez proche par les termes qui le composent
(rendement espéré et variance du portefeuille, contrainte budgétaire) du lagrangien que l’on
utilise pour les portefeuilles efficients. La différence est ici que l’on se fixe le paramètre perme-
ttant de convertir la variance en rendement espéré (et inversement) λ et non le rendement à
atteindre. Les seules variables endogènes de ce programme sont donc les parts x0 , x1 , x2 et le
multiplicateur µ associé à la contrainte budgétaire. Avec le programme que l’on a ici, si l’on
voulait récupérer l’ensemble des portefeuilles moyenne-variance efficients, il suffirait ici de faire
varier le paramètre λ.
Les conditions d’optimilité du premier ordre s’écrivent
λ


 2 − 100 x0 − µ = 0
 10 − λ (256x − 25.6x ) − µ = 0

100 1 2
λ

 6 − 100 (25.6x1 − 64.0x2 ) − µ = 0

ou sous forme matricielle :


256.0 −25.6 0.0 x1 10 1
      
λ 
−25.6 64.0 0.0   x2  =  6  − µ  1 
100
0.0 0.0 1 x0 2 1

ou encore sous forme vectorielle


λ ~ − µ · ~1
σ·x=R
100
Le portefeuille x est donné par
100  −1 ~ 
x= σ · R − µσ −1 · ~1
λ
~ , σ −1 · ~1 sont les deux directions (vecteurs colonnes) que l’on doit suivre pour obtenir
où σ −1 · R
le portefeuille optimal. Une méthode de résolution consiste a :
22

1. calculer la matrice inverse σ −1 ;


~ et σ −1 · ~1;
2. calculer les deux directions σ −1 · R
3. déterminer la valeur de µ compatible avec la contrainte budgetaire pour la valeur de λ que
l’on se donne ;
4. reinjecter la valeur de µ dans l’expression de x.
Les calculs (par Excel par exemple ou matlab) nous donnent :

256.0 −25.6 0.0 −1 4.069 × 10−3 1.6276 × 10−3 0


   
 −25.6 64.0 0.0  =  1.6276 × 10−3 1.627610−2 0 
0.0 0.0 1 0.0 0.0 1.0

donc
5.0456 × 10−2
 

σ −1 · R~ =  0.11393 
2.0
5.6966 × 10−3
 

σ −1 · ~1 =  0.11393 × 10−2 
1.0
L’expression numérique de x est donc

5.0456 × 10−2 5.6966 × 10−3 i


   
100 h  0.11393  − µ  0.11393 × 10−2 
x=
λ
2.0 1.0

La contrainte budgétaire que l’on doit vérifier s’écrit alors :

(1, 1, 1)x = 1

donc
5.0456 × 10−2 5.6966 × 10−3 i
   
100 h
(1, 1, 1)x = (1, 1, 1)  0.11393  − µ(1, 1, 1)  0.11393 × 10−2 
λ
2.0 1.0

100  
= (2.1644 − 1.0236µ
λ
Aussi la valeur de µ (en fonction du paramètre λ) est

100  
2.1644 − 1.0236µ = 1
λ
par suite
µ = 2.1145 − 9.7694 × 10−3 λ
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 23

Le portefeuille optimal est alors

5.0456 × 10−2 5.6966 × 10−3 i


   
100 h
x= 0.11393  − (2.1145 − 9.7694 × 10−3 λ)  0.11393 × 10−2 
λ
2.0 1.0

Pour λ = 5, la valeur du multiplicateur est donc

µ = 2.1145 − 9.769410−3 (5) = 2.0657

et le portefeuille optimal a pour composition :

5.0456 × 10−2 5.6966 × 10−3 i


   
100 
h  
x= 0.11393  − 2.1145 − 9.7694 × 10−3 (5)  0.11393 × 10−2 
(5)
2.0 1.0

0.77378
 

x =  1.5389  .
−1.3131

Vous aimerez peut-être aussi