Optimisation par Rachid Ellaia
Optimisation par Rachid Ellaia
OPTIMISATION
TRAVAUX DIRIGÉES
par
Rachid ELLAIA
M ∈ IR2 .
2o ) Soit S l’intersection de la sphère d’équation
x2 + y 2 + z 2 = 1
et du cône d’équation
(x + 2z)2 + y 2 = z 2 .
Quelle est la hauteur de S, c’est-à-dire zmax − zmin ?
3o ) Etant donné un cercle C. Inscrire dans C un triangle dont la somme des côtés est maximale.
4o ) Chercher la distance maximale entre les deux points P1 et P2 , où P1 est un point de
l’ellipsoı̈de d’équation
2x2 + y 2 + 2z 2 − 8 = 0
et P2 est un point du plan d’équation
x + y + z − 10 = 0.
0
RACHID ELLAIA
2
5o ) Déterminer parmi les triangles ayant le même périmètre 2p, celui dont l’aire est maximale.
6o ) Déterminer à l’intérieur d’un triangle donné dont on connaı̂t l’aire A, le point P dont le
produit des distances aux trois côtés est maximum.
7o ) Soient v0 , v1 , · · · vl des vecteurs de IRn linéairement indépendants et
V = s.e.v {v1 , v2 , · · · vl } le sous-espace engendré par v1 , v2 , · · · vl . Montrer que la distance,
dV (v0 ), du vecteur v0 au sous-espace V est donnée par
r
det Al+1
dV (v0 ) = .
det Al
où Al+1 et Al sont des matrices carrées définies par
Al+1 = hvi , vj i 0≤i≤l et Al = hvi , vj i 1≤i≤l .
0≤j≤l 1≤j≤l
peut supposer que A = (0, −a) avec a > 0, B = (b, 0) et C = (−b, 0) avec b > 0.
La fonction f est évidemment continue et différentiable en tout point M ∈ R2 \ {A, B, C}. Les
inégalités triangulaires suivantes
−−→ −−→ −→ −−→ −−→ −→
kBM k ≥ kAM k − kABk et kCM k ≥ kAM k − kACk,
entraı̂nent
√ −−→ −→
f (M ) ≥ (2 − 3)kAM k − 2kABk.
Si M est un point minimum de la fonction f , alors soit M ∈ {A, B, C}, et même M ∈ {B, C}
à cause de −a < 0, soit ∇f (M ) = 0, c’est-à-dire
−−→ −−→ √ − −→
AM BM CM
−−→ + −−→ = 3 −−→ .
kAM k kBM k kCM k
M ∈ C1 ∩ C2
où C1 et C2 sont les arcs d’extrémités (exclues) C et A d’une part, A et B d’autre part. Ces
arcs contenant l’un et l’autre le point D.
√
— Si b 6= 3a, C1 et C2 appartiennent à deux cercles distincts qui n’ont en commun que A
et D, et C1 ∩ C2 = {D}.
√
— Si b = 3a, C1 ∩ C2 est l’intersection Γ du cercle Ω circonscrit au triangle BCD et du
demi-plan y > 0. On a
√ √ √
f (B) = 2b − 3 a2 + b2 , f (D) = b − 3a.
On vérifie que
√
signe (f (B) − f (D)) = signe ( 3a − b).
√
[ < 2π , on a f (B) > f (D) et le minimum est atteint au seul point
1er cas : b < 3a, ou BAC
√ 3
D et vaut b − 3a.
√
2ème cas : b > 3a ou BAC[ > 2π , on a f (B) < f (D) et le minimum est atteint aux seuls
√ √ 3
points B et C et vaut 2b − 3 a2 + b2 .
√
[ = 2π , on a a ∈ Ω ( cercle circonscrit à BCD), et f (B) = f (D) = 0.
3ème cas : b = 3a ou BAC
3 −−→ −−→
A tout point M de l’arc Γ de Ω, on associe M B, colinéaire à CM et de même sens, tel que
−−→ −−→
kM P k = kM Bk, de telle sorte que
−→ √ −−→
f (M ) = kCP k − 3kAM k.
Remarquons que
−→ −→ −−→ −−→ π −→ −−→ −→ −−→
(P C, P B) = (M A, M B) = , (CB, CM ) = (AB, AM )
6
4
Extrémiser f (x, y, z) = z
Si (x̄, ȳ, z̄) est une solution de ce programme, alors des conditions d’optimalité de Karush-Kuhn-
Tuker, il en résulte que
0 2x̄ 2(x̄ + 2z̄)
où e = (1, 0) et x1 , x2 ∈ IR2 . L’existence d’une solution optimale est assurée, car l’ensemble
des contraintes est compact et la fonction objectif est continue. Les conditions d’optimalité de
Karush-Kuhn-Tucker pour que le point (x̄1 , x̄2 ) soit une solution de ce programme s’écrivent :
Il existe µ1 , µ2 ∈ IR tels que
∂f
(x̄1 , x̄2 ) + 2µ1 x̄1 = 0 ⇐⇒ (2 + µ1 )x̄1 = x̄2 + e
∂x1
∂f
(x̄ , x̄ ) + 2µ2 x̄2 = 0 ⇐⇒ (2 + µ2 )x̄2 = x̄1 + e
∂x2 1 2
kx̄1 k2 = kx̄2 k2 = 1.
x̄1 = x̄2 = e; x̄1 = e, x̄2 = −e; x̄1 = −e, x̄2 = e; x̄1 = x̄2 = −e;
√ √ √ √
1 3 1 3 1 3 1 3
x̄1 = (− , ), x̄2 = (− , − ) et x̄1 = (− , − ), x̄2 = (− , ).
2 2 2 2 2 2 2 2
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 5
Les deux dernières solutions vérifient les contraintes; par suite le maximum est atteint en ces
deux solutions. Le triangle ainsi obtenu est un triangle équilatéral.
4o ) Soit
E = {(x, y, z) ∈ IR3 : 2x2 + y 2 + 2z 2 − 8 = 0}.
Pour tout (x, y, z) ∈ E, on a
x2 + y 2 + z 2 ≤ 2x2 + y 2 + 2z 2 = 8,
√
donc la distance de l’origine à tout point de l’ellipsoı̈de E est inférieure à 2 2. Il s’ensuit du
√
fait que la distance de l’origine au plan d’équation x + y + z − 10 = 0 vaut 10 3, que l’ellipsoı̈de
E se trouve du même côté que l’origine par rapport au plan d’équation x + y + z − 10 = 0. Par
conséquent le problème proposé s’exprime sous forme du programme mathématique suivant:
( x + y + z − 10
Minimiser f (x, y, z) = √
3
sous le contrainte : 2x2 + y 2 + 2z 2 − 8 = 0
L’existence d’une solution est évidente. Si (x̄, ȳ, z̄) est un minimum de ce programme, alors les
conditions d’optimalité de Karush-Kuhn-Tucker s’écrivent : ∃µ ∈ IR tel que
1
− √ + 4µx̄ = 0
3
1
− √ + 2µȳ
3
1
− √ + 4µz̄
23 2
2x̄ + ȳ + 2z̄ 2 − 8 = 0.
On trouve deux solutions
(x̄, ȳ, z̄) = (1, 2, 1) et (x̄, ȳ, z̄) = (−1, −2, −1).
Comme
√ √
f (1, 2, 1) = 6/ 3 < 14/ 3 = f (−1, −2, −1)
6
il en résulte que la distance minimale l d’un point de E au plan x + y + z = 10 vaut √ .
3
o
5 ) le problème s’exprime sous forme du programme mathématique suivant :
Maximiser f (x, y, z) = p(p − x)(p − y)(p − z)
En constatant que f (2p/3, 2p/3, 2p/3) > 0 et si x̄ȳz̄ = 0 on a f (x̄, ȳ, z̄) ≤ 0, on en déduit que
λ1 = λ2 = λ3 = 0. Puisque p(p − x̄)(p − ȳ)(p − z̄) 6= 0, on a nécessairement x̄ = ȳ = z̄. Par
conséquent le triangle en question n’est autre que le triangle équilatéral dont chaque côté vaut
2p
.
3
6o ) Le problème revient à résoudre le programme mathématique suivant :
Comme V est le sous-espace engendré par v1 , · · · , vl , donc le calcul de d2V (v0 ) revient à résoudre
le programme mathématique sans contrainte suivant:
( l
Minimiser f (λ1 , · · · , λl ) = k λi vi − v0 k2
P
i=1
(λ1 , · · · , λl ) ∈ IRl .
l
λi vi − v0 k2 est strictement convexe et 0-coercive, donc le minimum
P
La fonction f : λ 7→ k
i=1
existe et est unique. On a
f (λ) = hAl λ, λi − 2hb, λi + c
avec
Al = hvi , vj i 1≤i≤l , b = hv0 , v1 i, · · · , hv0 , vl i et c = hv0 , v0 i.
1≤j≤l
où ∆i = (−1)i+1 (A)i1 , (A)i1 étant le déterminant de la matrice obtenue à partir de Al+1 en
supprimant la ième ligne et la 1ère colonne.
Développons ensuite chaque déterminant ∆i , i = 1, · · · , l suivant la première ligne, on obtient
l
X
det Al+1 = hv0 , v0 i det Al + hv0 , vi ihv0 , vj i∆ij .
i,j=1
D’où
det Al+1
d2V (v0 ) = hv0 , v0 i − hb, A−1
l bi = ,
det Al
c’est-à-dire r
det Al+1
dV (v0 ) = .
det Al
8o ) On a
d2H (x0 ) = inf kx − x0 k2 .
x∈H
Minimiser kx − x0 k2
ha, x̄i + b = 0,
soit encore
2µ0 (x̄ − x0 ) + µ1 a = 0
ha, x̄i + b = 0.
Le multiplicateur µ0 est non nul, car sinon on aura a = 0, ce qui contredit l’hypothèse a 6= 0.
Posons µ0 = 1, alors
µ1 ha, x0 i + b
x̄ = x0 − a et µ1 = 2 ,
2 kak2
8
donc ha, x i + b
0
x̄ = x0 − a.
kak2
La fonction dH (x0 ) est alors égale à :
ha, x0 i + b
dH (x0 ) = kx̄ − x0 k = .
kak
suivant:
n
1X 3
Minimiser f (x) =
x
3 i=1 i
(P) n n
x2i − n = 0.
sous les contraintes : h (x) = P P
1 xi = 0, h2 (x) =
i=1 i=1
o
1 ) Etudier l’existence des solutions optimales du programme (P)
2) Montrer que tout point admissible de (P) vérifie la condition de régularité de Lagrange.
3o ) Trouver tous les points satisfaisant les conditions nécessaires d’optimalité de Karush-Kuhn-
Tucker du programme (P), et les multiplicateurs de Lagrange correspondants.
4o ) Déduire parmi les points satisfaisant les conditions nécessaires d’optimalité de Karush-
Kuhn-Tucker du programme (P), ceux qui sont des minimums globaux de (P).
Répondre aux mêmes questions que ci-dessus, lorsque le programme (P) a la forme suivante:
2n+1
1X 4
Minimiser f (x) = 4
xi n≥1
i=1
(P) sous les contraintes :
2n+1 2n+1 2n+1
h (x) = P x = 0, h (x) = P x2 − 1 = 0, h (x) = P x3 = 0.
1 i 2 i 3 i
i=1 i=1 i=1
Soit x̄ un point admissible et montrons que ∇h1 (x̄) et ∇h2 (x̄) sont linéairement indépendants;
il suffit de montrer qu’il existe deux indices i, j ∈ {1, · · · , n} tels que x̄i − x̄j 6= 0. Supposons
au contraire que pour tout i, j ∈ {1, · · · , n}, i 6= j, on a xi − xj = 0, de la première contrainte
Pn
x̄i = 0, il résulte que x̄i = 0 pour tout i ∈ {1, · · · , n}, ceci contredit la deuxième contrainte.
i=1
D’où tout point admissible vérifie la condition de régularité de Lagrange.
3o ) Les conditions nécessaires d’optimalité de Karush-Kuhn-Tucker s’écrivent:
Il existe deux multiplicateurs de Lagrange µ1 , µ2 ∈ IR tels que
h1 (x̄) = 0, h2 (x̄) = 0,
n n
x̄2i +
P P
Donc (µ1 +2µ2 x̄i ) = 0, soit n+µ1 n = 0 ce qui donne µ1 = −1. Toutes les composantes
i=1 i=1
x̄i vérifient
x̄2i + 2µ2 x̄i − 1 = 0.
1
x̄i = x̄1 ou x̄i = − pour tout i ∈ {2, · · · , n}.
x̄1
1
Le point x̄ aura donc p composantes égales à x̄1 et (n − p) composantes égales à − . On a
x̄1
(n − p) px̄2 − (n − p) n
– h1 (x̄) = px̄1 − = 1 = 0, donc p = 2 .
x̄1 x̄1 x̄1 + 1
1 (n − p) 1 n(x̄21 − 1)
– f (x̄) = [px̄31 − ] = .
3 x̄31 3 x̄1
n 1
La fonction f (x̄1 ) = (x̄1 − ) n’est pas définie en 0, mais elle est partout croissante.
3 x1
Si x̄1 > 0, alors pour minimiser f , x̄1 doit être le plus proche possible de l’origine; puisque
n
x̄21 = − 1 ( n 6= p ) donc p doit être le plus grand possible, c’est-à-dire p = n − 1 et
p
10
1
x̄1 = √ . D’où la solution x̄ est de la forme
n−1
1
les n − 1 composantes égales à x̄1 = √
x̄ = n − 1 .
1
la n ème composante est égale à −
x̄1
Si x̄1 < 0, alors comme ci-dessus, p doit être le plus petit possible, c’est-à-dire p = 1 et
√
x̄1 = − n − 1. Donc la solution optimale x̄ est de la forme
√ !
la première composante est égale à x̄1 = − n − 1
x̄ = 1 1 .
les autres composantes sont égales à − =√
x̄1 n−1
Conclusion :
Les solutions optimales du programme (P) sont de la forme :
1 !
n − 1 composantes égales à x̄1 = √
x̄ = √ n−1 .
une composante égale à − n − 1
La valeur optimale est égale à
n √ 1 n(n + 2)
f (x̄) = (− n − 1 + √ )=− √ .
3 n−1 3 n−1
Les multiplicateurs de Lagrange sont égaux à
3f (x̄)
µ1 = −1, µ2 = .
2n
1o ) Le programme
2n+1
1X 4
Minimiser f (x) = 4
xi n≥1
i=1
(P) sous les contraintes :
2n+1 2n+1 2n+1
h (x) = P x = 0, h (x) = P x2 − 1 = 0, h (x) = P x3 = 0.
1 i 2 i 3 i
i=1 i=1 i=1
est un problème différentiable, car les fonctions f, h1 , h2 , h3 sont de classe C ∞ (IRn ). L’ensemble
des contraintes
S = {x ∈ IRn : h1 (x) = 0, h2 (x) = 0, h3 (x) = 0}
est un ensemble fermé borné. De plus il est non vide car
1 1 1 1
x̃ = ( √ , · · · √ , − √ , · · · , − √ , 0) ∈ S.
2n 2n 2n 2n
Donc l’existence d’une solution optimale est assurée.
2o ) On a 2
1
2x1
3x1
. . .
∇h1 (x) = .. , ∇h2 (x) = .. , ∇h3 (x) = .. .
1 2xn 3x2n
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 11
Soit x̄ un point admissible et montrons que ∇h1 (x̄), ∇h2 (x̄) et ∇h3 (x̄) sont linéairement
indépendants. Soient α1 , α2 , α3 ∈ IR tels que
Pour tout i = 1, 2, · · · , 2n + 1, on a
Donc
2n+1
X 2n+1
X
x̄3i + µ1 + 2µ2 x̄i + 3µ3 x̄2i = 0 et x̄4i + µ1 x̄i + 2µ2 x̄2i + 3µ3 x̄3i = 0
i=1 i=1
soit
2n+1
X
(2n + 1)µ1 + 3µ3 = 0 et x̄4i + 2µ2 = 0.
i=1
D’où, si x̄ est une solution optimale du programme (P), alors sa valeur optimale est égale à val
2n+1
1X 4 µ2
(P) = x̄i = −
4 i=1 2
12
Si x̄ est une solution optimale, alors −x̄ est aussi une solution optimale, on suppose alors sans
perdre de généralité que les racines vérifient y1 < y2 ≤ 0 < y3 . Grâce à la relation (∗ ∗ ∗),
on a y1 + y3 ≤ 0. D’autre part, le nombre n3 ≤ n car sinon, on aura n ≥ n + 1 et par suite
n1 + n2 ≤ n < n3 . Dans ce cas
√ 3
p √ √ 3
n3 y3 = −n1 y1 − n2 y2 ≤3 n1 n2 n1 (y1 )3 + n(y2 )3 <3 n3 n3 y3 = n3 y3 . Contradiction.
1
Montrons que val P = .
8n
— Si y2 + y3 ≥ 0, alors
donc
y32 1 1
val (P) ≥ 2 2 2
≥ ≥ ,
4(n1 y1 + n2 y2 + n3 y3 ) 8n3 8n
1 1
mais val (P ≤ f (x̃) = . D’où val (P) = . Les relations (∗), (∗∗) et (∗ ∗ ∗) entraı̂nent que
8n 8n
les solutions optimales du programme (P) sont de la forme
1
n composantes égales à √
2n
x̄ = n composantes égales à − √1 .
2n
une composante égale à 0
n
IR∗+ ×· · ·×IR∗+ tels que
P
mi = 1. Pour x ∈ IR+ ×· · ·×IR+ , on considère les fonctions suivantes:
i=1
n
X n
Y
f (x) = mi xi et g(x) = xm
i .
i
i=1 i=1
5o ) Applications:
(i) On souhaite réaliser une boı̂te à base rectangulaire ouverte sur le dessus, de surface S0 et
de volume maximal. Quelles sont ces dimensions?
(ii) Même question lorsque le volume est égal à V0 et de surface minimale.
Corrigé 4 : Exemple d’un programme primal-dual 1o ) Existence d’un minimum de (P):
est fermé non vide, mais non borné. Montrons que la fonction f est 0-coercive. Soit M > 0
suffisamment grand tel que x21 + · · · + x2n ≥ M , donc
r r
M M
sup xi ≥ et f (x) ≥ inf mi .
i=1,···n n i=1,···,n n
Il en résulte que
lim f (x) = +∞.
kxk→+∞
∇f (x̄) − λ∇g(x̄) = 0
λ(g(x̄) − b) =0
λi x̄i =0 pour i = 1, · · · , n,
D = {(x1 , · · · , xn ) : x1 = · · · = xn }.
L’intersection de cette droite avec l’ensemble des contraintes {x ∈ IRn+ : g(x) ≥ b} est l’ensemble
{(k, · · · , k) : k ≥ b}. Or f (k, · · · , k) = k, donc le minimum de la fonction f sur l’ensemble
{x ∈ IRn+ : g(x) ≥ b} est atteint en (b, · · · , b) et la valeur optimale est égale à b.
3) De la même manière que 2o ), le maximum de la fonction g sur l’ensemble des contraintes
{x ∈ IRn+ : f (x) ≤ a} est atteint au point (a, · · · , a) et la valeur maximale de (D) est égale à a.
4o ) Il est clair que si x̄1 = · · · = x̄n , alors f (x̄) = g(x̄).
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 15
alors d’après la question 3o ), la fonction g n’atteint pas son maximum f¯ sur l’ensemble {x ∈
IRn+ : f (x) ≤ f¯} au point x̄, donc g(x̄) < f¯ = f (x̄). Contradiction.
6o ) Applications
(i) Il s’agit de maximiser le volume V (x, y, z) = xyz sous les contraintes : x, y, z ≥ 0 et
xy + 2xz + 2yz = S0 . Considérons la transformation suivante:
On a
1 1 1 S0
X+ Y + Z= ,
3 3 3 3
D’après la question ci-dessus, on a:
S0 S0
X 1/3 Y 1/3 Z 1/3 ≤ i.e., XY Z ≤ ( )3 ,
3 3
1 S 0 3
avec égalité si et seulement si X = Y = Z. D’où le volume maximal est égal à . Le
2 3
maximum est atteint au point (x̄, ȳ, z̄) vérifiant
S0
x̄ȳ = 2x̄z̄ = 2ȳz̄ =
3
soit r r
S0 1 S0
x̄ = ȳ = et z̄ = .
3 2 3
(ii) Il s’agit de minimiser la fonction surface S(x, y, z) = xy+2yz +2xz sous les contraintes
x, y, z ≥ 0 et xyz = V0 . Considérons encore la transformation
donc, même raisonnement que (i), la surface minimale est égale à 3(2V0 )2/3 et le minimum est
atteint au point (x̄, ȳ, z̄):
1
x̄ = ȳ = (2V0 )2/3 , z̄ = (2V0 )1/3 .
2
Exercice 4 : Gestion de portefeuille On considère un univers de titres constitué de
16
deux titres risqués dont les rendements nets, les volatilités (écart-types), et les coefficients
de corrélation sont les suivants :
L’univers comprend également un actif monétaire supposé sans risque dont le rendement est
égal à 2%.
1o ) Déterminer la matrice variance covariance et écrire le programme qui permet de minimiser
le risque pour un rendement R̂ donné.
2o ) Déterminer l’ensemble des portefeuilles efficients de cet univers. Donner l’équation de la
frontière des portefeuilles efficients.
3o ). On suppose désormais que l’actif monétaire est risqué mais non corrélé avec les autres titres.
On note σ son écart-type. Calculer à nouveau l’ensemble des portefeuilles efficients. Quel sera
l’impact de l’écart type sur les choix optimaux de portefeuille ? Représenter graphiquement
l’impact du risque de l’actif monétaire sur la frontière des portefeuilles efficients en prenant
comme volatilité σ = 1%. Calculer une des ”bases de portefeuilles” (= deux portefeuilles ici)
que l’on doit combiner pour obtenir un portefeuille optimal.
4o ) On considère maintenant que l’univers de titres est constitué de trois titres risqués dont les
rendements nets, les volatilités (écart-types), et les coefficients de corrélation sont les suivants
:
être homogènes).
4.1) Déterminer la matrice variance covariance et écrire le programme qui permet de minimiser
le risque pour un rendement R̂ donné.
4.2) Caractériser les portefeuilles optimaux (portefeuilles moyenne-variance efficients), puis cal-
culez le portefeuille optimal pour une aversion γ égale à 5 (avec un incrément unitaire).
−0.2
16 0 1 16 0
σ= (10−4 )
0 8 −0.2 1 0 8
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 17
et donc on obtient :
−25.6
256
σ= (10−4 )
−25.6 64
Les portefeuilles efficients sont donnés par la minimisation du risque sous la contrainte que le
rendement espéré excédentaire dépasse un certain niveau.
−25.6
256 x1
Minimiser σp = (x1 , x2 )
−25.6 64 x2
(P) sous les contraintes
:
R̄ = (x , x ) 8 ≥ R̂,
p 1 2
4
Le lagrangien associé à ce programme peut s’écrire
8x1 + 4x2 = R̂
donc :
x1 = 1.6(3.906210−2 )R̂ = 0.0625R̂
Par conséquent :
x0 = 1 − 0.0625R̂ − 0.12500R̂ = 1 − 0.1875R̂
x1 1 x2 2
z1 = = , z2 = =
x1 + x2 3 x1 + x2 3
Connaissant les quantités (paramétrées) des actifs risqués, on peut alors évaluer la variance :
−25.6
256 0.0625
σp2 2
= R̂ × (0.0625, 0.1250)
−25.6 64 0.1250
Dans l’espace volatilité (= écart-type) - rendement espéré, l’enveloppe des portefeuilles efficients
est donc donné par :
σp = 1.265|Rp − 2|
16 0 0 1 −0.2 0 16 0 0
σ = 0 8 0 −0.2 1 0 0 8 0
0 0 σ 0 0 1 0 0 σ
256 −25.6 0
σ = −25.6 64 0
0 0 σ2
Comme désormais la variance du portefeuille est définie par rapport à x0 , il n’est plus possible
de réduire comme auparavant le programme écrit plus haut. Le programme définissant le choix
optimal de portefeuille :
Minimiser σp
sous les contraintes :
(P)
2x0 + 10x1 + 6x2 ≥ R̂,
x0 + x1 + x2 = 1
−25.6x1 + 64x2 = 6λ − µ
x0 σ 2 = 2λ − µ
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 19
En raison de la nullité des covariances entre l’actif monétaire et les autres, le système peut être
résolu par partie :
σ 2 x0 = 2λ − µ
−25.6
256 x1 10 1
=λ −µ
−25.6 64 x2 6 1
Comme à la première question, on peut notamment résoudre ce dernier système par la méthode
de Cramer ou en utilisant directement l’inverse de la matrice de covariance (déjà calculée plus
haut).
x1 −1 10 −1 1
= λσ − µσ .
x2 6 1
Numériquement
Pour expliciter le portefeuille optimal en fonction de R̂, il convient d’utiliser les contraintes du
programme d’optimisation:
x1 x1
(10 6 2) x2 = R̂ et (1 1 1) x2 = 1
x0 x0
20
Comme :
x1
(1 1 1) x2 = 2.1644λ − 1.0236µ = R̂
x0
le système à résoudre est :
5.1881λ − 2.1644µ = R̂
2.1644λ − 1.0236µ = 1
donc
λ = 1.6354R̂ − 3.4580
µ = 3.4580R̂ − 8.2889
En remplacant λ et µ par leurs expressions, on trouve le portefeuille solution en fonction du
rendement exigé
x1 6.2817 × 10−2 R̂ − 0.12726
2
σopt = xTopt σxopt = 1.6356R̂2 − 6.9171R̂ + 8.2903.
et
2
σopt = 1.6356(2.1145)2 − 6.9171(2.1145) + 8.2903 = 0.97704.
4o ) Si l’atif monétaire est risqué, mais non corrélé, alors la matrice de covariance est
16 0 0 1 −0.2 0 16 0 0
σ = 0 8 0 −0.2 1 0 0 8 0 (10−4 )
0 0 1 0 0 1 0 0 1
(γ/200 et non γ/2 car les variances obtenues a l’aide de la matrice sont en 10−4 alors que les
rendements sont en 10−2 ). Le lagrangien du programme (P) s’écrit :
γ 2
L(x1 , x2 , x3 , µ) = R̄p − 104 σ − µ(x0 + x1 + x2 − 1)
200 p
(car la fonction objectif est à maximiser et donc le coût imputé en cas de violation de la
contrainte budgétaire µ.(x0 + x1 + x2 − 1) doit être retranché de ce ”gain” que l’on cherche à
maximiser).
Remarque 1: On observe que le lagrangien est assez proche par les termes qui le composent
(rendement espéré et variance du portefeuille, contrainte budgétaire) du lagrangien que l’on
utilise pour les portefeuilles efficients. La différence est ici que l’on se fixe le paramètre perme-
ttant de convertir la variance en rendement espéré (et inversement) λ et non le rendement à
atteindre. Les seules variables endogènes de ce programme sont donc les parts x0 , x1 , x2 et le
multiplicateur µ associé à la contrainte budgétaire. Avec le programme que l’on a ici, si l’on
voulait récupérer l’ensemble des portefeuilles moyenne-variance efficients, il suffirait ici de faire
varier le paramètre λ.
Les conditions d’optimilité du premier ordre s’écrivent
λ
2 − 100 x0 − µ = 0
10 − λ (256x − 25.6x ) − µ = 0
100 1 2
λ
6 − 100 (25.6x1 − 64.0x2 ) − µ = 0
donc
5.0456 × 10−2
σ −1 · R~ = 0.11393
2.0
5.6966 × 10−3
σ −1 · ~1 = 0.11393 × 10−2
1.0
L’expression numérique de x est donc
(1, 1, 1)x = 1
donc
5.0456 × 10−2 5.6966 × 10−3 i
100 h
(1, 1, 1)x = (1, 1, 1) 0.11393 − µ(1, 1, 1) 0.11393 × 10−2
λ
2.0 1.0
100
= (2.1644 − 1.0236µ
λ
Aussi la valeur de µ (en fonction du paramètre λ) est
100
2.1644 − 1.0236µ = 1
λ
par suite
µ = 2.1145 − 9.7694 × 10−3 λ
ECOLE MOHAMMADIA D’INGENIEURS OPTIMISATION 23
0.77378
x = 1.5389 .
−1.3131