Optimisation Financiere
Optimisation Financiere
ESSEC
Licence 3
Ingénierie Economique et Financière
Optimisation Dynamique
Version α
Optimisation Dynamique
Mars 2023
General Introduction 4
0.1 présentation générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Sommaire
1.1 Quelques rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Conditions du premier et du second ordre . . . . . . . . . . . . . . . . . . 10
1.3 Optimisation sous contraintes prenant la forme d’équations : le Lagrangien 11
1.4 Optimisation sous contraintes prenant la forme d’inéquations . . . . . . 15
a c
det(A) = = ad − bc.
b d
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
☞ Si n ≥ 3, alors le déterminant de A := .. .. .. peut être développé
..
. . . .
an,1 an,2 · · · an,n
suivant n’importe quelle ligne i ∈ {1, . . . , n} :
X n
det(A) = (−1)i+j ai,j det(Ai,j ),
j=1
−1 0 2
0 f1′ f2′ ··· fn′
′ ′′ ′′ ′′
f1 f11 f12
· · · f1n
′′
H̄(x1 , x2 , . . . , xn ) := f2′ f21 ′′
f22 ′′
· · · f2n .
. . .. .. .
.. .. . . ..
′′
fn′ fn1 ′′
fn2 ′′
· · · fnn
!
1 1
Exemple 1.1. La matrice A = est définie positive. En effet, si t V = (x, y) est un
0 1
vecteur non nul alors
! !
t 1 0 x
V AV = (x, y) V = (x, y) = x2 + y 2 > 0.
0 1 y
!
1 1
Exemple 1.2. La matrice A = est semi-définie positive. En effet, si t V = (x, y) est un
1 1
vecteur alors
! !
t 1 1 x
V AV = (x, y) V = (x + y, x + y) = x2 + 2xy + y 2 = (x + y)2 ≥ 0.
1 1 y
!
−1 0
Exemple 1.3. La matrice A = est définie négative. En effet, si t V = (x, y) est un
0 −1
vecteur non nul alors
! !
t −1 0 x
V AV = (x, y) V = (−x, −y) = −x2 − y 2 < 0.
0 −1 y
!
−1 −1
Exemple 1.4. La matrice A = est semi-définie positive. En effet, si t V = (x, y)
−1 −1
est un vecteur alors
! !
t −1 1 x
V AV = (x, y) V = (−x − y, −x − y) = −x2 − 2xy − y 2 = −(x + y)2 ≤ 0.
1 −1 y
!
r t
Proposition 1.1. Soit A = une matrice carrée symétrique d’ordre 2.
t s
☞ Si det(A) > 0 et r > 0 (ou t > 0) alors A est définie positive.
☞ Si det(A) > 0 et r < 0 (ou t < 0) alors A est définie négative.
☞ Si det(A) = 0 et r > 0 (ou t > 0) alors A est semi-définie positive.
☞ Si det(A) = 0 et r < 0 (ou t < 0) alors A est semi-définie négative.
☞ Si det(A) < 0 alors A n’est ni (semi-)définie positive ni (semi-)définie négative.
∂f (x∗ )
= 0, ∀i = 1, . . . ,n.
∂xi
On dit alors que toute solution de P est un point critique de f . Les solutions doivent donc
être cherchées parmi les points critiques de f .
max f (x)
(1.2) x .
s.c. g(x) = c
Définition 1.12
On appelle matrice hessienne bordée du Lagrangien la matrice symétrique des dérivées
partielles secondes de L par rapport à xi bordée par les dérivées partielles premières de la
fonction contrainte g :
∂g(x) ∂g(x)
· · · ∂g(x)
0 ∂x1 ∂x2 ∂xn
∂g(x) ∂ 2 L (x) ∂ 2 L (x)
· · · ∂∂xL1 x(x)
2
∂x1 ∂x 2 ∂x x
1 1 2 n
∂g(x) ∂ 2 L (x) ∂ 2 L (x) · · · ∂ 2 L (x)
(1.4) HL (x) := ∂x2 ∂x1 x2 ∂x2 2 ∂x2 xn .
. . . ..
. . . ..
. . . . .
∂g(x) ∂ 2 L (x) ∂ 2 L (x) 2 L (x)
max f (x)
(1.5) P: x .
s.c. g (x) = c
j j ∀j = 1, . . . m
Les variables λj ci-dessus sont appelées multiplicateurs de Lagrange associés aux m contraintes.
Définition 1.14
On appelle matrice hessienne bordée du Lagrangien, dans le cas de m contraintes, la ma-
trice symétrique des dérivées partielles secondes de L par rapport à xi bordée par les dérivées
partielles premières des m fonctions contraintes gj :
∂g1 (x) ∂g1 (x) ∂g1 (x)
0 0 ··· 0 ∂x1 ∂x2
· · · ∂xn
∂g2 (x) ∂g2 (x) ∂g2 (x)
··· · · ·
0 0 0 ∂x1 ∂x2 ∂xn
.. .. ... .. .. .. .. ..
. . . . . . .
∂g (x) ∂g (x) ∂g (x)
0 0 · · · 0 m
∂x1
m
∂x2
· · · m
∂xn
(1.7) HL (x) := ∂g1 (x) ∂g2 (x) ∂ 2 L (x) .
∂gm (x) ∂ 2 L (x) ∂ 2 L (x)
∂x1 ∂x1
· · · ∂x1 ∂x21 ∂x1 x2
· · · ∂x1 xn
∂g1 (x) ∂g2 (x) · · · ∂gm (x) ∂ L (x) ∂ L (x) · · · ∂ L (x)
2 2 2
∂x2 ∂x2 ∂x2 ∂x1 x2 ∂x22 ∂x2 xn
.
.. .. .
. .
. .. .. ..
vdots
. . . . . .
∂g1 (x) ∂g2 (x) ∂gm (x) ∂ 2 L (x) ∂ 2 L (x) ∂ 2 L (x)
∂xn ∂xn
· · · ∂xn ∂x1 xn ∂x2 xn
··· ∂x2
n
Remarque 1.2. ☞ Si f est concave et les λj gj sont convexes alors L est concave.
☞ Si f est convexe et les λj gj concaves alors L est convexe.
max f (x)
(1.8) P: x .
s.c. g (x) ≤ c ∀j = 1, . . . m
j j
Les variables λj ci-dessus sont appelées multiplicateurs de Lagrange associés aux m contraintes.
Les conditions du premier ordre que doit vérifier toute solution x∗ du programme
(1.8) sont légèrement modifiées par rapport au cas des contraintes prenant la forme d’équa-
tions, et portent le nom de « conditions de Kuhn et Tucker ». Elles ont notamment pour propriété
que le multiplicateur de Lagrange λj associé à la contrainte j est nul lorsque cette contrainte
n’est pas saturée à l’équilibre.
Remarque 1.3. En pratique, la résolution des conditions de Kuhn et Tucker est compliquée
par le fait qu’il faut envisager successivement toutes les configurations possibles : toutes les
contraintes sont saturées à l’équilibre, toutes sauf une, deux,..., aucune (tous les λ sont nuls à
l’équilibre). Pour trouver la bonne solution, il faut procéder par élimination, en montrant que
parmi l’ensemble de ces possibilités, certaines aboutissent à des contradictions.
Sommaire
2.1 Modèle de consommation optimale en temps discret . . . . . . . . . . . . 18
2.2 Modèle à horizon fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Modèle à horizon infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
où c(t) est la consommation de l’agent à la date t. La richesse de l’agent est alors entièrement
déterminée par le capital initiale et la politique de consommation :
t−1
X
X(t) = x − cs .
s=0
condition
∂u(t, ξ)
(2.2) uξ (t, 0+ ) := lim+ = +∞.
ξ→0 ∂ξ
La condition (2.2) est appelé condition d’Inada. Cette condition assure que tout plan de consom-
[0,T ) [0,T )
mation c situé sur le bord ∂R+ de R+ est dominé (au sens du critère U ) par un autre plan de
consommation situé à l’intérieur du domaine. On note A0 (x) l’ensemble des plans de consom-
[0,T )
mation c ∈ R+ tels que l’utilité U (c) est bien défini et vérifiant la contrainte de budget :
c̃ := c(t), t ∈
/ {t0 , t1 }, c̃(t0 ) := εx1 , c̃(t1 ) := (1 − ε)x1 .
Il est évident que le plan de consommation c̃ ∈ A0 (x). De plus, en utilisant la stricte concavité
de ξ 7→ u(t, ξ) et la condition d’Inada (2.2) on montre que
U (c̃) − U (c) = [u(t0 , εx1 ) − u(t0 , 0)] + [u(t1 , (1 − ε)x1 ) − u(t1 , 1)]
≥ εx1 [uξ (t0 , εx1 ) − uξ (t1 , (1 − ε)x1 )] > 0
pour ε assez petit. Ainsi le plan de consommation c̃ procure un niveau d’utilité strictement
supérieur à celui de c.
[0,T ]
A(x) := {c ∈ R+ ; ∥c∥1 ≤ x}.
Nous pouvons alors écrire la condition du premier ordre pour ce problème en oubliant la
contrainte de positivité des consommations ou, plus exactement, en remplaçant A(x) par son
intérieur dans la définition du problème (2.5). D’après le Théorème 1, le plan de consommation
optimal c∗ vérifie la condition du premier ordre :
∂U (c∗ (t))
= uξ (t, c∗ (t)) − uξ (T, X(T )) = 0,
∂c(t)
pour tout t = 0, . . . ,T − 1. Comme uξ (t, ·) est strictement décroissante et continue alors, elle
admet une inverse, disons I(t, ·). Si on suppose de plus que uξ (t, +∞) = 0 pour tout t =
0, . . . ,T − 1, la condition du premier ordre s’écrit
Preuve. En cours.
Observons que la fonction valeur du problème dynamique (2.6) est connue à la date termi-
nale :
V (T, x) = u(T, x).
Par conséquent, on peut déterminer toutes les fonctions V (t, x) par une
procédure itérative rétrograde en utilisant le principe de la programmation
dynamique.
pour tout t ≥ 1, où l’ensemble des plans de consommation admissibles est donné par :
On a évidemment V (x) = V (0, x). Le résultat suivant est basé essentiellement sur la forme
additive dans le temps de la fonction objectif et sur la propriété de concaténation de l’ensemble
des plans de consommation admissibles :
Preuve. En cours.
Exercice de cours 2.2
Considérer le cas de l’4.7.
Proposition 2.3. Soit v : N × R+ → R une solution de l’équation de la programmation
dynamique vérifiant :
T −1
!
X
lim v T, x − c(s) = 0 pour tout c ∈ A(x).
T →+∞
s=t
Alors v = V .
Preuve. Exercice.
Proposition 2.4. Soit c∗ un plan de consommation optimal pour le problème V (t, x) i.e. :
X
c∗ ∈ A(x) et V (t, x) = u(s, c∗ (s)).
s≥t
Preuve. En cours.
Sommaire
3.1 Formulation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Condition nécessaire d’optimalité . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Cas où l’état terminal n’est pas contraint à l’égalité : conditions de trans-
versalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Une condition suffisante d’optimalité . . . . . . . . . . . . . . . . . . . . 27
C(I, J, K) := {ξ ∈ Rn ; ξ i ≤ 0, ξ j ≥ 0, ξ k = 0}.
∂F (t, ξ, v)
Fv (t, ξ, v) :=
∂v
∂F (t, ξ, v)
Fξ (t, ξ, v) := .
∂ξ
d
Fv (t, x∗ (t), ẋ∗ (t)) = Fξ (t, x∗ (t), ẋ∗ (t)), ∀t ∈ [t0 , t1 ].
dt
Preuve. Exercice.
Remarque 3.1. L’équation d’Euler énoncée dans le Théorème 16 peut être étendue au cas où
1
le problème de maximisation est posé initialement sur l’ensemble plus large Cpm ([t0 , t1 ], Rn )
des fonctions de classe C 1 par morceaux.
´1
Exemple 3.1. Pour φ(x) := −1
x(t)2 [1 − ẋ(t)]2 dt, on considère le problème de minimisation
ϕ = inf φ(x)
x(−1) = 0 .
x(1) = 1
1
On vérifie que la fonction suivante est solution de ce problème sur Cpm ([−1, 1], R) :
1
Ainsi, la fonction valeur du problème de minimisation défini sur Cpm ([−1, 1], R) est nulle. Par
1
ailleurs, il est facile de construire une suite (xn ) dans C ([−1, 1], R)
telle que φ(xn ) → 0. Ceci montre que la fonction valeur du problème de
minimisation défini sur C 1 ([−1, 1], R) est également nulle. Cependant, le
1
problème n’admet pas de solution dans Cpm ([−1, 1], R).
(3.2) x(t0 ) = x0 .
x(t1 ) = x1
où ˆ t1
φ(x) := F (t, x(t), ẋ(t)dt.
t0
En particulier, en tout point t̃ où l’application t 7→ Fξ (t, x∗ (t), ẋ∗ (t)) est continu, l’équation
d’Euler locale est satifaite :
d
Fv (t̃, x∗ (t̃), ẋ∗ (t̃)) = Fx (t̃, x∗ (t̃), ẋ∗ (t̃)).
dt
I, J, K ⊂ {1, 2, . . . , n}.
des ensembles d’indices deux à deux disjoints. Remarquons immédiatement que la réunion
I ∪ J ∪ K peut être strictement incluse dans {1, 2, . . . , n}. On notera par (I ∪ J ∪ K)c le
complémentaire de I ∪ J ∪ K dans l’ensemble {1, 2, . . . , n}.
où ˆ t1
φ(x) := F (t, x(t), ẋ(t)dt.
t0
et on notera
L(x) := [I(x) ∪ J(x) ∪ K]c .
d
Fv (t, x∗ (t), ẋ∗ (t)) = Fx (t, x∗ (t), ẋ∗ (t)), ∀t ∈ [t0 , t1 ].
dt
´ t1
ϕ := inf F (t, x(t), ẋ(t)dt
x∈C 1 ([t0 ,t1 ],Rn ) t0
(3.4) x(t0 ) = x0 .
x(t1 ) − x1 ∈ C(I, J, K).
Théorème 19 –
Supposons que la fonction (ξ, v) 7→ F (t, ξ, v) est convexe pour tout t ∈ [t0 , t1 ]. Soit x̄
une fonction de C 1 ([t0 , t1 ], Rn ) vérifiant les contraintes du problème (3.4), l’équation d’Euler
locale, ainsi que les conditions de transversalité correspondantes. Alors x̄ est une solution du
problème (3.4).
Sommaire
4.1 Équation différentielle contrôlée . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Principe du maximum de Pontryagin . . . . . . . . . . . . . . . . . . . . 29
4.3 Contraintes sur l’état terminal du système . . . . . . . . . . . . . . . . . 30
4.4 Une condition suffisante d’optimalité . . . . . . . . . . . . . . . . . . . . 31
Définition 4.1
Soient f : [t0 , t1 ] × Rn × U → Rn une fonction continue et u une variable de contrôle dans
U. On dit que x est solution de (4.1) avec condition initiale x(t0 ) = x0 lorsque x vérifie (4.3).
Il s’en suit que toute solution de (4.1) est nécessairement continue et dérivable à gauche et
à droite de tout point t ∈ [t0 , t1 ], avec
Théorème 20 –
Soit f : [t0 , t1 ] × Rn × U → Rn une fonction continue, k−lipschitzienne par rapport à la
seconde variable, et de croissance linéaires, i.e
Alors, pour toute variable de contrôle u ∈ U, l’équation différentielle (4.1) admet une unique
solution vérifiant une condition initiale donnée x(t0 ) = x0 ∈ Rn .
Parmi les contraintes d’inégalité, il convient de distinguer celles qui sont saturées. On
notera alors pour tout x :
On note également
L(x) := [I(x) ∪ J(x) ∪ K].
Théorème 22 –
Supposons que les conditions du Théorème 21 soient vérifiées. Soit u∗ un contrôle optimal
pour le problème (4.4), et x∗ l’état contrôlé associé. Alors, il existe p : [t0 , t1 ] → Rn de classe
C 1 telle que pour tout t ∈ [t0 , t1 ] :
est convexe en ξ pour tout (t, π) ∈ [t0 , t1 ] × Rn . Alors la variable de contrôle u∗ est solution du
problème eqrefpb4.1.
´t
inf u∈U t01 F (t, xu (t), u(t))dt
(4.5) xu (t0 ) − x0 = 0 .
xu (t ) − x ∈ C(I, J, K)
1 1
Théorème 24 –
∗
Soit u∗ ∈ U et x∗ = xu l’état contrôlé associé. Supposons que x∗ vérifie les contraintes
du problème (4.5), ainsi que les conditions nécessaires du Théorème 22. On suppose de plus
que la fonction
H ∗ (t, ξ, π) := min H(t, ξ, ν, π).
ν∈U
est convexe en ξ pour tout (t, π) ∈ [t0 , t1 ] × Rn . Alors la variable de contrôle u∗ est solution du
problème (4.5).
est une fonction de classe C 1 , concave en (σ1 , σ2 ), et croissante par rapport à chacun de ses
arguments. Afin de simplifier l”analyse, on supposera que
∂U
= +∞ pour (σ1 , σ2 ) ∈ ∂R2+ .
∂σi
Exercice 4.2
On considère la fonction f définie sur R2 par f (x, y) = (x2 + y 2 )exp(−x). On admet
qu’elle est de classe C 2 sur R2 .
(1) Trouver les extrema locaux de f sur R2 .
(2) Montrer que f possède un minimum global sur R2 et qu’elle ne possède pas de maximum
global.
Exercice 4.3
Une firme (en situation de monopole) produit un unique bien qui peut être vendu à deux
clients a et b. Si la firme produit la quantité Qa d’unités de bien pour le client a, alors celui-ci
est disposé à payer le prix unitaire de 50 − 5Qa . Si la firme produit la quantité Qb d’unités de
bien pour le client b, alors celui-ci est disposé à payer le prix unitaire de 100 − 10Qb . Le coût
pour la firme de produire Q unités de bien est 90 + 20Q.
(1) Que représente la fonction Π définie sur R+ × R+ par l’expression ci-dessous ?
(2) Si la firme veut maximiser son profit, quelle quantité de bien doit-elle produire et vendre à
chaque client ? Calculer alors le profit maximal.
minimisation
´ t1
ϕ = inf F (t, x(t), ẋ(t))dt
x∈C 1 ([t0 ,t1 ,Rn ]) t0
(4.7) x(t0 ) = x0
x(t1 ) − x1 ∈ C(I, J, K)
(1) Rappeler les conditions nécessaire d’optimalité (ou équation d’Euler locale) pour (4.7).
(2) Rappeler l’équation d’Euler intégrale.
(3) Donner une condition suffisante d’optimalité pour (4.7).
avec des variables d’état contrôlées x := (y, k) définies par l’équation d’état :
Exercice 4.8
On considère l’équation d’état du système est linéaire en (x, u) :
où A et B sont deux fonctions définies sur [t0 , t1 ] et à valeurs respectivement dans M (n, R) et
M (n × p, R). Calculer la valeur du contrôle optimal du problème de Lagrange
´ t1
inf
u∈U t0
F (t, xu (t), u(t))dt
,
xu (t ) = x
0 0
M et N étant deux fonctions définies sur [t0 , t1 ] et à valeurs respectivement dans S ++ (n, R)
et S ++ (p, R) (ensemble des matrices symétriques semi définies positives de taille n et p).
Sommaire
4.5 Le problème de Ramsey (1928) . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6 Consommation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.7 Application du Maximum de Pontryagin . . . . . . . . . . . . . . . . . . 39
4.8 Règle de Keynes-Ramsey . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.9 La condition de transversalité . . . . . . . . . . . . . . . . . . . . . . . . 42
La production est réalisée à partir de cette main d’œuvre et du capital, Kt . Il n’y a pas de
progrès technique.
Le produit est soit consommé, soit investi :
Yt = F (Kt , Nt ) = Ct + K̇t .
u(cs ) ≥ 0, u′ ≥ 0, u′′ ≤ 0,
ˆ ∞
max U0 = u(ct )e−θt dt
ct 0
kt = f (kt ) − ct − nkt
k(0) = k0
∀tkt ≥ 0, ct ≥ 0
ˆ ∞
max U0 = u(ct )e−θt dt
ct 0
intègre aussi la contrainte mais en la multipliant par un prix implicite qui est similaire au mul-
tiplicateur de Lagrange. Mais ce multiplicateur varie avec le temps : µt .
On obtient alors le Hamiltonien associé à ce problème :
où k = f (kt ) − ct − nkt .
La variable µ est le prix implicite associé à la variable d’état k. Elle nous donne la valeur
marginale actualisée au moment 0 d’une unité de capital supplémentaire au moment t.
Il est souvent plus aisé de travailler avec la valeur marginale courante au moment t de cette
unité de capital :
λt := µt eθt ⇐⇒ µt = λte−θt
=⇒ λ̇ = µ̇eθt + θµeθt = µ̇eθt + θλ
Nous allons résoudre ce problème en négligeant les conditions de positivité sur k et c. Les
conditions nécessaires (et suffisantes étant données les propriétés de ces fonctions) seront alors
données par :
∂H
=0
∂c
dµ ∂H
:= µ̇ = −
dt ∂k
lim kt µt = 0.
t→∞
La première condition est une condition d’optimalité standard. La seconde conditions est
l’équation de mouvement du prix implicite µ. La dernière condition est la condition de trans-
versalité et nous allons la discuter un peu plus loin.
En tenant compte de la définition de H et en utilisant λ, ces conditions deviennent :
∂H
(4.11) = u′ (ct ) − λt = 0
∂c
⇐⇒ λt = u′ (c(t))
∂H θt
(4.12) λ̇ = − e + θλ
∂k
λ̇ = λ(n − f ′ (k) + θ)
(4.13) lim kt λt e−θt = lim kt u′ (ct )e−θt
t→∞ t→∞
= 0.
Les équations (4.11) et (4.12) peuvent être combinées pour éliminer le multiplicateur λ :
u′ (ct )
λ̇ = = u′ (ct )(n − f ′ (k) + θ)
dt
du′ (ct )/dt
=⇒ = n − f ′ (k) + θ
u′ (ct )
u′′ (ct )(dct /dt)
⇐⇒ = n − f ′ (k) + θ
u′ (ct )
′′
ct u (ct ) ċt
(4.14) ⇐⇒ = n − f ′ (k) + θ
u′ (ct ) ct
λ̇ = λ(n − f ′ (k) + θ)
′′
ct u ċt
⇐⇒ = n − f ′ (k) + θ
u′ ct
lim kλt e−θt = lim ku′ (ct )e−θt .
t→∞ t→∞
La première de ces conditions doit être vérifiée à tout point du sentier de consommation
optimal. On l’appelle la règle de Keynes ?Ramsey.
′
en t + 1 peut augmenter de dc(1+f
1+n
(k))
.
Cette consommation supplémentaire implique alors une croissance d’utilité en t + 1 (en
valeur actualisée en t) de :
1 dc(1 + f ′ (k))
u′ (ct+1 ) .
1+θ 1+n
Or, le long du sentier de consommation optimale, cette ré-allocation ne doit pas améliorer
(ni détériorer) le bien ?être globale :
1 dc(1 + f ′ (k))
u′ (ct )dc = u′ (ct+1 )
1+θ 1+n
1 1 + f ′ (k)
=⇒ u′ (ct ) = u′ (ct+1 )
1+θ 1+n
1 ′
u (ct+1 ) 1+n
⇐⇒ 1+θ ′ =
u (ct ) 1 + f ′ (k)
⇐⇒ T M St+1,t = T M STt+1,t .
où les indices envoient aux dates des consommations. Si le délais entre t et t + 1 est
suffisamment court, cette condition est équivalente à la condition (4.14).
La règle de Keynes ?Ramsey nous indique que la consommation augmente – reste constante
– diminue selon que le produit marginal du capital (net de la croissance de la population) est
plus – autant – moins élevé que le taux de préférence pour le présent.
Cela est assez intuitif : plus le produit marginal du capital est élevé par rapport au taux
de préférence pour le présent, plus est-il intéressant de réduire la consommation présente pour
profiter d’une consommation future plus élevée.
Si ce produit marginal est fort initialement, la consommation sera croissante dans le temps
sur le sentier optimal. Le rôle de l’élasticité de substitution (4.13) apparaît à ce niveau : plus
élevée est cette élasticité, plus facile il est de sacrifier la consommation présente pour profiter de
la consommation future et donc, pour un niveau excédentaire du produit marginal (par rapport
à la préférence pour le présent), plus fort est le taux de variation de la consommation.
On peut comprendre mieux la signification de cette contrainte si l’on considère notre pro-
blème avec un horizon fini : T .
Dans ce cas, si u′ (cT )e−θT était positive, il serait sous-optimal de terminer avec un stock de
capital positif car on pourrait améliorer le bien-être en consommant ce capital. Par conséquent,
on doit avoir sur le sentier optimal :
kT u′ (cT )e−θT = 0.
La condition à horizon infini peut être vue comme étant la limite de cette condition quand
T devient très grand.