0% ont trouvé ce document utile (0 vote)
327 vues43 pages

Optimisation Financiere

Ce document présente un cours sur l'optimisation dynamique, abordant des techniques mathématiques pour résoudre des problèmes d'optimisation statiques et dynamiques en économie. Il couvre des concepts tels que le Lagrangien, les conditions d'optimalité, et le principe du maximum de Pontryagin, tout en incluant des applications économiques. Le cours est structuré en plusieurs chapitres, chacun traitant d'aspects spécifiques de l'optimisation, avec des rappels théoriques et des exercices pratiques.

Transféré par

Nicaise
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
327 vues43 pages

Optimisation Financiere

Ce document présente un cours sur l'optimisation dynamique, abordant des techniques mathématiques pour résoudre des problèmes d'optimisation statiques et dynamiques en économie. Il couvre des concepts tels que le Lagrangien, les conditions d'optimalité, et le principe du maximum de Pontryagin, tout en incluant des applications économiques. Le cours est structuré en plusieurs chapitres, chacun traitant d'aspects spécifiques de l'optimisation, avec des rappels théoriques et des exercices pratiques.

Transféré par

Nicaise
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université de Douala

ESSEC

Licence 3
Ingénierie Economique et Financière

Optimisation Dynamique
Version α

Optimisation Dynamique

Dr. GUEMDJO KAMDEM BABEL R.


[email protected]

Mars 2023

Tout est logique


Table des matières

Table des matières iii

General Introduction 4
0.1 présentation générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1 Optimisation statique, Lagrangien et conditions de Kuhn et Tucker 6


1.1 Quelques rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Définitions préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Fonctions concaves, fonctions convexes . . . . . . . . . . . . . . . . . 10
1.2 Conditions du premier et du second ordre . . . . . . . . . . . . . . . . . . . . 10
1.3 Optimisation sous contraintes prenant la forme d’équations : le Lagrangien . . 11
1.3.1 Cas à une seule contrainte . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Cas de m contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Optimisation sous contraintes prenant la forme d’inéquations . . . . . . . . . . 15

2 Optimisation dynamique en temps discret 18


2.1 Modèle de consommation optimale en temps discret . . . . . . . . . . . . . . . 18
2.2 Modèle à horizon fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Modèle à horizon infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Calcul des variations 23


3.1 Formulation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Condition nécessaire d’optimalité . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Cas où l’état terminal n’est pas contraint à l’égalité : conditions de transversalité 25
3.4 Une condition suffisante d’optimalité . . . . . . . . . . . . . . . . . . . . . . . 27

4 Principe du maximum de Pontryagin 28


4.1 Équation différentielle contrôlée . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Principe du maximum de Pontryagin . . . . . . . . . . . . . . . . . . . . . . . 29
4.3 Contraintes sur l’état terminal du système . . . . . . . . . . . . . . . . . . . . 30
4.4 Une condition suffisante d’optimalité . . . . . . . . . . . . . . . . . . . . . . . 31

© Université de Douala 2023


ii
TABLE DES MATIÈRES Page iii sur 43

Fiche de Travaux Dirigés 34


4.5 Le problème de Ramsey (1928) . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6 Consommation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.7 Application du Maximum de Pontryagin . . . . . . . . . . . . . . . . . . . . . 39
4.8 Règle de Keynes-Ramsey . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.9 La condition de transversalité . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Dico, 2023 . Optimisation Dynamique


Introduction Generale

0.1 présentation générale


Le cours commence par rappeler se qu’est un programme d’optimisation, les problèmes
qui sont posés et les diverses applications que l’on peut y trouver en économie. Ensuite le pro-
blème de l’existence d’un optimum global est posé. un théorème d’existence est établi discuté
en détail. La caractérisation d’une solution (locale) est alors introduite progressivement (cas
d’une solution sans contraintes) puis le cas avec contraintes. Les notions de convexité sont in-
troduites et les liens que ces notions entretiennent avec la théorie d" l’optimisation proposée
précédemment est établi(notion d’optimum globale et d’unicité). Enfin le cours développe des
méthodes pour traiter des problèmes d’optimisation dynamique en temps continu (principe du
maximum de Pontryagin, la notion de multiplicateur dynamique est étudiée et comparé avec la
notion statique.)et en temps discret (équation de Bellman) des problèmes d’existence et d’uni-
cité des solutions sont discutées et des applications économiques sont données.

Objectifs Ce cours a pour objectif principal de présenter des techniques mathématiques


destinées à résoudre des problèmes d’optimisation statiques et dynamique en économie. La
première partie du cours est consacrée à des rappels d’optimisation statique sans contraintes et
sous contraintes d’égalité et d’inégalité auxquels s’ajoutent des approfondissements et des ap-
plications. d’un point de vue micro-économique, il consiste donc généralement à résoudre une
optimisation sous contraintes(l’objectif : trouver les valeurs des variables de décision qui maxi-
misent la fonction-objectif de l’agent). La deuxième partie du cours s’intéresse à l’optimisation
dynamique (calcul des variations et contrôle optimal en temps continu).

Plan du cours I)- Optimisation statique


1- Recherche d’extrema sans contrainte et sous contraintes. Les multiplicateurs de La-
grange. Théorème de Kuhn et Tucker.
2- Le Lagrangien généralisé.
II)- Optimisation Dynamique
1- Calcul des variations.
- Conditions nécessaires et conditions suffisantes d’optimalité, Équation d’Euler-Lagrange
- Applications : Problème de consommation-épargne,

© Université de Douala 2023


4
0.1. PRÉSENTATION GÉNÉRALE Page 5 sur 43

2- Contrôle Optimal Déterministe


- Conditions nécessaires et conditions suffisantes d’optimalité. Le principe du maximum
de pontryagin
3- Introduction du principe de la programmation dynamique.
Bibliographie :

☞ Demange G et Rochet J.C . Méthodes mathématiques de la finance. 3e edition Economica.


2005 ;
☞ Hayek N. et Leca J.P. Mathématiques pour l ?Économie. Analyse-Algèbre. 5e edition
Dunod. 2015
☞ Chiang A.C.(1992) : Elements of dynamic optimization, McGraw Hill ;
☞ Poudou J.C., Thomas L (2011), Optimisation pour l’analyse économique et les sciences
de gestion, De Boeck ;
☞ Kamien M., Schwartz N. (2012), Dynamic Optimization : The calculus of Variations and
Optimal Control in Economics and Management ; Dover

Dico, 2023 . Optimisation Dynamique


Chapitre Premier

O PTIMISATION STATIQUE , L AGRANGIEN ET CONDITIONS


DE K UHN ET T UCKER

D I˛ CO

Sommaire
1.1 Quelques rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Conditions du premier et du second ordre . . . . . . . . . . . . . . . . . . 10
1.3 Optimisation sous contraintes prenant la forme d’équations : le Lagrangien 11
1.4 Optimisation sous contraintes prenant la forme d’inéquations . . . . . . 15

Ce chapitre expose la méthode de résolution des programmes d’optimisation statique dans


le cas d’une fonction objectif multivariée. Les sections 1 et 2 donnent un certain nombre de
définitions et résultats préliminaires. Les sections suivantes exposent les méthodes de résolution
de programmes d’optimisation statique : optimisation sans contraintes (section 3), optimisation
sous contraintes prenant la forme d’équations (section 4), optimisation sous contraintes prenant
la forme d’inéquations (section 4).

1.1 Quelques rappels

1.1.1 Définitions préliminaires


Soit f : U → R une fonction de n variables (x1 , x2 , . . . , xn ) à valeurs réelles dont l’en-
semble de définition U constitue un sous-ensemble de Rn . On supposera toujours que f est
continue et deux fois différentiable. On notera fi′ la dérivée partielle de f par rapport à xi
∂f 2f
(fi′ = ∂x i
) ; n notera fij′′ la dérivée partielle seconde de f par rapport à xi et xj (fij′′ = ∂x∂i ∂xj
).
Soient une fonction à n variables f et H la hessienne de f .
Définition 1.1 Déterminant d’une matrice
Soit A une matrice carrés d’ordre n.
☞ Si n = 1 alors A = a est un réel et det(a) = a.
!
a c
☞ Si n = 2 alors ledterminantdeA := est défini par
b d

a c
det(A) = = ad − bc.
b d

© Université de Douala 2023


6
1.1. QUELQUES RAPPELS Page 7 sur 43

 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
 
☞ Si n ≥ 3, alors le déterminant de A :=   .. .. ..  peut être développé
.. 
 . . . . 
an,1 an,2 · · · an,n
suivant n’importe quelle ligne i ∈ {1, . . . , n} :
X n
det(A) = (−1)i+j ai,j det(Ai,j ),
j=1

où Ai,j est la matrice obtenue de A en supprimant la ligne i et la colonne j.

Exercice de cours 1.1 Calcul du déterminant


Calculer le déterminant de la matrice suivante en dévellopant suivant une ligne de vôtre
choix.  
2 1 3
A :=  1 −1 −2 .
 

−1 0 2

Définition 1.2 Mineurs principaux diagonaux


 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
 
Soit A :=  .
 .. ..  une matrice carrée d’ordre n. On appelle mineurs
.. 
 . . . . . 
an,1 an,2 · · · an,n
principaux diagonaux de A, les déterminants Di , i ∈ {1, 2, . . . , n} des matrice obtenues de A
en suprimant les n − i dernières lignes et les n − i dernières colonnes.
Exercice de cours 1.2 Mineurs principaux diagonaux
Calculer les mineurs principaux diagonaux de la matrice A de l’Exercice de cours 1.1.
Définition 1.3 Matrice hessienne
On appelle matrice hessienne H(x1 , x2 , . . . , xn ) de f la matrice des dérivées partielles
secondes de f évaluées au point (x1 , x2 , . . . , xn ) :
 
′′ ′′ ′′
f11 f12 · · · f1n
 ′′ ′′ ′′ 
 f21 f22 · · · f2n 
H(x1 , x2 , . . . , xn ) := 
 .. .. . . ..  .
 . . . .  
′′ ′′ ′′
fn1 fn2 · · · fnn

Définition 1.4 Matrice hessienne bordée


On appelle matrice hessienne bordée H̄(x1 , x2 , . . . , xn ) de f la matrice des dérivées par-
tielles secondes de f , bordée par la matrice des dérivées premières de f :

Dico, 2023 . Optimisation Dynamique


1.1. QUELQUES RAPPELS Page 8 sur 43

 
0 f1′ f2′ ··· fn′
 ′ ′′ ′′ ′′ 

 f1 f11 f12
 · · · f1n 
′′
H̄(x1 , x2 , . . . , xn ) :=  f2′ f21 ′′
f22 ′′ 
· · · f2n .

. . .. .. . 
 .. .. . . .. 
 
′′
fn′ fn1 ′′
fn2 ′′
· · · fnn

Exercice de cours 1.3


Déterminer la hessiènne et la héssiènne bordée de f (x, y) = 3xy − x3 − y 3 .
Exercice de cours 1.4
Déterminer la hessiènne et la héssiènne bordée de f (x, y, z) = x2 + 2y 2 + 3z 2 + 2xy + 2xz.

Définition 1.5 Matrice définie positive


Une matrice carrée A d’ordre n est dite définie positive lorsque pour tout vecteur colonne
non nulle V , on a
t
V AV > 0.

!
1 1
Exemple 1.1. La matrice A = est définie positive. En effet, si t V = (x, y) est un
0 1
vecteur non nul alors
! !
t 1 0 x
V AV = (x, y) V = (x, y) = x2 + y 2 > 0.
0 1 y

Définition 1.6 Matrice semi-définie positive


Une matrice carrée A d’ordre n est dite semi-définie positive lorsque pour tout vecteur
colonne V , on a
t
V AV ≥ 0.

!
1 1
Exemple 1.2. La matrice A = est semi-définie positive. En effet, si t V = (x, y) est un
1 1
vecteur alors
! !
t 1 1 x
V AV = (x, y) V = (x + y, x + y) = x2 + 2xy + y 2 = (x + y)2 ≥ 0.
1 1 y

Dico, 2023 . Optimisation Dynamique


1.1. QUELQUES RAPPELS Page 9 sur 43

Définition 1.7 Matrice définie négative


Une matrice carrée A d’ordre n est dite définie négative lorsque pour tout vecteur colonne
non nulle V , on a
t
V AV < 0.

!
−1 0
Exemple 1.3. La matrice A = est définie négative. En effet, si t V = (x, y) est un
0 −1
vecteur non nul alors
! !
t −1 0 x
V AV = (x, y) V = (−x, −y) = −x2 − y 2 < 0.
0 −1 y

Définition 1.8 Matrice semi-définie négative


Une matrice carrée A d’ordre n est dite semi-définie négative lorsque pour tout vecteur
colonne V , on a
t
V AV ≤ 0.

!
−1 −1
Exemple 1.4. La matrice A = est semi-définie positive. En effet, si t V = (x, y)
−1 −1
est un vecteur alors
! !
t −1 1 x
V AV = (x, y) V = (−x − y, −x − y) = −x2 − 2xy − y 2 = −(x + y)2 ≤ 0.
1 −1 y
!
r t
Proposition 1.1. Soit A = une matrice carrée symétrique d’ordre 2.
t s
☞ Si det(A) > 0 et r > 0 (ou t > 0) alors A est définie positive.
☞ Si det(A) > 0 et r < 0 (ou t < 0) alors A est définie négative.
☞ Si det(A) = 0 et r > 0 (ou t > 0) alors A est semi-définie positive.
☞ Si det(A) = 0 et r < 0 (ou t < 0) alors A est semi-définie négative.
☞ Si det(A) < 0 alors A n’est ni (semi-)définie positive ni (semi-)définie négative.

Plus généralement, nous avons le résultat suivant :

Proposition 1.2. Soit A une matrice carrée symétrique d’ordre n.


☞ La matrice A est définie positive si et seulement si ses n mineurs principaux diagonaux
Di sont tous strictement positifs.
☞ La matrice A est définie négative si et seulement si ses n mineurs principaux diagonaux
Di sont tous strictement négatifs.

Dico, 2023 . Optimisation Dynamique


1.2. CONDITIONS DU PREMIER ET DU SECOND ORDRE Page 10 sur 43

☞ La matrice A est semi-définie positive si et seulement si ses n mineurs principaux diago-


naux Di sont tous positifs ou nuls.
☞ La matrice A est semi-définie négative si et seulement si ses n mineurs principaux diago-
naux Di sont tous négatifs ou nuls.

1.1.2 Fonctions concaves, fonctions convexes


Définition 1.9 Fonction concave
On dit que f est concave lorsque H(x) est semi-définie négative pour tout x. Lorsque
H(x) est définie négative, on dit que f est strictement concave.
Définition 1.10 Fonction convexe
On dit que f est convexe lorsque H(x) est semi-définie positive pour tout x. Lorsque H(x)
est définie positive, on dit que f est strictement convexe.
Exercice de cours 1.5 Fonction strictement convexe
Montrer que la fonction f de l’Exercice de cours 1.4 est strictement convexe.

Proposition 1.3. Soit f une fonction à une variable.


☞ f concave si et seulement si f ′′ (x) ≤ 0, ∀x ∈ R.
☞ f ′′ (x) < 0, ∀x ∈ R =⇒ f strictement concave (attention : la réciproque n’est pas
nécessairement vraie).
☞ f convexe si et seulement si f ′′ (x) ≥ 0, ∀x ∈ R.
☞ f ′′ (x) > 0, ∀x ∈ R =⇒ f strictement convexe (attention : la réciproque n’est pas
nécessairement vraie).

On considère le problème de maximisation suivant :


(1.1) P: max f (x1 , x2 , . . . ,xn )
x1 ,x2 ,...,xn

Théorème 1 – Conditions du premier ordre


Si x∗ est une solution du problème de maximisation P alors

∂f (x∗ )
= 0, ∀i = 1, . . . ,n.
∂xi

On dit alors que toute solution de P est un point critique de f . Les solutions doivent donc
être cherchées parmi les points critiques de f .

1.2 Conditions du premier et du second ordre

Dico, 2023 . Optimisation Dynamique


1.3. OPTIMISATION SOUS CONTRAINTES PRENANT LA FORME D’ÉQUATIONS : LE LAGRANGIEN Page 11 sur 43

Théorème 2 – Conditions du second ordre pour un optimum local


Soit x∗ un point critique de f . Alors,
☞ si H(x∗ ) est définie négative alors x∗ est un maximum local ;
☞ si x∗ est un maximum local alors H(x∗ ) est semi-définie négative ;
☞ si H(x∗ ) est définie positive alors x∗ est un minimum local ;
☞ si x∗ est un minimum local alors H(x∗ ) est semi-définie positive.

Théorème 3 – Conditions suffisantes du second ordre pour un optimum global


Soit x∗ un point critique de f . Alors,
☞ si f est concave alors x∗ est un maximum global ;
☞ si f est convexe alors x∗ est minimum global ;

Exercice de cours 1.6 Problème de maximisation


Pour f (x, y) = 3xy − x3 − y 3 , résoudre le programme de maximisation

P: max f (x, y).


x,y

1.3 Optimisation sous contraintes prenant la forme d’équa-


tions : le Lagrangien
Dans cette section, nous considérons des problèmes d’optimisation sous contraintes.

1.3.1 Cas à une seule contrainte


On considère le problème de maximisation


 max f (x)
(1.2) x .
 s.c. g(x) = c

Définition 1.11 Lagrangien


On appelle Lagrangien du problème (1.2) la fonction suivante :
(1.3) L (x, λ) = f (x) − λ(g(x) − c).

Dico, 2023 . Optimisation Dynamique


1.3. OPTIMISATION SOUS CONTRAINTES PRENANT LA FORME D’ÉQUATIONS : LE LAGRANGIEN Page 12 sur 43

La variable λ ci-dessus est appelée multiplicateur de Lagrange associé à la contrainte. Il


peut arriver qu’il ait des contraintes contradictoire avec le problème à résoudre. Le théorème
suivant donne une condition suffisante pour que cela n’arrive pas.

Théorème 4 – Conditions de qualification de la contrainte


Pour pouvoir utiliser le Lagrangien dans la résolution de (1.2), il suffit que l’une des condi-
tions suivantes soit vérifiée :
➀ La fonction contrainte g est linéaire.
➁ Les dérivées partielles de la fonction contrainte g évaluées à l’optimum x∗ ne sont pas
simultanément nulles.

Théorème 5 – Conditions du premier ordre


On suppose qu’une condition de qualification de la contrainte est vérifiée. Si le vecteur x∗
est une solution du problème de maximisation (1.2), alors il existe un unique λ tel que :

 ∂L (x∗ ,λ) = 0 ⇐⇒ ∂f (x∗ ) − λ ∂g(x∗ ) = 0 ∀i = 1, . . . ,n
∂xi xi xi
.
 ∂L (x∗ ,λ) = 0 ⇐⇒ g(x∗ ) = c
∂λ

Définition 1.12
On appelle matrice hessienne bordée du Lagrangien la matrice symétrique des dérivées
partielles secondes de L par rapport à xi bordée par les dérivées partielles premières de la
fonction contrainte g :
∂g(x) ∂g(x)
· · · ∂g(x)
 
0 ∂x1 ∂x2 ∂xn
 ∂g(x) ∂ 2 L (x) ∂ 2 L (x)
· · · ∂∂xL1 x(x)
2 
 ∂x1 ∂x 2 ∂x x

1 1 2 n
 ∂g(x) ∂ 2 L (x) ∂ 2 L (x) · · · ∂ 2 L (x) 
 
(1.4) HL (x) :=  ∂x2 ∂x1 x2 ∂x2 2 ∂x2 xn  .
 . . . .. 
 . . . ..
 . . . . . 

∂g(x) ∂ 2 L (x) ∂ 2 L (x) 2 L (x)

∂xn ∂x1 xn ∂x2 xn


· · · ∂ ∂x 2
n

Théorème 6 – Conditions suffisantes du second ordre pour un optimum local


Supposons qu’il existe un v qui vérifie les CPO.
➀ Si les n − 1 derniers mineurs principaux diagonaux de la matrice hessienne bordée du
Lagrangien HL évaluée à l’optimum sont alternativement positifs et négatifs, le dernier
d’entre eux (Dn+1 ) étant de même signe que (−1)n , alors v est un maximum local.

Dico, 2023 . Optimisation Dynamique


1.3. OPTIMISATION SOUS CONTRAINTES PRENANT LA FORME D’ÉQUATIONS : LE LAGRANGIEN Page 13 sur 43

➁ Si les n − 1 derniers mineurs principaux diagonaux de la matrice hessienne bordée du


Lagrangien HL évaluée à l’optimum sont tous négatifs, alors v est un minimum local.

Théorème 7 – Conditions suffisantes du second ordre pour un optimum global


Supposons qu’il existe un v qui vérifie les CPO.
➀ Si le Lagrangien L est une fonction concave alors v est un maximum global.
➁ Si le Lagrangien L est une fonction convexe alors v est un minimum global.

Remarque 1.1. ☞ Si f est concave et λg convexe alors L est concave.


☞ Si f est convexe et λg concave alors L est convexe.

Exercice de cours 1.7


Pour f (x, y) = xy et g(x, y) = x + y − 6, résoudre le problème de maximisation

 max f (x, y)
P: x,y
.
s.c. g(x) = 0

1.3.2 Cas de m contraintes


On considère le problème de maximisation


 max f (x)
(1.5) P: x .
 s.c. g (x) = c
j j ∀j = 1, . . . m

Définition 1.13 Lagrangien


On appelle Lagrangien du problème (1.5) la fonction suivante :
m
X
(1.6) L (x, λ) = f (x) − λj (gj (x) − cj ).
j=1

Les variables λj ci-dessus sont appelées multiplicateurs de Lagrange associés aux m contraintes.

Théorème 8 – Conditions de qualification de la contrainte


Pour pouvoir utiliser le Lagrangien dans la résolution de (1.5), il suffit que l’une des condi-
tions suivantes soit vérifiée :

Dico, 2023 . Optimisation Dynamique


1.3. OPTIMISATION SOUS CONTRAINTES PRENANT LA FORME D’ÉQUATIONS : LE LAGRANGIEN Page 14 sur 43

➀ Les fonctions contraintes gj sont toutes linéaires.


➁ La matrice jacobienne des fonctions contraintes gj évaluées en l’optimum v est de rang
m.

Théorème 9 – Conditions du premier ordre


On suppose qu’une condition de qualification de la contrainte est vérifiée. Si le vecteur v
est une solution du problème de maximisation (1.5), alors il existe un unique λ tel que :

 ∂L (v,λ) = 0 ⇐⇒ ∂f (v) − Pm λ ∂gj (v) = 0 ∀i = 1, . . . ,n
∂xi xi j=1 j xi
.
∂L (v,λj )

∂λ
= 0 ⇐⇒ g j (v) = c j ∀j = 1, . . . ,m

Définition 1.14
On appelle matrice hessienne bordée du Lagrangien, dans le cas de m contraintes, la ma-
trice symétrique des dérivées partielles secondes de L par rapport à xi bordée par les dérivées
partielles premières des m fonctions contraintes gj :
 ∂g1 (x) ∂g1 (x) ∂g1 (x)

0 0 ··· 0 ∂x1 ∂x2
· · · ∂xn
∂g2 (x) ∂g2 (x) ∂g2 (x) 
··· · · ·

 0 0 0 ∂x1 ∂x2 ∂xn 

 .. .. ... .. .. .. .. .. 

 . . . . . . . 
∂g (x) ∂g (x) ∂g (x) 
 
 0 0 · · · 0 m
∂x1
m
∂x2
· · · m
∂xn 
(1.7) HL (x) :=  ∂g1 (x) ∂g2 (x) ∂ 2 L (x)  .

∂gm (x) ∂ 2 L (x) ∂ 2 L (x)
 ∂x1 ∂x1
· · · ∂x1 ∂x21 ∂x1 x2
· · · ∂x1 xn 

 ∂g1 (x) ∂g2 (x) · · · ∂gm (x) ∂ L (x) ∂ L (x) · · · ∂ L (x) 
 2 2 2
 ∂x2 ∂x2 ∂x2 ∂x1 x2 ∂x22 ∂x2 xn 
 .
.. .. .
. .
. .. .. .. 
vdots
 . . . . . .  
∂g1 (x) ∂g2 (x) ∂gm (x) ∂ 2 L (x) ∂ 2 L (x) ∂ 2 L (x)
∂xn ∂xn
· · · ∂xn ∂x1 xn ∂x2 xn
··· ∂x2
n

Théorème 10 – Conditions suffisantes du second ordre pour un optimum local


Supposons qu’il existe un v qui vérifie les CPO.
➀ Si les n − m derniers mineurs principaux diagonaux de la matrice hessienne bordée du
Lagrangien HL évaluée à l’optimum sont alternativement positifs et négatifs, le dernier
d’entre eux (Dn+m ) étant de même signe que (−1)n , alors v est un maximum local.
➁ Si les n − m derniers mineurs principaux diagonaux de la matrice hessienne bordée du
Lagrangien HL évaluée à l’optimum sont tous strictement du même signe que (−1)m ,
alors v est un minimum local.

Dico, 2023 . Optimisation Dynamique


1.4. OPTIMISATION SOUS CONTRAINTES PRENANT LA FORME D’INÉQUATIONS Page 15 sur 43

Théorème 11 – Conditions suffisantes du second ordre pour un optimum global


Supposons qu’il existe un v qui vérifie les CPO.
➀ Si le Lagrangien L est une fonction concave alors v est un maximum global.
➁ Si le Lagrangien L est une fonction convexe alors v est un minimum global.

Remarque 1.2. ☞ Si f est concave et les λj gj sont convexes alors L est concave.
☞ Si f est convexe et les λj gj concaves alors L est convexe.

Exercice de cours 1.8


Pour f (x, y, z) = x2 + y 2 + z 2 , g1 (x, y, z) = x +2y + z − 1 et g2 (x, y, z) = 2x − y − 3z − 4,
résoudre le problème de maximisation


 max f (x, y, z)
 x,y,z

P: s.c. g1 (x, y, z) = 0 .



g2 (x, y, z) = 0

1.4 Optimisation sous contraintes prenant la forme d’inéqua-


tions
On considère le problème de maximisation


 max f (x)
(1.8) P: x .
 s.c. g (x) ≤ c ∀j = 1, . . . m
j j

Soit v une solution de ce problème. Pour chaque j = 1, . . . m, soit :


☞ gj (v) = cj , dans ce cas on dit que la contrainte j est saturée à l’optimum ;
☞ gj (v) < cj , dans ce cas on dit que la contrainte j est non saturée à l’optimum.
Définition 1.15 Lagrangien
On appelle Lagrangien du problème (1.8) la fonction suivante :
m
X
(1.9) L (x, λ) = f (x) − λj (gj (x) − cj ).
j=1

Les variables λj ci-dessus sont appelées multiplicateurs de Lagrange associés aux m contraintes.

Dico, 2023 . Optimisation Dynamique


1.4. OPTIMISATION SOUS CONTRAINTES PRENANT LA FORME D’INÉQUATIONS Page 16 sur 43

Théorème 12 – Conditions de qualification de la contrainte


Pour pouvoir utiliser le Lagrangien dans la résolution de (1.8), il suffit que l’une des condi-
tions suivantes soit vérifiée :
➀ Les fonctions contraintes gj sont toutes linéaires.
➁ Soit s ≤ m le nombre de contraintes saturées à l’optimum x∗ . Quitte à re-numéroter,
on suppose qu’il s’agit des s premières contraintes. Si la matrice jacobienne de ces s
fonctions contraintes, notée JG et de taille (s, n), est de rang s lorsqu’elle est évaluée à
l’optimum x∗ , alors la condition de qualification des contraintes est vérifiée.

Les conditions du premier ordre que doit vérifier toute solution x∗ du programme
(1.8) sont légèrement modifiées par rapport au cas des contraintes prenant la forme d’équa-
tions, et portent le nom de « conditions de Kuhn et Tucker ». Elles ont notamment pour propriété
que le multiplicateur de Lagrange λj associé à la contrainte j est nul lorsque cette contrainte
n’est pas saturée à l’équilibre.

Théorème 13 – Conditions e Kuhn et Tucker


On suppose qu’une condition de qualification de la contrainte est vérifiée. Si le vecteur x∗
est une solution du problème de maximisation (1.8), alors il existe un unique vecteur λ tel que :

∂L (x∗ ,λ) ∂f (x∗ ) Pm ∂gj (x∗ )
 ∂xi = 0

 ⇐⇒ xi
− j=1 λj xi
=0 ∀i = 1, . . . ,n

 ∂L (x∗ ,λ) ≥ 0

⇐⇒ gj (x∗ ) ≤ cj ∀i = 1, . . . ,n

∂λj
.


 λj ≥ 0 ⇐⇒ gj ≤ cj ∀j = 1, . . . ,m


 λ (g (x∗ ) − c ) = 0

⇐⇒ λj = 0 ou gj (x∗ ) = cj ∀j = 1, . . . ,m
j j j

Remarque 1.3. En pratique, la résolution des conditions de Kuhn et Tucker est compliquée
par le fait qu’il faut envisager successivement toutes les configurations possibles : toutes les
contraintes sont saturées à l’équilibre, toutes sauf une, deux,..., aucune (tous les λ sont nuls à
l’équilibre). Pour trouver la bonne solution, il faut procéder par élimination, en montrant que
parmi l’ensemble de ces possibilités, certaines aboutissent à des contradictions.

des premières des m fonctions contraintes gj :

Théorème 14 – Conditions suffisantes du second ordre pour un optimum local


Supposons qu’il existe un x∗ qui vérifie les CPO. Soit s ≤ m le nombre de contraintes satu-
rées à l’optimum x∗ . Quitte à re-numéroter, on suppose qu’il s’agit des s premières contraintes.

Dico, 2023 . Optimisation Dynamique


1.4. OPTIMISATION SOUS CONTRAINTES PRENANT LA FORME D’INÉQUATIONS Page 17 sur 43

➀ Si les n − s derniers mineurs principaux diagonaux de la matrice hessienne bordée du


Lagrangien HL évaluée à l’optimum sont alternativement positifs et négatifs, le dernier
d’entre eux (Dn+s ) étant de même signe que (−1)n , alors x∗ est un maximum local.
➁ Si les n − s derniers mineurs principaux diagonaux de la matrice hessienne bordée du
Lagrangien HL évaluée à l’optimum sont tous strictement du même signe que (−1)m ,
alors x∗ est un minimum local.

Théorème 15 – Conditions suffisantes du second ordre pour un optimum global


Supposons qu’il existe un x∗ qui vérifie les CPO.
➀ Si f est une fonction concave et les gj sont convexes alors x∗ est un maximum global.
➁ Si f est une fonction quasi-concave et les gj sont quasi-convexes et fi′ (x∗ ) ̸= 0, ∀i =
1, . . . , n, alors x∗ est un maximum global.
➂ Si f est une fonction convexe et les gj sont concaves alors x∗ est un minimum global.
➃ Si f est une fonction quasi-convexe et les gj sont quasi-concaves et fi′ (x∗ ) ̸= 0, ∀i =
1, . . . ,n, alors x∗ est un minimum global.

Exercice de cours 1.9


Pour f (x, y) = −(x − 4)2 − (y − 4)2 , m = 2, g1 (x, y) = x + y − 4 et g2 (x, y) = x + 3y − 9,
résoudre le problème de maximisation


 max f (x, y)
 x,y

P: s.c. g1 (x, y) ≤ 0 .



g2 (x, y) ≤ 0

Dico, 2023 . Optimisation Dynamique


Chapitre Deux

O PTIMISATION DYNAMIQUE EN TEMPS DISCRET



D I˛ CO

Sommaire
2.1 Modèle de consommation optimale en temps discret . . . . . . . . . . . . 18
2.2 Modèle à horizon fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Modèle à horizon infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Dans ce chapitre, nous étudions une première classe de problèmes dynamiques.


2.1 Modèle de consommation optimale en temps discret
On note par X(t) la valeur de la richesse en une date t ∈ N d’un agent économique doté
d’un capital initial x > 0. On suppose qu’à partir de la date t = 1 il n’y a ni entrée ni sortie
d’argent. Soit T ∈ N ∪ {+∞}. À chaque date t ∈ N, t ≤ T , doit décider de la répartition de sa
richesse entre consommation et épargne.
On supposera que l’épargne est capitalisée à un taux d’intérêt nul. On voit alors sans dou-
leur que la richesse de l’agent est régie par la dynamique

X(t) − X(t − 1) = −c(t), pour tout 1 ≤ t ≤ T,

où c(t) est la consommation de l’agent à la date t. La richesse de l’agent est alors entièrement
déterminée par le capital initiale et la politique de consommation :

t−1
X
X(t) = x − cs .
s=0

La fonction d’utilité inter-temporelle est donnée par


T
X [0,T )
(2.1) U (c) := u(t, c(t)) pour tout c ∈ R+ ,
t=0

où u : N × R+ → R, (t, ξ) 7→ u(t, ξ). Pour tout t ∈ N fixé, on suppose que la fonction


ξ 7→ u(t, ξ) est croissante, strictement concave, continument dérivable sur R+ et vérifie la

© Université de Douala 2023


18
2.2. MODÈLE À HORIZON FINI Page 19 sur 43

condition
∂u(t, ξ)
(2.2) uξ (t, 0+ ) := lim+ = +∞.
ξ→0 ∂ξ
La condition (2.2) est appelé condition d’Inada. Cette condition assure que tout plan de consom-
[0,T ) [0,T )
mation c situé sur le bord ∂R+ de R+ est dominé (au sens du critère U ) par un autre plan de
consommation situé à l’intérieur du domaine. On note A0 (x) l’ensemble des plans de consom-
[0,T )
mation c ∈ R+ tels que l’utilité U (c) est bien défini et vérifiant la contrainte de budget :

(2.3) X(t) ≥ 0 pour tout 0 ≤ t ≤ T.

L’objectif de l’agent est alors défini par le problème de maximisation d’utilité :


(2.4) V (x) := max U (c).
c∈A0 (x)

Soient deux dates t0 et t1 , et un plan de consommation c ∈ A0 (x) tel que c(t0 ) = 0 et


x1 := c(t1 ) > 0. Soit le plan de consommation c̃ défini par :

c̃ := c(t), t ∈
/ {t0 , t1 }, c̃(t0 ) := εx1 , c̃(t1 ) := (1 − ε)x1 .

Il est évident que le plan de consommation c̃ ∈ A0 (x). De plus, en utilisant la stricte concavité
de ξ 7→ u(t, ξ) et la condition d’Inada (2.2) on montre que

U (c̃) − U (c) = [u(t0 , εx1 ) − u(t0 , 0)] + [u(t1 , (1 − ε)x1 ) − u(t1 , 1)]
≥ εx1 [uξ (t0 , εx1 ) − uξ (t1 , (1 − ε)x1 )] > 0

pour ε assez petit. Ainsi le plan de consommation c̃ procure un niveau d’utilité strictement
supérieur à celui de c.

2.2 Modèle à horizon fini


Dans ce cas T < ∞. La stricte croissance de la fonction ξ 7→ u(t, ξ) entraîne qu’un plan
de consommation optimal doit vérifier c(T ) = X(T ). Le problème de maximisation (2.4) peut
se réécrire sous la forme
T −1
X
(2.5) V (x) = sup U (c), avec U (c) = u(t, c(t)) + u(T, X(T )).
c∈A(x) t=0

où l’ensemble des plans de consommation admissibles est donné par :

[0,T ]
A(x) := {c ∈ R+ ; ∥c∥1 ≤ x}.

Nous pouvons alors écrire la condition du premier ordre pour ce problème en oubliant la

Dico, 2023 . Optimisation Dynamique


2.2. MODÈLE À HORIZON FINI Page 20 sur 43

contrainte de positivité des consommations ou, plus exactement, en remplaçant A(x) par son
intérieur dans la définition du problème (2.5). D’après le Théorème 1, le plan de consommation
optimal c∗ vérifie la condition du premier ordre :

∂U (c∗ (t))
= uξ (t, c∗ (t)) − uξ (T, X(T )) = 0,
∂c(t)

pour tout t = 0, . . . ,T − 1. Comme uξ (t, ·) est strictement décroissante et continue alors, elle
admet une inverse, disons I(t, ·). Si on suppose de plus que uξ (t, +∞) = 0 pour tout t =
0, . . . ,T − 1, la condition du premier ordre s’écrit

c∗ (t) = I(t, uξ (T, X(T ))), pour tout t = 0, . . . ,T − 1.

Nous allons exploiter à présent le caractère dynamique du problème. On définit alors la


version dynamique du problème (2.5) par
T −1
X
(2.6) V (t, x) = sup U (t, c), avec U (t, c) := u(s, c(s)) + u(T, X(T )),
c∈A(t,x) s=t

pour tout t = 0, . . . ,T − 1, où l’ensemble des plans de consommation admissibles est donné


par :
[0,T −1]
A(t, x) := {c ∈ R+ ; ∥c∥1 ≤ x}.

On a évidemment V (x) = V (0, x). Le problème (2.6) correspond au problème de consomma-


tion optimal entre les dates t et T , en partant d’une richesse initiale x à la date t. Le résultat
suivant est basé essentiellement sur la forme additive dans le temps de la fonction objectif et sur
la propriété de concaténation de l’ensemble des plans de consommation admissibles :

A(t, x) = {(ξ, c) ; 0 ≤ ξ ≤ x et c ∈ A(t + 1, x − ξ)}.

Proposition 2.1 (Principe de la programmation dynamique). Pour tout t ≤ T , on a

V (t, x) = sup {u(t, ξ) + V (t + 1, x − ξ)}.


0≤ξ≤x

Preuve. En cours.
Observons que la fonction valeur du problème dynamique (2.6) est connue à la date termi-
nale :
V (T, x) = u(T, x).

Par conséquent, on peut déterminer toutes les fonctions V (t, x) par une
procédure itérative rétrograde en utilisant le principe de la programmation
dynamique.

Dico, 2023 . Optimisation Dynamique


2.3. MODÈLE À HORIZON INFINI Page 21 sur 43

2.3 Modèle à horizon infini


Dans ce cas T = +∞. La stricte croissance de la fonction ξ 7→ u(t, ξ) entraîne qu’un plan
de consommation optimal doit vérifier

X
c(t) = x.
t=0

Le problème de maximisation (2.4) peut se réécrire sous la forme


(2.7) V (x) = sup U (c), avec A(x) := {c ∈ RN+ ; ∥c∥1 ≤ x}.
c∈A(x)

Ainsi, l’ensemble des plans de consommation admissibles est maintenant un sous-ensemble


fermé borné de ℓ1 (R), espace des suites absolument convergentes. D’après le Théorème 1, le
plan de consommation optimal c∗ vérifie la condition du premier ordre :
!
X
uξ (t, c∗ (t)) = uξ 0, c∗ (s) , pour tout t ≥ 1.
s≥1

dont on peut déduire une caractérisation du plan de consommation optimal


en utilisant l’inversibilité de l’utilité marginale uξ (t, ·).
Exercice de cours 2.1
Faire les calcul dans le cas u(t, ξ) = β t ξ γ /γ, où γ < 1 est un paramètre donné.
Nous allons exploiter à présent le caractère dynamique du problème. On définit alors la
version dynamique du problème (2.7) par
!
X X
(2.8) V (t, x) = sup U (t, c), avec U (t, c) = u t, x − c(s) + u(s, c(s)),
c∈A(x) s≥t s≥t

pour tout t ≥ 1, où l’ensemble des plans de consommation admissibles est donné par :

A(x) := {c ∈ RN+ ; ∥c∥1 ≤ x}.

On a évidemment V (x) = V (0, x). Le résultat suivant est basé essentiellement sur la forme
additive dans le temps de la fonction objectif et sur la propriété de concaténation de l’ensemble
des plans de consommation admissibles :

A(x) = {(ξ, c) ; 0 ≤ ξ ≤ x et c ∈ A(x − ξ)}.

Proposition 2.2 (Principe de la programmation dynamique). Pour tout t ∈ N, on a

V (t, x) = sup {u(t, ξ) + V (t + 1, x − ξ)}.


0≤ξ≤x

Dico, 2023 . Optimisation Dynamique


2.3. MODÈLE À HORIZON INFINI Page 22 sur 43

Preuve. En cours.
Exercice de cours 2.2
Considérer le cas de l’4.7.
Proposition 2.3. Soit v : N × R+ → R une solution de l’équation de la programmation
dynamique vérifiant :

T −1
!
X
lim v T, x − c(s) = 0 pour tout c ∈ A(x).
T →+∞
s=t

Alors v = V .
Preuve. Exercice.
Proposition 2.4. Soit c∗ un plan de consommation optimal pour le problème V (t, x) i.e. :
X
c∗ ∈ A(x) et V (t, x) = u(s, c∗ (s)).
s≥t

Alors V (t, x) = u(t, c∗ (t)) + V (t + 1, x − c∗ (t)).


Preuve. En cours.
Remarque 2.1. Dans la démonstration précédente, on voit que si (c∗ (s))s≥t est un plan de
consommation optimal pour V (t, x) alors (c∗ (s))s≥t+1 est un plan de consommation optimal
pour V (t + 1, x − c∗ (t)). En d’autres termes, un plan de consommation optimal reste optimal
le long de la trajectoire optimale.
Cette remarque nos conduit à l’interrogation suivante : étant donné un plan de consomma-
tion c = (c(s))s≥t qui maximise la suite des équations
de la programmation dynamique le long de sa trajectoire, peut-on affirmer
que c est solution du problème V (t, x) ?
Proposition 2.5. Soit c = (c(s))s≥t ∈ A(x) un plan de consommation vérifiant pour tout
s≥t:
s−1
X
V (s, x̂(s)) = u(s, c(s)) + V (s + 1, x̂(s) − c(s), avec x̂(s) := x − c(r).
r=t

Supposons de plus que


lim V (s, x̂(s)) = 0.
s→+∞

Alors c est un plan de consommation optimal pour V (t, x) i.e. :


X
V (t, x) = u(s, c(s)).
s≥t

Preuve. En cours.

Dico, 2023 . Optimisation Dynamique


Chapitre Trois

C ALCUL DES VARIATIONS



D I˛ CO

Sommaire
3.1 Formulation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Condition nécessaire d’optimalité . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Cas où l’état terminal n’est pas contraint à l’égalité : conditions de trans-
versalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Une condition suffisante d’optimalité . . . . . . . . . . . . . . . . . . . . 27

Dans ce chapitre, nous étudions une première classe de problèmes dynamiques.


3.1 Formulation du problème
Soit F : [t0 , t1 ] × R × Rn → R une fonction de classe C 1 . On considère le problème de
minimisation


 ϕ= inf φ(x)

 x∈C 1 ([t0 ,t1 ,Rn ])
(3.1) x(t0 ) = x0



x(t1 ) − x1 ∈ C(I, J, K)

où x0 , x1 ∈ Rn sont donnés, I, J, K sont des sous-ensembles d’indices de {1, 2, . . . , n} deux à


deux disjoints et
ˆ t1
φ(x) := F (t, x(t), ẋ(t))dt
t0

C(I, J, K) := {ξ ∈ Rn ; ξ i ≤ 0, ξ j ≥ 0, ξ k = 0}.

Il faut noter que le cas sans contrainte correspond à I = J = K = ∅.

© Université de Douala 2023


23
3.2. CONDITION NÉCESSAIRE D’OPTIMALITÉ Page 24 sur 43

3.2 Condition nécessaire d’optimalité


On note :

∂F (t, ξ, v)
Fv (t, ξ, v) :=
∂v
∂F (t, ξ, v)
Fξ (t, ξ, v) := .
∂ξ

Théorème 16 – Équation d’Euler locale


Soit x∗ ∈ C 1 ([t0 , t1 ], Rn ) une solution du problème (3.1). Alors la fonction t 7→ Fv (t, x∗ (t), ẋ∗ (t))
est de classe C 1 sur [t0 , t1 ] et sa différentielle est donnée par

d
Fv (t, x∗ (t), ẋ∗ (t)) = Fξ (t, x∗ (t), ẋ∗ (t)), ∀t ∈ [t0 , t1 ].
dt

Preuve. Exercice.

Remarque 3.1. L’équation d’Euler énoncée dans le Théorème 16 peut être étendue au cas où
1
le problème de maximisation est posé initialement sur l’ensemble plus large Cpm ([t0 , t1 ], Rn )
des fonctions de classe C 1 par morceaux.
´1
Exemple 3.1. Pour φ(x) := −1
x(t)2 [1 − ẋ(t)]2 dt, on considère le problème de minimisation



 ϕ = inf φ(x)

x(−1) = 0 .



 x(1) = 1

1
On vérifie que la fonction suivante est solution de ce problème sur Cpm ([−1, 1], R) :

x∗ (t) := t+ = max(t, 0), ∀t ∈ [−1, 1].

1
Ainsi, la fonction valeur du problème de minimisation défini sur Cpm ([−1, 1], R) est nulle. Par
1
ailleurs, il est facile de construire une suite (xn ) dans C ([−1, 1], R)
telle que φ(xn ) → 0. Ceci montre que la fonction valeur du problème de
minimisation défini sur C 1 ([−1, 1], R) est également nulle. Cependant, le
1
problème n’admet pas de solution dans Cpm ([−1, 1], R).

Dico, 2023 . Optimisation Dynamique


3.3. CAS OÙ L’ÉTAT TERMINAL N’EST PAS CONTRAINT À L’ÉGALITÉ : CONDITIONS DE TRANSVERSALITÉ Page 25 sur 43

On peut alors considérer le problème :





 ϕpm := inf
1 ([t ,t ],Rn )
φ(x)

 x∈Cpm 0 1

(3.2) x(t0 ) = x0 .



 x(t1 ) = x1

où ˆ t1
φ(x) := F (t, x(t), ẋ(t)dt.
t0

Théorème 17 – Équation d’Euler intégrale


Soit x∗ ∈ Cpm
1
([t0 , t1 ], Rn ) une solution du problème (3.2). Alors, il existe une constante
K ∈ R telle que ˆ t1
Fv (t, x∗ (t), ẋ∗ (t)) = Fξ (t, x∗ (t), ẋ∗ (t)) + K.
t0

En particulier, en tout point t̃ où l’application t 7→ Fξ (t, x∗ (t), ẋ∗ (t)) est continu, l’équation
d’Euler locale est satifaite :

d
Fv (t̃, x∗ (t̃), ẋ∗ (t̃)) = Fx (t̃, x∗ (t̃), ẋ∗ (t̃)).
dt

3.3 Cas où l’état terminal n’est pas contraint à l’égalité :


conditions de transversalité
Dans ce paragraphe, nous étudions le problème de calcul des variations quand l’état du
système à la date terminale n’est pas nécessairement contraint à l’égalité. Soient alors

I, J, K ⊂ {1, 2, . . . , n}.

des ensembles d’indices deux à deux disjoints. Remarquons immédiatement que la réunion
I ∪ J ∪ K peut être strictement incluse dans {1, 2, . . . , n}. On notera par (I ∪ J ∪ K)c le
complémentaire de I ∪ J ∪ K dans l’ensemble {1, 2, . . . , n}.

Dico, 2023 . Optimisation Dynamique


3.3. CAS OÙ L’ÉTAT TERMINAL N’EST PAS CONTRAINT À L’ÉGALITÉ : CONDITIONS DE TRANSVERSALITÉ Page 26 sur 43

Étant donné un point x1 de Rn , on considère le problème




 ϕ := inf φ(x)

 x∈C 1 ([t0 ,t1 ],Rn )


x(t0 ) = x0






x(t1 ) = x1

(3.3) .
i i
x (t ) ≤ x , i ∈ I

1


 1

xj (t1 ) ≤ xj1 , j ∈ J







 k
x (t1 ) ≤ xk1 , k ∈ K

où ˆ t1
φ(x) := F (t, x(t), ẋ(t)dt.
t0

Ainsi la valeur terminale de l ?état du système est


☞ contrainte à l’inégalité pour les composantes à indice dans I ou dans J,
☞ contrainte à l’égalité pour les composantes k ∈ K,
☞ non contrainte pour les composantes k ∈ (I ∪ J ∪ K)c .
Enfin, étant donné une fonction x vérifiant les contraintes du problème (3.3), il convient de
distinguer parmi les contraintes d’inégalité celle qui sont saturées :

I(x) := {i ∈ I ; xi (t1 ) = xi1 }


J(x) := {j ∈ J ; xj (t1 ) = xj1 }.

et on notera
L(x) := [I(x) ∪ J(x) ∪ K]c .

Théorème 18 – Équation d’Euler intégrale


Soit x∗ ∈ C 1 ([t0 , t1 ], Rn ) une solution du problème (3.3). Alors :
☞ (équation d’Euler locale) la fonction t 7→ Fv (t, x∗ (t), ẋ∗ (t)) est de classe C 1 sur [t0 , t1 ] et
sa différrentielle est donnée par

d
Fv (t, x∗ (t), ẋ∗ (t)) = Fx (t, x∗ (t), ẋ∗ (t)), ∀t ∈ [t0 , t1 ].
dt

☞ (conditions de transversalité) pour tous i ∈ I(x∗ ), j ∈ J(x∗ ) et ℓ ∈ L(x∗ ),

Fvi (t1 , x∗ (t1 ), ẋ∗ (t1 )) ≤ 0


Fvj (t1 , x∗ (t1 ), ẋ∗ (t1 )) ≥ 0
Fvℓ (t1 , x∗ (t1 ), ẋ∗ (t1 )) = 0

Dico, 2023 . Optimisation Dynamique


3.4. UNE CONDITION SUFFISANTE D’OPTIMALITÉ Page 27 sur 43

3.4 Une condition suffisante d’optimalité


Dans ce paragraphe, on considère le problème de calcul de variations général :

 ´ t1
 ϕ := inf F (t, x(t), ẋ(t)dt
x∈C 1 ([t0 ,t1 ],Rn ) t0



(3.4) x(t0 ) = x0 .



x(t1 ) − x1 ∈ C(I, J, K).

où F est de classe C 1 , et I, J sont des sous-ensembles d’indices de {1, . . . , n}

Théorème 19 –
Supposons que la fonction (ξ, v) 7→ F (t, ξ, v) est convexe pour tout t ∈ [t0 , t1 ]. Soit x̄
une fonction de C 1 ([t0 , t1 ], Rn ) vérifiant les contraintes du problème (3.4), l’équation d’Euler
locale, ainsi que les conditions de transversalité correspondantes. Alors x̄ est une solution du
problème (3.4).

Exercice de cours 3.1 Problème quadratique unidimensionnel


Trouver la solution du problème de minimisation dynamique suivant et montrer quelle est
unique.
´1


 inf [x(t)2 + ẋ(t)2 ] dt
x∈C 1 ([0,1],R) 0 .
 x(0) = 1

Dico, 2023 . Optimisation Dynamique


Chapitre Quatre

P RINCIPE DU MAXIMUM DE P ONTRYAGIN



D I˛ CO

Sommaire
4.1 Équation différentielle contrôlée . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Principe du maximum de Pontryagin . . . . . . . . . . . . . . . . . . . . 29
4.3 Contraintes sur l’état terminal du système . . . . . . . . . . . . . . . . . 30
4.4 Une condition suffisante d’optimalité . . . . . . . . . . . . . . . . . . . . 31

Dans ce chapitre, nous étudions une classe plus grande de problèmes de


contrôle dynamique. Considérons l’équation d’état
(4.1) ẋ(t) = f (t, x(t), u(t)) pour t0 ≤ t ≤ t1 ,
0
où la variable de contrôle u ∈ U := Cpm ([t0 , t1 ], U ), U ⊆ Rk , et f : [t0 , t1 ] × Rn × U → Rn .
Nous montrerons dans ce cours que pour tout contrôle u ∈ U, et pour toute condition initiale
x(t0 ) = x0 , le problème (4.1) admet une unique solution xu . Cette solution est appelée état
contrôlé du système ou trajectoire contrôlée du système.
On peut alors formulé le Problème de minimisation de Lagrange suivant :

 inf ´ t1 u
u∈U t0 F (t, x (t), u(t))dt
(4.2) ,
 xu (t ) = x
0 0

où la fonction coût F : [t0 , t1 ] × Rn × U → R. On va souvent omettre que la variable d’état


xu dépend de la variable de contrôle u, et noter juste x. Il faut remarquer que ce problème de
Lagrange est une généralisation du problème considéré au 3, qui correspondait en fait au cas
f (t, ξ, u) = u.

4.1 Équation différentielle contrôlée


Afin d’éviter le problème de non dérivabilité de x aux points de discontinuité de
u, on écrit l’équation (4.1) sous la forme intégrale
ˆ t1
(4.3) x(t) = x0 + f (s, x(s), u(s))ds, t0 ≤ t ≤ t1 .
t0

© Université de Douala 2023


28
4.2. PRINCIPE DU MAXIMUM DE PONTRYAGIN Page 29 sur 43

Définition 4.1
Soient f : [t0 , t1 ] × Rn × U → Rn une fonction continue et u une variable de contrôle dans
U. On dit que x est solution de (4.1) avec condition initiale x(t0 ) = x0 lorsque x vérifie (4.3).
Il s’en suit que toute solution de (4.1) est nécessairement continue et dérivable à gauche et
à droite de tout point t ∈ [t0 , t1 ], avec

ẋ(t− ) = f (t, x(t), u(t− )) et ẋ(t+ ) = f (t, x(t), u(t+ )).

En particulier, x est dérivable en tout point de continuité de u.


Définition 4.2 Fonction lipschitzienne
On dit que f : Rn → Rn est une fonction lipschitzienne lorsqu’il existe une constante
k > 0 telle que
∥f (y1 ) − f (y2 )∥ ≤ k∥y1 − y2 ∥, ∀y1 , y2 ∈ Rn .

Théorème 20 –
Soit f : [t0 , t1 ] × Rn × U → Rn une fonction continue, k−lipschitzienne par rapport à la
seconde variable, et de croissance linéaires, i.e

∥F (t, ξ, ν)∥ ≤ k(1 + ∥ξ∥ + ∥ν∥).

Alors, pour toute variable de contrôle u ∈ U, l’équation différentielle (4.1) admet une unique
solution vérifiant une condition initiale donnée x(t0 ) = x0 ∈ Rn .

4.2 Principe du maximum de Pontryagin


On considère le Hamiltonien H : [t0 , t1 ] × Rn × U × R → R associé au problème de
Lagrange (4.2) et donné par :

H(t, ξ, ν, π) := F (t, ξ, ν) + π · f (t, ξ, ν).

Théorème 21 – Principe du maximum de Pontryagin


On suppose que f et F soient continues, lipschitziennes par rapport à la seconde variable,
de croissance linéaires, et que les gradients partiels fx et Fx existent, sont continus, et pour
un certain α > 0, ξ 7→ (fx , Fx )(t, ξ, ν) est α−hölderienne pour (t, ν) ∈ [t0 , t1 ] × U . Soit
u∗ un contrôle optimal pour le problème (4.2), et x∗ l’état contrôlé associé. Alors, il existe

Dico, 2023 . Optimisation Dynamique


4.3. CONTRAINTES SUR L’ÉTAT TERMINAL DU SYSTÈME Page 30 sur 43

p : [t0 , t1 ] → Rn de classe C 1 telle que pour tout t ∈ [t0 , t1 ] :

H(t, x∗ (t), u∗ (t), p(t)) = min H(t, x∗ (t), ν, p(t))


ν∈U

ṗ(t) = −H(t, x∗ (t), u∗ (t), p(t))


p(t1 ) = 0

4.3 Contraintes sur l’état terminal du système


Dans ce paragraphe, nus considérons un problème de contrôle optimal avec
contraintes sur l’état terminal du système :

 inf ´ t1 u

 u∈U t0 F (t, x (t), u(t))dt

(4.4) xu (t0 ) = x0


 xu (t ) − x ∈ C(I, J, K)

1 1

où x0 , x1 ∈ Rn sont des données du problème, I, J, K sont des sous-ensembles d’indices de


{1, 2, . . . , n} deux à deux disjoints et

C(I, J, K) := {ξ ∈ Rn ; ξ i ≤ 0, ξ j ≥ 0, ξ k = 0, pour (i, j, k) ∈ I × J × K}.

Parmi les contraintes d’inégalité, il convient de distinguer celles qui sont saturées. On
notera alors pour tout x :

I(x) := {i ∈ I ; xi (t) − xi1 = 0} et J(x) := {j ∈ J ; xj (t) − xj1 = 0}.

On note également
L(x) := [I(x) ∪ J(x) ∪ K].

Théorème 22 –
Supposons que les conditions du Théorème 21 soient vérifiées. Soit u∗ un contrôle optimal
pour le problème (4.4), et x∗ l’état contrôlé associé. Alors, il existe p : [t0 , t1 ] → Rn de classe
C 1 telle que pour tout t ∈ [t0 , t1 ] :

H(t, x∗ (t), u∗ (t), p(t)) = min H(t, x∗ (t), ν, p(t))


ν∈U

ṗ(t) = −H(t, x∗ (t), u∗ (t), p(t))


pi (t1 ) ≥ 0, pj (t1 ) ≤ 0, pℓ (t1 ) = 0, ∀(i, j, ℓ) ∈ I(x∗ ) × J(x∗ ) × L(x∗ ).

Dico, 2023 . Optimisation Dynamique


4.4. UNE CONDITION SUFFISANTE D’OPTIMALITÉ Page 31 sur 43

À la dernière ligne on a les conditions de transversalité.

Théorème 23 – Condition suffisante d’optimalité


Soit u∗ ∈ U et x∗ l’état contrôlé associé. Supposons que x∗ vérifie les contraintes du
problème (4.4), ainsi que les conditions nécessaires du Théorème 22. On suppose de plus que
la fonction
H ∗ (t, ξ, π) := min H(t, ξ, ν, π)
ν∈U

est convexe en ξ pour tout (t, π) ∈ [t0 , t1 ] × Rn . Alors la variable de contrôle u∗ est solution du
problème eqrefpb4.1.

4.4 Une condition suffisante d’optimalité


Dans ce paragraphe, on considère le problème d’optimisation dynamique

 ´t


 inf u∈U t01 F (t, xu (t), u(t))dt

(4.5) xu (t0 ) − x0 = 0 .


 xu (t ) − x ∈ C(I, J, K)

1 1

où F est de classe C 1 , et I, J sont des sous-ensembles d’indices de {1, . . . , n}

Théorème 24 –

Soit u∗ ∈ U et x∗ = xu l’état contrôlé associé. Supposons que x∗ vérifie les contraintes
du problème (4.5), ainsi que les conditions nécessaires du Théorème 22. On suppose de plus
que la fonction
H ∗ (t, ξ, π) := min H(t, ξ, ν, π).
ν∈U

est convexe en ξ pour tout (t, π) ∈ [t0 , t1 ] × Rn . Alors la variable de contrôle u∗ est solution du
problème (4.5).

Exercice de cours 4.1 Problème quadratique unidimensionnel


Trouver la solution du problème de minimisation dynamique suivant et montrer quelle est
unique.
´1


 inf [x(t)2 + ẋ(t)2 ] dt
x∈C 1 ([0,1],R) 0 .
 x(0) = 1

Exercice de cours 4.2 Modèle à deux biens de consommation


Le but de cet exercice est étudier le comportement optimal d’un agent pouvant consommer
deux biens. Les variables principales du modèle sont :

Dico, 2023 . Optimisation Dynamique


4.4. UNE CONDITION SUFFISANTE D’OPTIMALITÉ Page 32 sur 43

☞ le prix relatif du bien 2 par rapport au bien 1 est noté y(t),


☞ le flux de revenu de l’agent touché sous la forme d’une dotation en bien 1 est noté s(t)
☞ le taux d’intérêt réel est noté r(t)
☞ la richesse de l’agent exprimée en terme du bien 1 est notée x(t).
En supposant que le capital de l’agent est rémunérée au taux d’intérêt réel, on obtient la dyna-
mique suivante de la richesse de l’agent :

ẋ(t) = r(t)x(t) + s(t) − c1 (t) − y(t)c2 (t),

où ci (t) est le taux de consommation du bien i à l’instant t. Ainsi, la variable de contrôle du


problème est le couple (c1 , c2 ) qui est une fonction de [0, T ] dans U = R2+
Pour x0 > 0 un capital initial donnée, il faut alors résoudre le problème :
 ´T


 sup 0 e−δt U (c1 (t), c2 (t))dt
 (c1 ,c2 )∈U

x(0) = x0 .



 x(T ) ≥ 0

où δ > 0 est un facteur d’escompte psychologique et

(σ1 , σ2 ) ∈ R2+ 7→ U (σ1 , σ2 ).

est une fonction de classe C 1 , concave en (σ1 , σ2 ), et croissante par rapport à chacun de ses
arguments. Afin de simplifier l”analyse, on supposera que

∂U
= +∞ pour (σ1 , σ2 ) ∈ ∂R2+ .
∂σi

Exercice de cours 4.3


On considère l’évolution de la quantité de production x(t) dans un champ de céréales
où l’on cherche par ajout d’engrais à optimiser le rendement tout en minimisant la pollution
produite. Le contrôle u(t) est la quantité d’engrais ajoutée et vérifie la contrainte 0 ≤ u(t) ≤ 3.
On note α > 0 le taux de décroissance naturel de la pollution. L’évolution x(t) de la pollution
est alors régie par l’équation différentielle

ẋ(t) = u(t) − αx(t),

avec x(0) = x0 > 0.

Dico, 2023 . Optimisation Dynamique


4.4. UNE CONDITION SUFFISANTE D’OPTIMALITÉ Page 33 sur 43

On fixe le temps final T et on cherche à minimiser le critère


ˆ T  p 
CT (u) = x(t)2 − (3 − u(t))(1 + u(t)) dt.
0

(1) Écrire le hamiltonien de ce problème de contrôle optimal.


(2) Déterminer les équations de l’état adjoint.
(3) Écrire les conditions de transversalité sur l’état ou le vecteur adjoint.

Dico, 2023 . Optimisation Dynamique


FICHE DE TRAVAUX DIRIGÉS
ESSEC
Ingénierie Economique et Financière Licence 3
Année Académique 2022-2023
Exercice 4.1 Questions de cours : optimisation statique
n
On considère f : R → R une fonction réelle de n variables réelles, et les problèmes de
maximisation statique suivants :

 max f (x)
x1 ,x2 ,...,xn
(4.6) .
P: s.c. g(x1 , x2 , . . . ,xn ) = c

max f (x , x , . . . ,x ).
1 2 n
x1 ,x2 ,...,xn

(1) Rappeler la formule de la matrice hessienne H de f .


(2) Quand dit-on que f est concave ?
(3) Quand dit-on que f est convexe ?
(4) Expliciter les deux définitions précédente lorsque f est une fonction à une variable.
(5) Quand dit-on que v ∈ Rn est un point critique de f ?
(6) Rappeler les conditions du premier ordre pour P.
(7) Rappeler les conditions du second ordre pour P.
(8) Rappeler la définition du Lagrangien du problème (4.6).
(9) Rappeler les conditions de qualification de la contrainte pour (4.6).
(10) Rappeler les conditions du premier ordre pour (4.6).
(11) Rappeler les conditions suffisantes du second ordre pour un optimum global, pour (4.6).

Exercice 4.2
On considère la fonction f définie sur R2 par f (x, y) = (x2 + y 2 )exp(−x). On admet
qu’elle est de classe C 2 sur R2 .
(1) Trouver les extrema locaux de f sur R2 .
(2) Montrer que f possède un minimum global sur R2 et qu’elle ne possède pas de maximum
global.

Exercice 4.3
Une firme (en situation de monopole) produit un unique bien qui peut être vendu à deux
clients a et b. Si la firme produit la quantité Qa d’unités de bien pour le client a, alors celui-ci
est disposé à payer le prix unitaire de 50 − 5Qa . Si la firme produit la quantité Qb d’unités de
bien pour le client b, alors celui-ci est disposé à payer le prix unitaire de 100 − 10Qb . Le coût
pour la firme de produire Q unités de bien est 90 + 20Q.
(1) Que représente la fonction Π définie sur R+ × R+ par l’expression ci-dessous ?

Π(Qa , Qb ) = Qa (50 − 5Qa ) + Qb (100 − 10Qb ) − (90 + 20(Qa + Qb )).

(2) Si la firme veut maximiser son profit, quelle quantité de bien doit-elle produire et vendre à
chaque client ? Calculer alors le profit maximal.

© Université de Douala 2023


34
4.4. UNE CONDITION SUFFISANTE D’OPTIMALITÉ Page 35 sur 43

Exercice 4.4 Questions de cours : optimisation dynamique


Soit F : [t0 , t1 ] × R × R → R une fonction de classe C 1 . On considère le problème de
n

minimisation
 ´ t1
 ϕ = inf F (t, x(t), ẋ(t))dt
x∈C 1 ([t0 ,t1 ,Rn ]) t0



(4.7) x(t0 ) = x0



x(t1 ) − x1 ∈ C(I, J, K)

(1) Rappeler les conditions nécessaire d’optimalité (ou équation d’Euler locale) pour (4.7).
(2) Rappeler l’équation d’Euler intégrale.
(3) Donner une condition suffisante d’optimalité pour (4.7).

Exercice 4.5 Problème quadratique unidimensionnel


Trouver la solution du problème de minimisation dynamique suivant et montrer quelle est
unique.
´1


 inf [x(t)2 + ẋ(t)2 ] dt
x∈C 1 ([0,1],R) 0 .
 x(0) = 1

Exercice 4.6 Problème de consommation optimale


Trouver l’unique solution du problème de maximisation dynamique suivant :
 ´ T −βt
 inf e u(−ẋ(t))dt
 x∈C 1 ([0,1],R) 0


x(0) = x0 ,



x(T ) ≥ 0

où u : R+ → R, ξ 7→ u(ξ) est une fonction croissante strictement concave et vérifiant la


condition d’Inada.
Exercice 4.7 Croissance optimale avec ressource épuisable
On considère le problème suivant :
 ´T


 sup(c,r)∈U 0 ln(c(t))dt

x(0) = x0 ,



 x(T ) = 0

avec des variables d’état contrôlées x := (y, k) définies par l’équation d’état :

ẏ(t) = −r(t), k̇(t) = ak(t)1−α r(t)α − c(t).

Dico, 2023 . Optimisation Dynamique


(1) Étudier ce problème par la méthode des équations d’Euler.
(2) Étudier ce problème suivant par le principe du maximum de Pontryagin

Exercice 4.8
On considère l’équation d’état du système est linéaire en (x, u) :

ẋ(t) = A(t)x(t) + B(t)u(t),

où A et B sont deux fonctions définies sur [t0 , t1 ] et à valeurs respectivement dans M (n, R) et
M (n × p, R). Calculer la valeur du contrôle optimal du problème de Lagrange
 ´ t1
 inf
u∈U t0
F (t, xu (t), u(t))dt
,
 xu (t ) = x
0 0

où la fonction de coût instantané F est quadratique en x et en u :

F (t, ξ, ν) := ξ · M (t)ξ + ν · N (t)ν,

M et N étant deux fonctions définies sur [t0 , t1 ] et à valeurs respectivement dans S ++ (n, R)
et S ++ (p, R) (ensemble des matrices symétriques semi définies positives de taille n et p).

© Université de Douala 2023


36
ANNEXE : Modèle de Ramsey ; Arbitrage
consommation-épargne

Sommaire
4.5 Le problème de Ramsey (1928) . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6 Consommation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.7 Application du Maximum de Pontryagin . . . . . . . . . . . . . . . . . . 39
4.8 Règle de Keynes-Ramsey . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.9 La condition de transversalité . . . . . . . . . . . . . . . . . . . . . . . . 42

Nous allons maintenant étudier un modèle de croissance qui intègre explicitement un


comportement de consommation des ménages. L’épargne ne sera donc pas déterminée à travers
une propension moyenne exogène.
Nous allons considérer que les individus ont un horizon infini. Plutôt qu’une vie infinie,
cela correspond à une prise en compte, par chaque génération, de l’intérêt des générations fu-
tures, de manière altruiste.
Nous allons comparer deux mécanismes d’allocation différents : D’abord, en suivant le
travail de Ramsey, nous allons considérer que l’allocation des ressources est effectuée par un
planificateur central qui cherche à maximiser le bien-être de l’agent représentatif. Ensuite, nous
allons intégrer une allocation décentralisée, par les marchés.
Nous allons observer en particulier qu’avec un horizon de décision infini, des rendements
d’échelle constants, des agents homogènes et des marchés concurrentiels, les deux mécanismes
conduisent à la même allocation des ressources.

4.5 Le problème de Ramsey (1928)


Ramsey a cherché à déterminer l’épargne qu ?une nation doit effectuer dans une perspective
dynamique. La population, Nt , croît au taux n. On peut la voir comme une famille unique ou
comme des familles identiques se développant dans le temps.
Chaque adulte offre une unité de main d’œuvre et donc, l’offre de travail est égale à la
population.

© Université de Douala 2023


37
4.6. CONSOMMATION OPTIMALE Page 38 sur 43

La production est réalisée à partir de cette main d’œuvre et du capital, Kt . Il n’y a pas de
progrès technique.
Le produit est soit consommé, soit investi :

Yt = F (Kt , Nt ) = Ct + K̇t .

Nous exclurons la dépréciation du capital. La fonction F (·) est néo-classique. En termes


per capita, cette équation devient :

f (k) = c + k̇ + nk ⇐⇒ k̇ = f (k) − c − nk.

L’économie démarre avec un capital/tête k0 > 0. Au moment s l’utilité instantanée de la


famille est donnée, en valeurs courantes, par :

u(cs ) ≥ 0, u′ ≥ 0, u′′ ≤ 0,

on l’appelle aussi la fonction de « félicité »(ou de « bonheur »).


A ce moment s, l’utilité d’une consommation qui a lieu à un moment t > s est donnée en
valeurs actualisées par :
u(ct ) · e−θ(t−s) ,

où θ > 0 est la préférence pour le présent ou le taux d’escompte subjectif.


Si l’on considère l’utilité totale jusqu’à la fin des temps (l’infini), on peut l’écrire, en temps
continu et en valeurs actualisées au moment s :
ˆ ∞
Us = u(ct ) · e−θ(t−s) dt.
s

4.6 Consommation optimale


Le planificateur central cherche à maximiser le bien-être social à chaque moment du temps.
Il doit donc déterminer un sentier de consommation optimale qui tient compte des ca-
ractéristiques de l’économie. Ce sentier doit établir, à chaque moment, un arbitrage entre la
consommation présente et la consommation future qui va profiter de l’investissement et donc
de l’épargne.
Il doit résoudre le problème suivant (s = 0) :

Dico, 2023 . Optimisation Dynamique


4.7. APPLICATION DU MAXIMUM DE PONTRYAGIN Page 39 sur 43

ˆ ∞
max U0 = u(ct )e−θt dt
ct 0

kt = f (kt ) − ct − nkt
k(0) = k0
∀tkt ≥ 0, ct ≥ 0

La solution de ce problème est un sentier de consommation optimale : c∗( t) = c∗t . C’est


donc une fonction du temps et non une valeur unique.
Nous avons donc un problème de commande optimale. On résout ce type de problème en
appliquant le principe de maximum de Pontryagin.

4.7 Application du Maximum de Pontryagin

ˆ ∞
max U0 = u(ct )e−θt dt
ct 0

(4.8) kt = f (kt ) − ct − nkt


(4.9) k(0) = k0
∀tkt ≥ 0, ct ≥ 0

Quand on considère l’évolution dynamique de cette économie, à chaque moment du temps,


l’état du système peut être décrit avec k. Cette variable est donc la variable d’état.
L’évolution de cette variable est donnée par k?t et elle est déterminée d’une part par l’état
(kt ), mais d ?autre part, par une autre variable qui la commande ct .ct est donc la variable de
commande.
La contrainte (4.8) nous donne la manière dont la commande influence l’évolution de l’état
de ce système. C’est pour cette raison qu’on l’appelle l’équation de mouvement ou l’équation
d’état.
La contrainte (4.9) tient compte de l’état initial de ce système. La résolution de ce système
revient à chercher une commande optimale, c∗ (t), qui maximise l’utilité des agents à chaque
moment du temps : c’est une fonction du temps. La valeur optimale de cet objectif sera donc
donnée par : ˆ ∞
U0∗ = u(c∗ (t))e−θt dt.
0

On résout ce type de problème de maximisation d’une fonctionnelle (=fonction de fonc-


tions) sous contrainte en utilisant une transformation
proche du Lagrangien : le Hamiltonien. On construit une nouvelle fonction objectif qui

Dico, 2023 . Optimisation Dynamique


4.7. APPLICATION DU MAXIMUM DE PONTRYAGIN Page 40 sur 43

intègre aussi la contrainte mais en la multipliant par un prix implicite qui est similaire au mul-
tiplicateur de Lagrange. Mais ce multiplicateur varie avec le temps : µt .
On obtient alors le Hamiltonien associé à ce problème :

(4.10) Ht = u(c(t))e−θt + µt (f (kt ) − ct − nkt ),

où k = f (kt ) − ct − nkt .
La variable µ est le prix implicite associé à la variable d’état k. Elle nous donne la valeur
marginale actualisée au moment 0 d’une unité de capital supplémentaire au moment t.
Il est souvent plus aisé de travailler avec la valeur marginale courante au moment t de cette
unité de capital :

λt := µt eθt ⇐⇒ µt = λte−θt
=⇒ λ̇ = µ̇eθt + θµeθt = µ̇eθt + θλ

En remplaçant µ par λ dans (4.10), nous obtenons :

Ht = e−θt [u(c(t)) + λt (f (kt ) − ct − nkt )].

Nous allons résoudre ce problème en négligeant les conditions de positivité sur k et c. Les
conditions nécessaires (et suffisantes étant données les propriétés de ces fonctions) seront alors
données par :

∂H
=0
∂c
dµ ∂H
:= µ̇ = −
dt ∂k
lim kt µt = 0.
t→∞

La première condition est une condition d’optimalité standard. La seconde conditions est
l’équation de mouvement du prix implicite µ. La dernière condition est la condition de trans-
versalité et nous allons la discuter un peu plus loin.
En tenant compte de la définition de H et en utilisant λ, ces conditions deviennent :

Dico, 2023 . Optimisation Dynamique


4.8. RÈGLE DE KEYNES-RAMSEY Page 41 sur 43

∂H
(4.11) = u′ (ct ) − λt = 0
∂c
⇐⇒ λt = u′ (c(t))
∂H θt
(4.12) λ̇ = − e + θλ
∂k
λ̇ = λ(n − f ′ (k) + θ)
(4.13) lim kt λt e−θt = lim kt u′ (ct )e−θt
t→∞ t→∞

= 0.

Les équations (4.11) et (4.12) peuvent être combinées pour éliminer le multiplicateur λ :

u′ (ct )
λ̇ = = u′ (ct )(n − f ′ (k) + θ)
dt
du′ (ct )/dt
=⇒ = n − f ′ (k) + θ
u′ (ct )
u′′ (ct )(dct /dt)
⇐⇒ = n − f ′ (k) + θ
u′ (ct )
 ′′ 
ct u (ct ) ċt
(4.14) ⇐⇒ = n − f ′ (k) + θ
u′ (ct ) ct

Les conditions essentielles sont donc (4.14) et (4.13) :

λ̇ = λ(n − f ′ (k) + θ)
 ′′ 
ct u ċt
⇐⇒ = n − f ′ (k) + θ
u′ ct
lim kλt e−θt = lim ku′ (ct )e−θt .
t→∞ t→∞

La première de ces conditions doit être vérifiée à tout point du sentier de consommation
optimal. On l’appelle la règle de Keynes ?Ramsey.

4.8 Règle de Keynes-Ramsey


Cette règle est plus facile à comprendre quand on voit le temps en termes discrets et si
l’on considère le problème d’allocation de consommation entre les moments t et t + 1 par le
planificateur central.
S’il diminue la consommation à la date t de dc, il cause une perte d’utilité de u′ (ct )dc.
Néanmoins, cette diminution de la consommation permet un investissement plus élevé
et donc une production plus élevée qui pourra être consacrée à la consommation en t + 1 :
dc(1 + f ′ (k)). La population augmentant au taux n pendant cette période, la consommation/tête

Dico, 2023 . Optimisation Dynamique


4.9. LA CONDITION DE TRANSVERSALITÉ Page 42 sur 43


en t + 1 peut augmenter de dc(1+f
1+n
(k))
.
Cette consommation supplémentaire implique alors une croissance d’utilité en t + 1 (en
valeur actualisée en t) de :

1 dc(1 + f ′ (k))
u′ (ct+1 ) .
1+θ 1+n
Or, le long du sentier de consommation optimale, cette ré-allocation ne doit pas améliorer
(ni détériorer) le bien ?être globale :

1 dc(1 + f ′ (k))
u′ (ct )dc = u′ (ct+1 )
1+θ 1+n
1 1 + f ′ (k)
=⇒ u′ (ct ) = u′ (ct+1 )
1+θ 1+n
1 ′
u (ct+1 ) 1+n
⇐⇒ 1+θ ′ =
u (ct ) 1 + f ′ (k)
⇐⇒ T M St+1,t = T M STt+1,t .

où les indices envoient aux dates des consommations. Si le délais entre t et t + 1 est
suffisamment court, cette condition est équivalente à la condition (4.14).
La règle de Keynes ?Ramsey nous indique que la consommation augmente – reste constante
– diminue selon que le produit marginal du capital (net de la croissance de la population) est
plus – autant – moins élevé que le taux de préférence pour le présent.
Cela est assez intuitif : plus le produit marginal du capital est élevé par rapport au taux
de préférence pour le présent, plus est-il intéressant de réduire la consommation présente pour
profiter d’une consommation future plus élevée.
Si ce produit marginal est fort initialement, la consommation sera croissante dans le temps
sur le sentier optimal. Le rôle de l’élasticité de substitution (4.13) apparaît à ce niveau : plus
élevée est cette élasticité, plus facile il est de sacrifier la consommation présente pour profiter de
la consommation future et donc, pour un niveau excédentaire du produit marginal (par rapport
à la préférence pour le présent), plus fort est le taux de variation de la consommation.

4.9 La condition de transversalité


Une condition de transversalité indique le comportement que doit avoir la commande
quand on arrive à l’horizon du programme (ici à l’infini) : la manière dont la commande doit
traverser la ligne d’horizon.
Cette condition doit nous aider à choisir le sentier optimal parmi les sentiers possibles.
Dans notre cas cette condition est donnée par la contrainte (4.13)

lim kt λt e−θt = lim kt u′ (ct )e−θt = 0.


t→∞ t→∞

Dico, 2023 . Optimisation Dynamique


4.9. LA CONDITION DE TRANSVERSALITÉ Page 43 sur 43

On peut comprendre mieux la signification de cette contrainte si l’on considère notre pro-
blème avec un horizon fini : T .
Dans ce cas, si u′ (cT )e−θT était positive, il serait sous-optimal de terminer avec un stock de
capital positif car on pourrait améliorer le bien-être en consommant ce capital. Par conséquent,
on doit avoir sur le sentier optimal :

kT > 0 et u′ (c∗T )e−θT = 0


ou
kT = 0 et u′ (c∗T )e−θT > 0
ou
kT = 0 et u′ (c∗T )e−θT = 0

On peut condenser ces conditions en une seule :

kT u′ (cT )e−θT = 0.


La condition à horizon infini peut être vue comme étant la limite de cette condition quand
T devient très grand.

lim kT u′ (cT )e−θT = 0.



T →+∞

Dico, 2023 . Optimisation Dynamique

Vous aimerez peut-être aussi