0% ont trouvé ce document utile (0 vote)
59 vues60 pages

Équations Différentielles Stochastiques

Ce document présente la théorie des équations différentielles stochastiques rétrogrades (EDSR) et leurs applications en mathématiques financières et en équations aux dérivées partielles. Il aborde les concepts fondamentaux des EDSR, leur résolution, ainsi que des exemples pratiques, notamment le modèle de Black-Scholes pour le prix des options. Le cours est structuré en deux parties, avec une première partie sur les EDSR et une seconde sur leurs liens avec les EDP.

Transféré par

Sarra Hadjer
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
59 vues60 pages

Équations Différentielles Stochastiques

Ce document présente la théorie des équations différentielles stochastiques rétrogrades (EDSR) et leurs applications en mathématiques financières et en équations aux dérivées partielles. Il aborde les concepts fondamentaux des EDSR, leur résolution, ainsi que des exemples pratiques, notamment le modèle de Black-Scholes pour le prix des options. Le cours est structuré en deux parties, avec une première partie sur les EDSR et une seconde sur leurs liens avec les EDP.

Transféré par

Sarra Hadjer
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Équations Différentielles Stochastiques

Rétrogrades

Philippe Briand

Mars 2001
Introduction

L’objectif de ce cours est de présenter la théorie des équations différentielles stochastiques rétro-
grades – EDSR dans toute la suite du cours – et d’en donner des applications dans deux domaines
différents : les mathématiques financières d’une part et les équations aux dérivées partielles – EDP
en abrégé – d’autre part.
De nombreux mathématiciens ont contribué et contribuent toujours à la théorie des EDSR ;
il m’est impossible de tous les citer. Néanmoins, signalons les travaux de E. Pardoux et S.
Peng [PP90, PP92, PP94] et l’article de N. El Karoui, S. Peng et M.-C. Quenez [EKPQ97].
Le cours est divisé en deux parties : dans un premier temps, on se consacre à l’étude générale
des EDSR puis dans la seconde partie, on étudiera les liens entre les EDSR et les EDP et l’on
introduira la notion de solution de viscosité d’une EDP.
Résoudre une EDSR, c’est trouver un couple de processus adaptés par rapport à la filtration
du mouvement brownien (Wt )0≤t≤T , (Yt , Zt )t∈[0,T ] vérifiant l’équation différentielle stochastique
−dYt = f (t, Yt , Zt )dt − Zt dWt , 0 ≤ t ≤ T,
avec la condition finale (c’est pour cela que l’on dit rétrograde) YT = ξ où ξ est une variable
aléatoire de carré intégrable. Comme les EDS, ces équations doivent être comprise au sens intégral
i.e. Z T Z T
Yt = ξ + f (s, Ys , Zs )ds − Zs dWs , 0 ≤ t ≤ T.
t t

Les EDSR ont été introduites en 1973 par J.-M. Bismut [Bis73] dans le cas où f est linéaire
par rapport aux variables Y et Z. Il a fallu attendre le début des années 90 et le travail de E.
Pardoux et S. Peng [PP90] pour avoir le premier résultat d’existence et d’unicité dans le cas où
f n’est pas linéaire.
Depuis de nombreux travaux ont été effectués ; la théorie n’a cessé de se développer en raison de
ses relations étroites avec les mathématiques financières et les EDP. Donnons un exemple emprunté
à chacun des deux thèmes précédents.
En finance, une question importante est de déterminer le prix d’une option – un produit finan-
cier. Prenons le cas le plus simple, celui du modèle de Black–Scholes et d’un « call européen ». Le
prix de ce produit financier, (Vt )0≤t≤T satisfait l’équation :
dVt = (rVt + θZt )dt + Zt dWt ,
où r est le taux d’intéret à court terme et θ est le « risk premium », avec la condition finale
VT = (ST − K)+ où St est le prix de l’action sous-jacente et K une constante, un prix fixé à
l’avance. Nous voyons que c’est une EDSR linéaire dans ce modèle simple mais qui peut être
non-linéaire dans des modèles financiers plus compliqués.
Venons-en au second exemple. Considérons l’EDP suivante
1 2
∂t u(t, x) + ∂x,x u(t, x) + f (u(t, x)) = 0, u(T, x) = g(x).
2

3
4

Supposons que cette équation possède une solution régulière, u. Appliquons la formule d’Itô à
u(s, Ws ) ; on obtient
1 2
du(s, Ws ) = {∂s u(s, Ws ) + ∂x,x u(s, Ws )}ds + ∂x u(s, Ws )dWs
2
= −f (u(s, Ws ))ds + ∂x u(s, Ws )dWs .

Nous obtenons encore une EDSR – qui est non-linéaire si f l’est – en posant Ys = u(s, Ws ) et
Zs = ∂x u(s, Ws ) puisque

−dYs = f (Ys )ds − Zs dWs , avec, YT = g(WT ).

Le cours commence par des rappels et compléments sur les EDS, puis vient l’étude des EDSR
et enfin les applications aux EDP.
Chapitre 1

Rappels de calcul stochastique

Le but de ce chapitre est de présenter brièvement les résultats de calcul stochastique dont nous
aurons besoin dans la suite du cours. Il ne s’agit nullement de développer la théorie générale pour
laquelle les ouvrages [KS91] et [RY91] sont des références remarquables. La référence [LL97] est
très pédagogique ; le second paragraphe en est fortement inspiré.

1.1. Définitions
Ici (Ω, F, P) est un espace de probabilité complet.

1.1.1. Généralités.
Définition 1.1. Soit T un ensemble. On appelle processus stochastique indexé par T et à valeurs
dans Rd une famille (Xt )t∈T d’applications mesurables de (Ω, F) dans Rd , B(Rd ) ; pour tout
t ∈ T , Xt est une variable aléatoire.

Remarque. Dans ce cours, nous aurons T = N ce qui correspond aux processus à temps discret,
T = R+ ou T = [0, a] pour les processus à temps continu.
Pour simplifier les énoncés qui suivent sont donnés avec T = R+ ; pour alléger l’écriture, nous
noterons un processus X plutôt que (Xt )t≥0 .

Définition 1.2. Un processus X est mesurable si l’application (t, ω) 7−→ Xt (ω) de R+ × Ω dans
Rd est mesurable par rapport aux tribus B(R+ ) ⊗ F et B(Rd ).

On peut noter qu’un processus stochastique peut être vu comme une fonction aléatoire : à
chaque ω, on associe la fonction t 7−→ Xt (ω) qui est appelée trajectoire (sample path en anglais).

Définition 1.3. Soient X et Y deux processus. X est une modification de Y si, pour tout t ≥ 0,
les v.a. Xt et Yt sont égales P–p.s. : ∀t ≥ 0, P(Xt = Yt ) = 1.
X et Y sont indistinguables si, P–p.s., les trajectoires de X et de Y sont les mêmes c’est à dire
P (Xt = Yt , ∀t ≥ 0) = 1.

La notion d’indistinguabilité est plus forte que la notion de modification. Notons que si X est
une modification de Y et si X et Y sont à trajectoires continues à droite (ou à gauche) alors X et
Y sont indistinguables.

Comme dans le cas discret, les tribus jouent un rôle très important dans l’étude des processus
stochastiques car elles représentent l’information disponible et permettent de traduire les notions
de passé, présent et futur.

5
6 CHAPITRE 1. RAPPELS DE CALCUL STOCHASTIQUE

Nous travaillerons avec une filtration {Ft }t≥0 de (Ω, F) c’est à dire une famille croissante de
sous-tribus de F i.e. pour s ≤ t, Fs ⊂ Ft ⊂ F. On définit alors F∞ = σ{∪t Ft } ainsi que, pour
tout t, Ft+ = ∩ε>0 Ft+ε .

Définition 1.4. On dit qu’une filtration {Ft }t≥0 est continue à droite si Ft = Ft+ pour tout t.
On dit qu’elle vérifie les conditions habituelles si elle est continue à droite et si F0 contient tous
les ensembles P–négligeables de F, noté N dans la suite.

Si l’on se donne un processus X, on introduit la filtration Gt = σ{Xs ; s ≤ t}. Cette filtration


s’appelle la filtration naturelle de X. Mais G0 ne contient pas nécessairement N . C’est pour cela
que l’on introduit souvent la filtration naturelle augmentée de X définie par FtX = σ{N ∪ Gt }.
Lorsque nous parlerons de filtration naturelle il s’agira toujours de filtration naturelle augmentée.

Définition 1.5. Un processus X est adapté par rapport à la filtration {Ft }t≥0 si, pour tout t, Xt
est Ft –mesurable.

Il est inutile de dire qu’un processus est toujours adapté par rapport à sa filtration naturelle.
Remarque. Si N ⊂ F0 , et si X est adapté par rapport à {Ft }t≥0 alors toute modification de X est
encore adaptée.

Définition 1.6. Un processus X est progressivement mesurable par rapport à {Ft }t≥0 si, pour
tout t ≥ 0, l’application (s, ω) 7−→ Xs (ω) de [0, t] × Ω dans Rd est mesurable par rapport à
B([0, t]) ⊗ Ft et B(Rd ).

Un processus progressivement mesurable est mesurable et adapté. On peut également noter


que si X est un processus mesurable et adapté alors il possède une modification progressivement
mesurable. Rappelons également le résultat suivant :

Proposition 1.7. Si X est un processus stochastique dont les trajectoires sont continues à droite
(ou continues à gauche) alors X est mesurable et X est progressivement mesurable s’il est de plus
adapté.

Finissons ces généralités par la notion de temps d’arrêt.

Définition 1.8. Soit τ une variable aléatoire à valeurs dans R+ . τ est un {Ft }t≥0 –temps d’arrêt
si, pour tout t, {τ ≤ t} ∈ Ft .

Si τ est un temps d’arrêt, on appelle tribu des évènements antérieurs à τ la tribu définie par

Fτ = {A ∈ F∞ , A ∩ {τ ≤ t} ∈ Ft , ∀t} .

Proposition 1.9. Soit τ un temps d’arrêt. Si X est progressivement mesurable, le processus arrêté
X τ – défini par Xtτ = Xτ ∧t – est progressivement mesurable.

1.1.2. Mouvement brownien.


Définition 1.10. On appelle mouvement brownien standard un processus stochastique W à valeurs
réelles tel que :
1. P–p.s. t 7−→ Wt (ω) est continue ;
2. pour 0 ≤ s < t, Wt − Ws est indépendant de la tribu σ{Wu , u ≤ s} et de loi gaussienne
centrée de variance t − s ;
3. W0 = 0 P–p.s.
1.1. DÉFINITIONS 7

Pour tout t > 0, la variable aléatoire Wt suit la loi gaussienne centrée de variance t donc de
densité (2πt)−1/2 exp{−x2 /(2t)}. On dit qu’un mouvement brownien (MB dans la suite) part d’un
point x si W0 = x.
Remarque. On dit que W est un {Ft }t≥0 –MB si W est un processus continu, adapté à la filtration
{Ft }t≥0 , vérifiant :
 
E eiu(Wt −Ws ) | Fs = exp −u2 (t − s)/2 .

∀u ∈ R, ∀0 ≤ s ≤ t,

Proposition 1.11. Soit W un MB standard.


1. pour tout s > 0, {Wt+s − Ws }t≥0 est un MB indépendant de σ{Wu , u ≤ s} ;
2. −W est aussi un MB ;
3. pour tout c > 0, {cWt/c2 }t≥0 est un MB ;
4. le processus défini par X0 = 0 et Xt = tW1/t est un MB.

Rappelons qu’une fonction f à valeurs réelles et définie sur R+ est localement hölderienne
d’ordre α si, pour tout a > 0, il existe une constante C telle que :

∀(x, y) ∈ [0, a]2 , |f (x) − f (y)| ≤ C |x − y|α .

Théorème 1.12 (Propriétés des trajectoires). Si W est un MB, alors presque sûrement, on a :
1. t 7−→ Wt (ω) n’est à variation finie sur aucun intervalle ;
2. t 7−→ Wt (ω) est localement hölderienne d’ordre α pour tout α < 1/2.
3. t 7−→ Wt (ω) n’est dérivable en aucun point (ni localement hölderienne d’ordre α ≥ 1/2).

Définition 1.13. On appelle MB standard à valeurs dans Rd , un vecteur W = W 1 , . . . , W d où
les W i sont des MB réels indépendants.

Proposition 1.14. Soit W un MB. La filtration FtW t≥0 vérifie les conditions habituelles et W
 W
est un Ft t≥0 –MB.

1.1.3. Martingales.
Définition 1.15. Un processus X à valeurs réelles est une surmartingale par rapport à la filtration
{Ft }t≥0 si :
1. pour tout t ≥ 0, Xt est Ft –mesurable ;
2. pour tout t ≥ 0, Xt− est intégrable ;
3. pour 0 ≤ s ≤ t, E (Xt | Fs ) ≤ Xs .
X est une sousmartingale lorsque −X est une surmartingale ; X est une martingale si X est à
la fois une surmartingale et une sous-martingale.
  
Remarque. Si W est un MB, alors Wt2 − t t≥0 et exp σWt − σ 2 t/2 t≥0 sont des martingales.

Théorème 1.16 (Inégalités maximales). Soit X une martingale (ou une sous-martingale positive)
continue à droite. Alors,
1. ∀p ≥ 1, ∀a > 0, ap P (supt |Xt | ≥ a) ≤ supt E [|Xt |p ] ;
2. ∀p > 1, E [supt |Xt |p ] ≤ q p supt E [|Xt |p ] où q = p(p − 1)−1 .

Théorème 1.17 (Théorème d’arrêt). Si X est une martingale et si σ et τ sont deux temps d’arrêt
bornés tels que σ ≤ τ , alors, E(Xτ |Fσ ) = Xσ P–p.s.
8 CHAPITRE 1. RAPPELS DE CALCUL STOCHASTIQUE

Rappelons aussi qu’un processus X adapté et intégrable est une martingale si et seulement si,
pour tout temps d’arrêt borné τ , E[Xτ ] = E[X0 ].
Pour le dernier résultat nous supposons que la filtration {Ft }t≥0 vérifie les conditions habi-
tuelles.
Théorème 1.18. Soit X une {Ft }t≥0 –martingale. X possède une modification càdlàg i.e. dont
les trajectoires sont continues à droite et possèdent des limites à gauche.

Indroduisons à présent une classe plus vaste de processus stochastiques : les martingales locales.
Définition 1.19. Soit X un processus {Ft }t≥0 –adapté, à trajectoires continues à droite. On dit
que X est une martingale locale s’il existe une suite croissante de temps d’arrêt {τn }n≥1 telle que
limn→∞ τn = +∞ P–p.s et, pour tout n, X τn 1τn >0 est une martingale.
Théorème 1.20. Soit X une martingale locale continue. Il existe un unique processus croissant
et continu, hX, Xi, nul en 0, tel que X 2 − hX, Xi soit une martingale locale.

Remarque. Si W est un MB, on a hW, W it = t car Wt2 − t t≥0 est une martingale.
Proposition 1.21. Soit X une martingale locale continue. Il y a équivalence entre :
1. X0 ∈ L2 et E[hX, Xi∞ ] < ∞ ;
2. X est une martingale bornée dans L2 .
Rappelons pour finir ce paragraphe les inégalités de Burkholder–Davis–Gundy connues aussi
sous le nom d’inégalités BDG.
Théorème 1.22 (Inégalités BDG). Soit p > 0 un réel. Il existe deux constantes cp et Cp telles
que, pour toute martingale locale continue X, nulle en zéro,
h i   h i
cp E hX, Xip/2
∞ ≤ E sup |Xt | p
≤ Cp E hX, Xip/2
∞ .
t≥0

Remarque. En particulier, si T > 0,


h i   h i
p/2 p p/2
cp E hX, XiT ≤ E sup |Xt | ≤ Cp E hX, XiT .
0≤t≤T

1.2. Calcul d’Itô


Dans tout ce paragraphe, on se donne (Ω, F, P) un espace de probabilité complet, {Ft }t≥0 une
filtration qui vérifie les conditions habituelles et W un {Ft }t≥0 –MB (on peut prendre Ft = FtW ).
Les martingales seront toujours càdlàg.
Rt
1.2.1. Intégrale stochastique. L’objectif de ce paragraphe est de définir 0
Hs dWs . Ceci
n’est pas évident car comme nous l’avons rappelé précédemment les trajectoires du MB ne sont pas
à variation finie et donc l’intégrale précédente n’est en aucun cas une intégrale de Lebesgue-Stieljes.
Dans toute la suite, on fixe un réel T strictement positif. Les processus sont définis pour
t ∈ [0, T ] ; on notera X pour (Xt )t∈[0,T ] .
Définition 1.23. On appelle processus élémentaire H = (Ht )0≤t≤T un processus de la forme :
p
X
Ht = φ0 10 (t) + φi 1]ti−1 ,ti ] (t),
i=1

où 0 = t0 < t1 < . . . < tp = T , φ0 est une variable aléatoire F0 –mesurable bornée et, pour
i = 1, . . . , p, φi est une variable aléatoire Fti−1 –mesurable et bornée.
1.2. CALCUL D’ITÔ 9

Pour un tel processus, on peut définir l’intégrale stochastique par rapport à W comme étant le
processus continu {I(H)t }0≤t≤T défini par :
p
X
I(H)t = φi (Wti ∧t − Wti−1 ∧t ),
i=1

soit encore, si t ∈]tk , tk+1 ],


k
X
I(H)t = φi (Wti − Wti−1 ) + φk+1 (Wt − Wtk ).
i=1
Rt
On note 0
Hs dWs pour I(H)t . On obtient alors directement à l’aide de cette définition le résultat
suivant :
R 
t
Proposition 1.24. Si H est un processus élémentaire, alors 0
Hs dWs est une {Ft }t≥0 –
0≤t≤T
martingale continue telle que
 Z t 2
 Z t 
∀t ∈ [0, T ], E Hs dWs =E Hs2 ds .
0 0

On veut à présent définir l’intégrale stochastique pour une classe plus vaste de processus H.
Pour la première extension, on utilise la densité des processus élémentaires dans l’espace vectoriel
M2 suivant :
( "Z # )
T
M2 = (Ht )0≤t≤T , progressivement mesurable, E Hs2 ds < ∞ .
0

On désigne par H2 l’espace vectoriel des martingales bornées dans L2 ; le sous-espace de H2


formé par les martingales qui sont continues est noté H2c . On munit H2 de la norme définie par
kM kH2 = E[|MT |2 ]1/2 qui en fait un espace de Hilbert. L’inégalité de Doob montre que cette
norme est équivalente à la norme E[supt |Mt |2 ]1/2 ; par suite, H2c est un sous-espace fermé. H2
et H2c désignent les sous-espaces de H2 et H2c constitués des martingales nulles en 0 ; ces deux
sous-espaces sont fermés.
On obtient alors le résultat suivant :
Théorème 1.25. Il existe une unique application linéaire J de M2 dans H2c telle que :
1. si H est un processus élémentaire, alors I(H) et J(H) sont indistinguables ;
hR i
  t
2. pour tout t, E J(H)2t = E 0 Hs2 ds .
L’unicité signifie que si J et J 0 sont deux prolongements vérifiant les propriétés précédentes
alors J(H) et J 0 (H) sont indistinguables.
Rt
On note toujours 0 Hs dWs pour J(H)t .
Remarque. Notons M2 l’ensemble des classes d’équivalence de M2 . M2 est un espace de Hilbert.
L’intégrale stochastique est alors une isométrie de M2 dans H2c .
On obtient les propriétés suivantes :
Proposition 1.26. Soit H ∈ M2 . On a
Z t "Z #

2
 T
E sup0≤t≤T Hs dWs ≤ 4E Hs2 ds ,
0 0

et si τ est un temps d’arrêt,


Z τ Z T
Hs dWs = 1s≤τ Hs dWs , P–p.s.
0 0
10 CHAPITRE 1. RAPPELS DE CALCUL STOCHASTIQUE

La dernière extension de l’intégrale stochastique dont nous aurons besoin consiste à relaxer
l’hypothèse d’intégrabilité portant sur H. On introduit pour cela
( )
Z T
M2loc = (Ht )0≤t≤T , progressivement mesurable, Hs2 ds < ∞ P–p.s. .
0

et on a le résultat suivant :

Proposition 1.27. Il existe une unique application linéaire J 0 de M2loc dans l’ensemble des mar-
tingales locales continues telle que :
1. si H est un processus élémentaire alors J 0 (H) et I(H) sont indistinguables ;
RT
2. si (Hn )n est une suite de processus de M2loc telle que 0 Hsn 2 ds tend vers 0 en probabilité
alors sup0≤t≤T |J 0 (H n )t | tend vers 0 en probabilité.
Rt
On note encore Hs dWs pour J 0 (H)t .
0
R 
t
Remarque. Attention, lorsque H ∈ M2loc , 0 Hs dWs est seulement une martingale locale
0≤t≤T
et pas nécessairement une martingale.
R· Rt
Proposition 1.28. Pour H ∈ M2loc , h 0 Hs dWs it = 0 Hs2 ds.

1.2.2. Processus d’Itô. Nous introduisons à présent une classe de processus qui sera très
utile dans la suite.

Définition 1.29. On appelle processus d’Itô un processus X à valeurs réelles tel que :
Z t Z t
P–p.s. ∀0 ≤ t ≤ T, Xt = X0 + Ks ds + Hs dWs ,
0 0

où X0 est F0 –mesurable, K et H sont deux processus progressivement mesurables vérifiant les


conditions, P–p.s. :
Z T Z T
|Ks | ds < ∞ et |Hs |2 ds < ∞.
0 0

On peut montrer que si un processus d’Itô est une martingale locale continue alors Kt = 0
m ⊗ P–p.p. On en déduit alors que la décomposition d’un processus d’Itô est unique au sens où si
Z t Z t Z t Z t
Xt = X0 + Ks ds + Hs dWs = X00 + Ks0 ds + Hs0 dWs
0 0 0 0

alors X0 = X00 P–p.s. et Ht0 = Ht , Kt = Kt0 m ⊗ P–p.p.


Si X et Y sont deux processus d’Itô,
Z t Z t Z t Z t
Xt = X0 + Ks ds + Hs dWs et Yt = X00 + Ks0 ds + Hs0 dWs
0 0 0 0
Rt
on pose hX, Y it = 0
Hs Hs0 ds et dXt = Kt dt + Ht dWt . On a alors la

Proposition 1.30 (Intégration par parties). Si X et Y sont deux processus d’Itô, alors
Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + hX, Y it .
0 0
1.3. RÉSULTATS IMPORTANTS 11

Théorème 1.31 (Formule d’Itô). Soient (t, x) 7−→ f (t, x) une fonction réelle deux fois différen-
tiable en x et une fois différentiable en t et X un processus de Itô. On a :
Z t Z t
1 t 00
Z
f (t, Xt ) = f (0, X0 ) + fs0 (s, Xs ) ds + fx0 (s, Xs ) dXs + f (s, Xs ) dhX, Xis .
0 0 2 0 xx

Nous finissons ce paragraphe en étendant la formule précédente au cas d’un mouvement brow-
nien d–dimensionnel et d’un processus d’Itô n–dimensionnel. Les hypothèses sur les coefficients
sont celles de la Définition 1.29.
Théorème 1.32. Soit X un processus d’Itô à valeurs dans Rn : pour i = 1, . . . , n,
Z t d Z
X t
Xti = X0i + Ksi ds + Hsi,k dWsk .
0 k=1 0

Si f est deux fois différentiable en x et une fois en t on a :


Z t n Z
X t
f (t, Xt ) = f (0, X0 ) + ∂s f (s, Xs ) ds + ∂xi f (s, Xs ) dXsi
0 i=1 0
n Z
1 X t 2
+ ∂ f (s, Xs ) dhX i , X j is ,
2 i,j=1 0 xi ,xj

Pd Pd
avec dXsi = Ksi ds + k=1 Hsi,k dWsk et dhX i , X j is = k=1 Hsi,k Hsj,k ds.

Le résultat est plus simple à retenir sous forme vectorielle. Pour cela, on note X le vecteur
colonne de Rn de coordonnées X i , K le vecteur de Rn de coordonnées K i et W le vecteur de Rd
de coordonnée W j . On introduit alors la matrice de taille n × d, H = (H i,j )1≤i≤n, 1≤j≤d . Avec ces
notations, on a : Z Z t t
Xt = X0 + Ks ds + Hs dWs ,
0 0
où Hs dWs est un produit matrice–vecteur colonne. La formule d’Itô s’écrit sous la forme, notant
x · y le produit scalaire dans Rn et H ∗ la transposée de H
Z t Z t
1 t
Z
trace D2 f (s, Xs )Hs Hs∗ ds,

f (t, Xt ) = f (0, X0 ) + ∂s f (s, Xs ) ds + ∇f (s, Xs ) · dXs +
0 0 2 0
soit encore
Z t
f (t, Xt ) = f (0, X0 ) + (∂s f (s, Xs ) + ∇f (s, Xs ) · Ks ) ds
0
1 t
Z Z t
trace D2 f (s, Xs )Hs Hs∗ ds +

+ Df (s, Xs )Hs dWs .
2 0 0

1.3. Résultats importants


Rappelons tout d’abord la caractérisation du mouvement brownien en termes de martingales
due à Paul Lévy.
Théorème 1.33. Soit X une {Ft }t≥0 –martingale locale continue, nulle en 0. On suppose que,
pour tout i, j ∈ {1, . . . , d}, hX i , X j it = δi,j t. Alors X est un {Ft }t≥0 –mouvement brownien dans
Rd .
12 CHAPITRE 1. RAPPELS DE CALCUL STOCHASTIQUE

Démonstration. Plaçons-nous sur [0, T ] et remarquons que X est une martingale de carré intégrable
si la condition de crochet est satisfaite. Nous devons montrer que
 
∀0 ≤ s ≤ t ≤ T, ∀u ∈ Rd , E eiu·(Xt −Xs ) | Fs = exp −|u|2 (t − s)/2 .


Appliquons la formule d’Itô à la fonction x 7−→ eiu·x entre s et t pour obtenir


Z t
|u|2 t iu·Xr
Z
eiu·Xt = eiu·Xs + ieiu·Xr u · dXr − e dr.
s 2 s
Comme X est une martingale de carré intégrable, l’intégrale stochastique précédente est une mar-
tingale ; si on multiplie l’égalité par e−iu·Xs 1A où A ∈ Fs , on obtient en prenant l’espérance,

|u|2 t h iu·(Xr −Xs ) i


h i Z
E eiu·(Xt −Xs ) 1A = P(A) − E e 1A dr,
2 s
et par suite h i
E eiu·(Xt −Xs ) 1A = P(A) exp −|u|2 (t − s)/2 ,


ce qui conclut la preuve de ce résultat.

Nous allons utiliser cette caractérisation du mouvement brownien pour démontrer que toute
martingale dans la filtration brownienne est une intégrale stochastique par rapport au mouve-
ment brownien. Insistons lourdement sur le fait que nous travaillons avec la filtration naturelle du
mouvement brownien W et reprenons la notation FtW pour ne pas l’oublier.
Théorème 1.34 (Représentation des martingales browniennes). Soit M une martingale (càdlàg)
de carré intégrable pour la filtration FtW t∈[0,T ] . Alors il existe un unique processus (Ht )t∈[0,T ] ,
appartenant à M2 (Rk ), tel que
Z t
P–p.s. ∀t ∈ [0, T ], Mt = M0 + Hs · dWs .
0

Il est important de remarquer que ce résultat implique que, dans la filtration brownienne, les
martingales sont continues.

Démonstration. Nous nous plaçons en dimension un pour simplifier l’écriture. Rappelons que H2 est
l’espace des martingales de carré
 2intégrable,
 H2c le sous-espace formé des martingales continues. La
2
norme utilisée est kM k = E MT qui fait des deux espaces précédents deux espaces de Hilbert.
H2 et H2c sont les sous-espaces de H2 et H2c formés par les martingales nulles en 0. On note J
l’application intégrale stochastique : J : M2 −→ H2c .

On doit montrer que H2 = J M2 . Pour cela remarquons tout d’abord que siM ∈ H2 il
existe un unique couple de martingales (X, Y ) tel que M = X + Y avec X ∈ J M2 et Y ∈ H2
vérifiant hY,
 W i = 0. Cette dernière condition signifie que XY est une martingale pour toute
X ∈ J M2 . L’unicité est évidente. Pour l’existence, notons que J M2 T l’ensemble des conditions

terminales des intégrales browniennes, est un fermé de L2 FTW . Soit F l’orthogonal.
 On considère
la décomposition orthogonale MT = XT + YT et on définit Yt = E YT | FtW . On doit montrer
que le crochet de Y et W est nul ce qui revient à montrer que Y W est une martingale. Si τ est un
temps d’arrêt,
E[Yτ Wτ ] = E Wτ E YT | FτW = E [Wτ YT ] = E [WTτ YT ] ;
 

la dernière espérance est nulle car W τ appartient à J M2 et donc Y est orthogonale à W .
 
Comme J M2 est fermé il suffit de démontrer que G ⊂ J M2 pour un sous-ensemble dense
de H2 . Les martingales bornées sont denses. Mais on peut remarquer que les martingales bornées
1.3. RÉSULTATS IMPORTANTS 13

telles que Y est également bornée sont denses. En effet, si M est une martingale bornée, notons
(X, Y ) sa décomposition. On introduit la suite de temps d’arrêt σn = inf{t, |Xt | ≥ n}. Comme
X est continue, X σn et par suite Y σn = M σn − X σn sont des martingales bornées. On a bien
évidemment MTσn −→ MT dans L2 . Montrons que la décomposition de M σn est (X σn , Y σn ). Il s’agit
de montrer que W est orthogonal à Y σn puisque X σn s’écrit comme une intégrale stochastique.
Or hY σn , W i = hY, W iσn ce qui donne le résultat.
On suppose donc que X, Y , et M sont bornées par α. Soit D = 1 + YT /(2α). On a D ≥ 1/2 et
E[D] = 1. On considère P∗ la probabilité sur FTW de densité D par rapport à P. Soit X ∈ J M2 ;
montrons que X est une P∗ –martingale. Soit donc τ un temps d’arrêt. On a, comme E[Xτ ] = 0,
E∗ [Xτ ] = E[DXτ ] = E[YT Xτ ]/(2α) = E[Yτ Xτ ]/(2α) = hY, Xiτ /(2α) = 0,
Rt
ce qui montre que X est une P∗ –martingale. Comme Wt2 − t = 2 0 Wr dWr , le calcul précédent
montre que Wt et Wt2 − t sont des P∗ –martingales continues. Donc d’après le théorème de Paul
Lévy, sous P comme sous P∗ , W est un mouvement brownien. Comme D est mesurable par rapport
à FTW , on en déduit que D = 1 ce qui donne YT = 0 et donc Y = 0.

On déduit de ce résultat que si ξ est une variable aléatoire de carré intégrable, FTW –mesurable,
il existe un unique processus (Ht )t∈[0,T ] ∈ M2 (Rd ) tel que
Z T
ξ = E[ξ] + Hs · dWs .
0

Théorème 1.35 (Girsanov). Soit (ht )0≤t≤T un processus progressivement mesurable, à valeurs
RT
dans Rd tel que P–p.s. 0 |hs |2 ds < +∞. On suppose que le processus (Dt )0≤t≤T défini par
Z t
1 t
Z 
2
Dt = exp hs · dWs − |hs | ds
0 2 0
est une martingale. RSoit P∗ la mesure de densité DT par rapport à P sur FT . Introduisons le
t
processus Bt = Wt − 0 hs ds. Alors, sous la probabilité P∗ , B est un mouvement brownien standard.
h n RT oi
Remarque. Lorsque E exp 1/2 0 |hs |2 ds < +∞, D est une martingale. Ce critère est connu
sous le nom de condition de Novikov.
Nous finissons ce chapitre préliminaire par le critère de Kolmogorov. Fixons quelques notations.
Soit X un processus à valeurs dans un espace de Banach indicé par un paramètre d–dimensionnel.
On note k · k la norme de l’espace de Banach et | · | celle de Rd . Rappelons qu’une fonction f à
valeurs dans un Banach et définie sur Rd est localement hölderienne d’ordre α si, pour tout a > 0,
il existe une constante C telle que :
∀|x|, |y| ≤ a, kf (x) − f (y)k ≤ C |x − y|α .
Théorème 1.36 (Critère de Kolmogorov). Soit (Xt )t∈[0,1]d un processus à valeurs dans un Banach.
Supposons qu’il existe trois constantes strictement positives, γ, ε, C, telles que :
∀s, t ∈ [0, 1]d , E [kXt − Xs kγ ] ≤ C |t − s|d+ε .
Alors il existe une modification Y de X telle que
γ 
E sups6=t kYt − Ys k/|t − s|α

∀α ∈ [0, ε/γ[, < +∞.

En particulier, les trajectoires de Y sont hölderiennes d’ordre α.


Remarque. Notons que [0, 1]d n’est pas fondamental. Si d = 2, on peut avoir par exemple R+ × R,
mais les trajectoires de Y sont alors localement hölderiennes.
Chapitre 2

Équations différentielles stochastiques rétrogrades

L’objectif de ce chapitre est d’introduire la notion d’équations différentielles stochastiques rétro-


grades, EDSR en abrégé, et de préciser la terminologie employée dans ce contexte. Nous montrerons
le résultat classique d’existence et d’unicité ; des exemples d’EDSR sont donnés à la fin du chapitre.

2.1. Vocabulaire et notations

2.1.1. Présentation du problème. Soient (Ω, F, (Ft )t≥0 , P) un espace probabilisé filtré
et variable aléatoire ξ mesurable par rapport à FT . On voudrait résoudre l’équation différentielle
suivante :
−dYt
= f (Yt ), t ∈ [0, T ], avec, YT = ξ,
dt
en imposant que, pour tout instant t, Yt ne dépende pas du futur après t c’est à dire que le processus
Y soit adapté par rapport à la filtration {Ft }t≥0 .
Prenons l’exemple le plus simple à savoir f ≡ 0. Le candidat naturel est Yt = ξ qui n’est pas
adapté si ξ n’est pas déterministe. La meilleure approximation – disons dans L2 – adaptée est la
martingale Yt = E(ξ | Ft ). Si on travaille avec la filtration naturelle d’un mouvement brownien, le
théorème de représentation des martingales browniennes permet de construire un processus Z de
carré intégrable et adapté tel que :
Z t
Yt = E(ξ | Ft ) = E[ξ] + Zs dWs .
0

Un calcul élémentaire montre alors que


Z T
Yt = ξ − Zs dWs , i.e. − dYt = −Zt dWt , avec, YT = ξ.
t

On voit donc apparaître sur l’exemple le plus simple une seconde inconnue qui est le processus
Z dont le rôle est de rendre le processus Y adapté.
Par conséquent, comme une seconde variable apparaît, pour obtenir la plus grande généralité,
on permet à f de dépendre du processus Z ; l’équation devient donc :

−dYt = f (t, Yt , Zt ) dt − Zt dWt , avec, YT = ξ.

2.1.2. Notations. Soient (Ω, F, P) un espace de probabilité complet et W un MB d–dimensionnel


sur cet espace. On notera {Ft }t≥0 la filtration naturelle du MB W . On travaillera avec deux espaces
de processus :

15
16 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES

– on notera tout d’abord S 2 (Rk ) l’espace vectoriel formé des processus Y , progressivement
mesurables, à valeurs dans Rk , tels que :
 
kY k2S 2 := E sup |Yt |2 < ∞,
0≤t≤T

et Sc2 (Rk ) le sous-espace formé par les processus continus. Deux processus indistinguables
seront toujours identifiés et nous garderons les mêmes notations pour les espaces quotients.
– et ensuite M2 (Rk×d ) celui formé par les processus Z, progressivement mesurables, à valeurs
dans Rk×d , tels que : "Z #
T
2 2
kZkM2 := E kZt k dt < ∞,
0

où si z ∈ Rk×d , kzk2 = trace(zz ∗ ). M2 (Rk×d ) désigne l’ensemble des classes d’équivalence de


M2 (Rk×d ).
Rk et Rk×d seront souvent omis ; les espaces S 2 , Sc2 et M2 sont des espaces de Banach pour les
normes définies précédemment. Nous désignerons B 2 l’espace de Banach Sc2 (Rk ) × M2 (Rk×d ).
Dans tout ce chapitre, ainsi que dans le suivant, nous nous donnons une application aléatoire
f définie sur [0, T ] × Ω × Rk × Rk×d à valeurs dans Rk telle que, pour tout (y, z) ∈ Rk × Rk×d , le
processus {f (t, y, z)}0≤t≤T soit progressivement mesurable. On considère également une variable
aléatoire ξ, mesurable par rapport à FT et à valeurs dans Rk .
Dans ce contexte, on veut résoudre l’équation différentielle stochastique rétrograde (EDSR en
abrégé) suivante :
−dYt = f (t, Yt , Zt ) dt − Zt dWt , 0 ≤ t ≤ T, YT = ξ,
ou, de façon équivalente, sous forme intégrale,
Z T Z T
Yt = ξ + f (r, Yr , Zr ) dr − Zr dWr , 0 ≤ t ≤ T. (2.1)
t t

La fonction f s’appelle le générateur de l’EDSR et ξ la condition terminale. Sans plus tarder,


précisons ce que l’on entend par solution de l’EDSR (2.1).
Définition 2.1. Une solution de l’EDSR (2.1) est un couple de processus {(Yt , Zt )}0≤t≤T vérifiant :
1. Y et Z sont progressivement mesurables à valeurs respectivement dans Rk et Rk×d ;
Z T
|f (r, Yr , Zr )| + kZr k2 dr < ∞ ;

2. P–p.s.
0
3. P–p.s., on a :
Z T Z T
Yt = ξ + f (r, Yr , Zr ) dr − Zr dWr , 0 ≤ t ≤ T.
t t
Remarque. Il est important de retenir les deux points suivants : tout d’abord, les intégrales de
l’équation (2.1) étant bien définies, Y est une semi-martingale continue ; ensuite, comme le pro-
cessus Y est progressivement mesurable, il est adapté et donc en particulier Y0 est une quantité
déterministe.
Avant de donner un premier théorème d’existence et d’unicité, nous allons montrer, que sous
une hypothèse relativement faible sur le générateur f , le processus Y appartient à S 2 .
Proposition 2.2. Supposons qu’il existe un processus {ft }0≤t≤T , positif, appartenant à M2 (R) et
une constante positive λ tels que
∀(t, y, z) ∈ [0, T ] × Rk × Rk×d , |f (t, y, z)| ≤ ft + λ (|y| + kzk) .

Si {(Yt , Zt )}0≤t≤T est une solution de l’EDSR (2.1) telle que Z ∈ M2 alors Y appartient à Sc2 .
2.2. LE CAS LIPSCHITZ 17

Démonstration. Le résultat se déduit principalement du lemme de Gronwall et du fait que Y0 est


déterministe. En effet, on a, pour tout t ∈ [0, T ],
Z t Z t
Yt = Y0 − f (r, Yr , Zr ) dr + Zr dWr ,
0 0

et par suite, utilisant l’hypothèse sur f ,


Z T Z t Z t
|Yt | ≤ |Y0 | + (fr + λkZr k) dr + sup Zr dWr + λ |Yr | dr.
0 0≤t≤T 0 0

Posons Z T Z t
ζ = |Y0 | + (fr + λkZr k) dr + sup Zr dWr .
0 0≤t≤T 0

Par hypothèse, Z appartient à M2 et donc, via l’inégalité de Doob, le troisième terme est de carré
intégrable ; il en est de même pour {ft }0≤t≤T , et Y0 est déterministe donc de carré intégrable ; il
s’en suit que ζ est une variable aléatoire de carré intégrable.
Comme Y est un processus continu – cf. remarque précédente, le lemme de Gronwall fournit
l’inégalité sup0≤t≤T |Yt | ≤ ζeλT qui montre que Y appartient à S 2 .
Remarque. Le résultat est encore valable lorsque kf· k1 est une variable aléatoire de carré intégrable.
Finissons par un résultat d’intégrabilité qui nous servira à plusieurs reprise.
Z t 
2 k 2 k×d
Lemme 2.3. Soient Y ∈ S (R ) et Z ∈ M (R ). Alors Ys · Zs dWs , t ∈ [0, T ] est une
0
martingale uniformément intégrable.

Démonstration. Les inégalités BDG donnent


Z t " Z #
   T 1/2
2 2
E sup Yr · Zr dWr ≤ CE |Yr | kZr k dr
0≤t≤T 0 0
" #
Z T 1/2
2
≤ CE sup |Yt | kZr k dr ,
0≤t≤T 0

et par suite, comme ab ≤ a2 /2 + b2 /2,


Z t "Z #!
    T
E sup Yr · Zr dWr ≤ C 0 E sup |Yt |2 + E kZr k2 dr .
0≤t≤T 0 0≤t≤T 0

Or cette dernière quantité est finie par hypothèse ; d’où le résultat.

2.2. Le cas Lipschitz


2.2.1. Le résultat de Pardoux–Peng. Dans ce paragraphe, nous allons montrer un
premier résultat d’existence et d’unicité qui sera généralisé au chapitre suivant. Ce résultat est dû
à E. Pardoux et S. Peng [PP90] ; c’est le premier résultat d’existence et d’unicité pour les EDSR
dans le cas où le générateur est non-linéaire.
Rappelons pour la dernière fois que f est définie sur [0, T ] × Ω × Rk × Rk×d à valeurs dans
R , telle que, pour tout (y, z) ∈ Rk × Rk×d , le processus {f (t, y, z)}0≤t≤T soit progressivement
k

mesurable. On considère également ξ une variable aléatoire, FT –mesurable, à valeurs dans Rk .


Voici les hypothèses sous lesquelles nous allons travailler.
(L) Il existe une constante λ telle que P–p.s.,
18 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES

1. condition de Lipschitz en (y, z) : pour tout t, y, y 0 , z, z 0 ,

|f (t, y, z) − f (t, y 0 , z 0 )| ≤ λ (|y − y 0 | + kz − z 0 k) ;

2. condition d’intégrabilité :
" #
Z T
2 2
E |ξ| + |f (r, 0, 0)| dr < ∞.
0

Nous commençons par un cas très simple, celui où f ne dépend ni de y ni de z i.e. on se donne
ξ de carré intégrable et un processus {Ft }0≤t≤T dans M2 (Rk ) et on veut trouver une solution de
l’EDSR Z Z T T
Yt = ξ + Fr dr − Zr dWr , 0 ≤ t ≤ T. (2.2)
t t

Lemme 2.4. Soient ξ ∈ L2 (FT ) et {Ft }0≤t≤T ∈ M2 (Rk ). L’EDSR (2.2) possède une unique
solution (Y, Z) telle que Z ∈ M2 .

Démonstration. Supposons dans un premier temps que (Y, Z) soit une solution vérifiant Z ∈ M2 .
Si on prend l’espérance conditionnelle sachant Ft , on a nécessairement,
!
Z T
Yt = E ξ + Fr dr Ft .
t

On définit donc Y à l’aide de la formule précédente et il reste à trouver R t Z. Remarquons que,


d’après le théorème de Fubini, comme F est progressivement mesurable, 0 Fr dr est un processus
adapté à la filtration {Ft }t∈[0,T ] ; en fait dans Sc2 puisque F est de carré intégrable. On a alors,
pour tout t ∈ [0, T ],
! Z
Z T Z t t
Yt = E ξ + Fr dr Ft − Fr dr := Mt − Fr dr.
0 0 0

M est une martingale brownienne ; via le théorème de représentation des martingales brow-
niennes on construit un processus Z appartenant à M2 tel que
Z t Z t Z t
Yt = Mt − Fr dr = M0 + Zr dWr − Fr dr.
0 0 0

On vérifie facilement que (Y, Z) ainsi construit est une solution de l’EDSR étudiée puisque
comme YT = ξ,
!
Z Z t Z tZ T T
Yt − ξ = M0 + Zr dWr − Fr dr − M0 + Zr dWr − Fr dr
0 0 0 0
Z T Z T
= Fr dr − Zr dWr .
t t

L’unicité est évidente pour les solutions vérifiant Z ∈ M2 .

Nous montrons à présent le théorème de Pardoux et Peng.


Théorème 2.5. Pardoux–Peng 90. Sous l’hypothèse (L), l’EDSR (2.1) possède une unique
solution (Y, Z) telle que Z ∈ M2 .
2.2. LE CAS LIPSCHITZ 19

Démonstration. Nous utilisons un argument de point fixe dans l’espace de Banach B 2 en construi-
sant une application Ψ de B 2 dans lui-même de sorte que (Y, Z) ∈ B 2 est solution de l’EDSR (2.1)
si et seulement si c’est un point fixe de Ψ.
Pour (U, V ) élément de B 2 , on définit (Y, Z) = Ψ(U, V ) comme étant la solution de l’EDSR :
Z T Z T
Yt = ξ + f (r, Ur , Vr ) dr − Zr dWr , 0 ≤ t ≤ T.
t t

Remarquons que cette dernière EDSR possède une unique solution qui est dans B 2 . En effet,
posons Fr = f (r, Ur , Vr ). Ce processus appartient à M2 puisque, f étant Lipschitz,

|Fr | ≤ |f (r, 0, 0)| + λ|Ur | + λkVr k,

et ces trois derniers processus sont de carré intégrable. Par suite, nous pouvons appliquer le
Lemme 2.4 pour obtenir une unique solution (Y, Z) telle que Z ∈ M2 . (Y, Z) appartient à B 2 :
l’intégralité de Z est obtenue par construction et, d’après la Proposition 2.2, Y appartient à Sc2 .
L’application Ψ de B 2 dans lui-même est donc bien définie.
Soient (U, V ) et (U 0 , V 0 ) deux éléments de B 2 et (Y, Z) = Ψ(U, V ), (Y 0 , Z 0 ) = Ψ(U 0 , V 0 ). Notons
y = Y − Y 0 et z = Z − Z 0 . On a, yT = 0 et

dyt = − {f (t, Ut , Vt ) − f (t, Ut0 , Vt0 )} dt + zt dWt .

On applique la formule de Itô à eαt |yt |2 pour obtenir :

d eαt |yt |2 = αeαt |yt |2 dt − 2eαt yt · {f (t, Ut , Vt ) − f (t, Ut0 , Vt0 )} dt + 2eαt yt · zt dWt + eαt kzt k2 dt.


Par conséquent, intégrant entre t et T , on obtient


Z T Z T
eαt |yt |2 + eαr kzr k2 dr = eαr −α|yr |2 + 2yr · {f (r, Ur , Vr ) − f (r, Ur0 , Vr0 )} dr

t t
Z T
− 2eαr yr · zr dWr ,
t

et, comme f est Lipschitz, il vient, notant u et v pour U − U 0 et V − V 0 respectivement,


Z T Z T Z T
eαt |yt |2 + eαr kzr k2 dr ≤ eαr −α|yr |2 + 2λ|yr | |ur | + 2λ|yr | kvr k dr − 2eαr yr · zr dWr .

t t t

Pour tout ε > 0, on a 2ab ≤ a2 /ε + εb2 , et donc, l’inégalité précédente donne


Z T Z T Z T
eαt |yt |2 + eαr kzr k2 dr ≤ eαr −α + 2λ2 /ε |yr |2 dr − 2eαr yr · zr dWr

t t t
Z T
eαr |ur |2 + kvr k2 dr,


t
Z T
eαr |ur |2 + kvr k2 dr,

et prenant α = 2λ2 /ε, on a, notant Rε = ε
0
Z T Z T
∀t ∈ [0, T ], eαt |yt |2 + eαr kzr k2 dr ≤ Rε − 2 eαr yr · zr dWr . (2.3)
t t
nR o
t
D’après le Lemme 2.3, la martingale locale 0
eαr yr · zr dWr est en réalité une martin-
t∈[0,T ]
gale nulle en 0 puisque Y , Y 0 appartiennent à S 2 et Z, Z 0 appartiennent à M2 .
20 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES

En particulier, prenant l’espérance – ce qui fait partir l’intégrale stochastique via la remarque
précédente –, on obtient facilement, pour t = 0,
"Z #
T
E eαr kzr k2 dr ≤ E [Rε ] . (2.4)
0

Revenant à l’inégalité (2.3), les inégalités BDG fournissent – avec C universelle –,


" Z #
   T 1/2
αt 2 2αr 2 2
E sup e |yt | ≤ E [Rε ] + C E e |yr | kzr k dr
0≤t≤T 0
" #
Z T 1/2
αt/2 αr 2
≤ E [Rε ] + C E sup e |yt | e kzr k dr ,
0≤t≤T 0

puis, comme ab ≤ a2 /2 + b2 /2,


"Z #
T
C2
   
αt 2 1 αt 2 αr 2
E sup e |yt | ≤ E [Rε ] + E sup e |yt | + E e kzr k dr .
0≤t≤T 2 0≤t≤T 2 0

Prenant en considération l’inégalité (2.4), on obtient finalement


" Z T #
αt 2 αr
e kzr k dr ≤ 3 + C 2 E [Rε ] ,
2

E sup e |yt | +
0≤t≤T 0

et par suite, revenant à la définition de Rε ,


" Z T # " #
Z T
αt 2 αr 2 2 αt 2 αr 2

E sup e |yt | + e kzr k dr ≤ ε 3 + C (1 ∨ T ) E sup e |ut | + e kvr k dr .
0≤t≤T 0 0≤t≤T 0

Prenons ε tel que ε(3 + C 2 )(1 ∨ T ) = 1/2, de sorte que l’application Ψ est alors une contraction
stricte de B 2 dans lui-même si on le munit de la norme
" #1/2
Z T
k(U, V )kα = E sup eαt |Ut |2 + eαr kVr k2 dr ,
0≤t≤T 0

qui en fait un espace de Banach – cette dernière norme étant équivalente à la norme usuelle
correspondant au cas α = 0.
Ψ possède donc un unique point fixe, ce qui assure l’existence et l’unicité d’une solution de
l’EDSR (2.1) dans B 2 .
On obtient ensuite une unique solution vérifiant Z ∈ M2 puisque la Proposition 2.2 implique
qu’un telle solution appartient à B 2 .
Remarque. À partir de maintenant et sans plus insister, l’expression « la solution de l’EDSR »
signifiera la solution de l’EDSR vérifiant Z ∈ M2 .

2.2.2. Le rôle de Z. Nous allons voir que le rôle de Z, plus précisément celui du terme
RT
t
Zr dWr est de rendre le processus Y adapté et que lorsque ceci n’est pas nécessaire Z est nul.
Proposition 2.6. Soit (Y, Z) la solution de l’EDSR (2.1) et soit τ un temps d’arrêt majoré par
T . On suppose, outre l’hypothèse (L), que ξ est Fτ –mesurable et que f (t, y, z) = 0 dès que t ≥ τ .
Alors Yt = Yt∧τ et Zt = 0 si t ≥ τ .
2.2. LE CAS LIPSCHITZ 21

Démonstration. On a, P–p.s.,
Z T Z T
Yt = ξ + f (r, Yr , Zr ) dr − Zr dWr , 0 ≤ t ≤ T,
t t

et donc, pour t = τ , comme f (t, y, z) = 0 dès que t ≥ τ ,


Z T Z T Z T
Yτ = ξ + f (r, Yr , Zr ) dr − Zr dWr = ξ − Zr dWr .
τ τ τ

RT
Il vient alors Yτ = E(ξ|Fτ ) = ξ et par suite τ Zr dWr = 0 d’où l’on tire que
" Z # "Z #
 T 2 T
E Zr dWr =E kZr k2 dr = 0,
τ τ

et finalement que Zr 1r≥τ = 0.


Il s’en suit immédiatement que, si t ≥ τ , Yt = Yτ , puisque par hypothèse,
Z t Z t
Yτ = Yt + f (r, Yr , Zr ) dr − Zr dWr = Yt + 0 − 0,
τ τ

ce qui termine la preuve.

Notons que dans le cas où ξ et f sont déterministes alors Z est nul et Y est la solution de
l’équation différentielle
dYt
= f (t, Yt , 0), YT = ξ.
dt

2.2.3. Une estimation à priori. Nous finissons ce paragraphe en donnant une première
estimation sur les EDSR : il s’agit en fait d’étudier la dépendance de la solution de l’EDSR par
rapport aux données qui sont ξ et le processus {f (t, 0, 0)}0≤t≤T . Cette étude sera reprise au chapitre
suivant.
Proposition 2.7. Supposons que (ξ, f ) vérifie (L). Soit (Y, Z) la solution de l’EDSR (2.1) telle
que Z ∈ M2 . Alors, il existe une constante Cu universelle telle que, pour tout β ≥ 1 + 2λ + 2λ2 ,
" # " #
Z T Z T
E sup eβt |Yt |2 + eβt kZt k2 dt ≤ Cu E eβT |ξ|2 + eβt |f (t, 0, 0)|2 dt .
0≤t≤T 0 0

Démonstration. On applique la formule de Itô à eβt |Yt |2 pour obtenir :


Z T Z T Z T
eβt |Yt |2 + eβr kZr k2 dr = eβT |ξ|2 + eβr −β|Yr |2 + 2Yr · f (r, Yr , Zr ) dr − 2eβr Yr ·Zr dWr .

t t t

Comme f est λ–Lipschitz, on a, pour tout (t, y, z),

2y · f (t, y, z) ≤ 2|y| |f (t, 0, 0)| + 2λ|y|2 + 2λ|y| kzk,

et donc utilisant le fait que 2ab ≤ εa2 + b2 /ε pour ε = 1 puis 2,

2y · f (t, y, z) ≤ (1 + 2λ + 2λ2 )|y|2 + |f (t, 0, 0)|2 + kzk2 /2.

Pour β ≥ 1 + 2λ + 2λ2 on obtient, pour tout t ∈ [0, T ],

1 T βr
Z Z T Z T
βt βT βr
2
e |Yt | + 2
e kZr k dr ≤ e |ξ| + 2 2
e |f (r, 0, 0)| dr − 2 eβr Yr · Zr dWr . (2.5)
2 t 0 t
22 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES
nR o
t βr
La martingale locale 0
e Yr · Z r dWr , t ∈ [0, T ] est une martingale – cf. Lemme 2.3. En
particulier, prenant l’espérance, on obtient facilement, pour t = 0,
"Z # " #
T Z T
βr 2 βT 2 βr 2
E e kZr k dr ≤ 2 E e |ξ| + e |f (r, 0, 0)| dr .
0 0

Revenant à l’inégalité (2.5), les inégalités BDG fournissent – avec C universelle –,


" Z T # " Z #
   T 1/2
βt 2 βT 2 βr 2 2βr 2 2
E sup e |Yt | ≤ E e |ξ| + e |f (r, 0, 0)| dr + C E e |Yr | kZr k dr .
0≤t≤T 0 0

D’autre part,
" Z # " #
 T 1/2 Z T 1/2
CE e2βr |Yr |2 kZr k2 dr ≤ CE sup eβt/2 |Yt | eβr kZr k2 dr
0 0≤t≤T 0
"Z #
T
C2
 
1 βt 2 βr 2
≤ E sup e |Yt | + E e kZr k dr .
2 0≤t≤T 2 0

Il vient alors,
" # "Z #
  Z T T
βt βT
2 2
E sup e |Yt | ≤ 2 E e |ξ| + eβr |f (r, 0, 0)|2 dr + C 2 E eβr kZr k2 dr ,
0≤t≤T 0 0

et finalement on obtient
" # " #
Z T Z T
E sup eβt |Yt |2 + βr 2 2 βT 2 βr 2

e kZr k dr ≤2 2+C E e |ξ| + e |f (r, 0, 0)| dr ,
0≤t≤T 0 0

ce qui termine la preuve de la proposition prenant Cu = 2 2 + C 2 .

2.3. Théorème de comparaison


2.3.1. EDSR linéaires. Dans ce paragraphe nous étudions le cas particulier des EDSR
linéaires pour lesquelles nous allons donner une formule plus ou moins explicite.
On se place dans le cas k = 1 ; Y est donc réel et Z est une matrice de taille 1 × d c’est à dire
un vecteur ligne de dimension d.
Proposition 2.8. Soit {(at , bt )}t∈[0,T ] un processus à valeurs dans R × Rd , progressivement mesu-
rable et borné. Soient {ct }t∈[0,T ] un élément de M2 (R) et ξ une variable aléatoire, FT –mesurable,
de carré intégrable, à valeurs réelles.
L’EDSR linéaire
Z T Z T
Yt = ξ + {ar Yr + Zr br + cr } dr − Zr dWr ,
t t

possède une unique solution qui vérifie :


!
Z T
∀t ∈ [0, T ], Yt = Γ−1
t E ξΓT + cr Γr dr Ft ,
t

avec, pour tout t ∈ [0, T ],


nZ t Z t Z t
1 o
Γt = exp br · dWr − |br |2 dr + ar dr .
0 2 0 0
2.3. THÉORÈME DE COMPARAISON 23

Démonstration. Commençons par remarquer que le processus Γ vérifie :


dΓt = Γt (at dt + bt · dWt ) , Γ0 = 1.
D’autre part, comme b est borné, l’inégalité de Doob montre que Γ appartient à S 2 .
De plus, les hypothèses de cette proposition assure l’existence d’une unique solution (Y, Z) à
l’EDSR linéaire ; il suffit de poser f (t, y, z) = at y + zbt + ct et de vérifier que (L) est satisfaite. Y
appartient à S 2 par la Proposition 2.2.
La formule d’intégration par parties donne
dΓt Yt = Γt dYt + Yt dΓt + dhΓ, Y it = −Γt ct dt + Γt Zt dWt + Γt Yt bt · dWt ,
Rt
ce qui montre que le processus Γt Yt + 0 cr Γr dr est une martingale locale qui est en fait une
martingale car c ∈ M2 et Γ, Y sont dans S 2 .
Par suite, !
Z t Z T
Γt Yt + cr Γr dr = E ΓT YT + cr Γr dr Ft ,
0 0

ce qui donne la formule annoncée.


Remarque. Notons que si ξ ≥ 0 et si ct ≥ 0 alors la solution de l’EDSR linéaire vérifie Yt ≥ 0.
Cette remarque va nous permettre d’obtenir le théorème de comparaison au paragraphe suivant.
Pour illustrer ce résultat prenons le cas où a et c sont nuls. On a alors
!
nZ T 1 T
Z o
Yt = E ξ exp br · dWr − |br | dr Ft = E∗ (ξ | Ft ) ,
2
t 2 t

où P∗ est la mesure de densité par rapport à P


nZ T 1 T
Z o
LT = exp br · dWr − |br |2 dr .
0 2 0

Une autre façon de voir cela, plus dans l’esprit


Rt « probabilité risque neutre », est de regarder
l’EDSR sous P∗ . En effet, sous P∗ , Bt = Wt − 0 br dr est un MB – c’est le théorème de Girsanov.
Or l’équation peut s’écrire
−dYt = Zt bt dt − Zt dWt = −Zt dBt , YT = ξ.
Donc, sous P∗ , Y est une martingale, ce qui montre aussi la formule.
On retrouve ainsi les changements de mesures de probabilité du type « transformation de
Girsanov ».

2.3.2. Théorème de comparaison. Ce paragraphe est consacré au « théorème de com-


paraison » qui permet de comparer les solutions de deux EDSR (dans R) dès que l’on sait comparer
les conditions terminales et les générateurs. Ce théorème est dû à l’origine à S. Peng [Pen92].
Théorème 2.9. Supposons que k = 1 et que (ξ, f ), (ξ 0 , f 0 ) vérifient l’hypothèse (L). On note
(Y, Z) et (Y 0 , Z 0 ) les solutions des EDSR correspondantes. On suppose également que P–p.s. ξ ≤ ξ 0
et que f (t, Yt , Zt ) ≤ f 0 (t, Yt , Zt ) m ⊗ P–p.p. (m mesure de Lebesgue). Alors,
P − p.s., ∀t ∈ [0, T ], Yt ≤ Yt0 .

Si de plus, Y0 = Y00 , alors P–p.s., Yt = Yt0 , 0 ≤ t ≤ T et f (t, Yt , Zt ) = f 0 (t, Yt , Zt ) m⊗P–p.p. En


particulier, dès que P (ξ < ξ 0 ) > 0 ou f (t, Yt , Zt ) < f 0 (t, Yt , Zt ) sur un ensemble de m ⊗ P–mesure
strictement positive alors Y0 < Y00 .
24 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES

Démonstration. La preuve s’effectue par linéarisation ce qui permet de se ramener aux EDSR
linéaires. On cherche une équation satisfaite par U = Y 0 − Y ; on a notant V = Z 0 − Z et ζ = ξ 0 − ξ,
Z T Z T
Ut = ζ + (f 0 (r, Yr0 , Zr0 ) − f (r, Yr , Zr )) dr − Vr dWr .
t t

On découpe l’accroissement des f en trois morceaux en écrivant


f 0 (r, Yr0 , Zr0 ) − f (r, Yr , Zr ) = f 0 (r, Yr0 , Zr0 ) − f 0 (r, Yr , Zr0 ) + f 0 (r, Yr , Zr0 ) − f 0 (r, Yr , Zr )
+f 0 (r, Yr , Zr ) − f (r, Yr , Zr ) (qui est positif ici).

On introduit deux processus a et b : a est à valeurs réelles et b est un vecteur (colonne) de


dimension d. On pose :
f 0 (r, Yr0 , Zr0 ) − f 0 (r, Yr , Zr0 )
ar = , si Ur 6= 0, et ar = 0 sinon.
Ur
(i)
Pour définir b, on doit introduire une autre notation : pour 0 ≤ i ≤ d, Zr est la ligne dont les
d − i dernières composantes sont celles de Zr0 et les i premières celles de Zr . Pour 1 ≤ i ≤ d, on
pose    
(i−1) (i)
f 0 r, Yr , Zr − f 0 r, Yr , Zr
bir = , si Vri 6= 0, et bir = 0 sinon.
Vri
Remarquons que, puisque f 0 est Lipschitz, ces deux processus sont progressivement mesurables
et bornés. Avec ces notations, on a,
Z T Z T
Ut = ζ + (ar Ur + Vr br + cr ) dr − Vr dWr ,
t t

où cr = f 0 (r, Yr , Zr ) − f (r, Yr , Zr ). Par hypothèse, on a ζ ≥ 0 et cr ≥ 0. Utilisant la formule


« explicite » pour les EDSR linéaires – Proposition 2.8 –, on a, pour t ∈ [0, T ],
!
Z T
Ut = Γt −1 E ζΓT + cr Γr dr Ft ,
t

avec, pour 0 ≤ r ≤ T ,
nZ r Z r Z r
1 o
Γr = exp bu · dWu − |bu |2 du + au du .
0 2 0 0

Comme déjà mentionné lors de la remarque suivant la Proposition 2.8, cette formule montre
que Ut ≥ 0, dès que ζ ≥ 0 et cr ≥ 0.
Pour la seconde partie du résultat, si de plus U0 = 0 on a :
Z T !
0 = E ζΓT + cr Γr dr ,
0

et la variable aléatoire intégrée est positive. Par conséquent, elle est nulle P–p.s. ce qui termine la
preuve de ce théorème en remarquant que dans ce cas ζ = 0 et cr = 0.
Remarque. On peut supposer que f (t, Yt0 , Zt0 ) ≤ f 0 (t, Yt0 , Zt0 ) au lieu de f (t, Yt , Zt ) ≤ f (t, Yt , Zt )
pour obtenir le résultat précédent. Il suffit de faire une linéarisation en partant de l’écriture
f 0 (r, Yr0 , Zr0 ) − f (r, Yr , Zr ) = f 0 (r, Yr0 , Zr0 ) − f (r, Yr0 , Zr0 ) (supposé positif ici)
+f (r, Yr0 , Zr0 ) − f (r, Yr , Zr0 ) + f (r, Yr , Zr0 ) − f (r, Yr , Zr ).
2.3. THÉORÈME DE COMPARAISON 25

2.3.3. Modèle de Black–Scholes. Le modèle de Black–Scholes conduit à un exemple


d’EDSR linéaire. Prenons le cas le plus simple. On a se place dans un marché financier sur lequel
on a une action dont le prix d’une part est régi par l’EDS

dSt = St (µ dt + σ dWt ), S0 = x,

où µ ∈ R, σ > 0 ; le paramètre σ s’appelle la volatilité. On a, pour tout t ≥ 0,

St = x exp σWt + (µ − σ 2 /2)t .




Parallèlement à cette action, on a un placement sans risque – disons un livret de Caisse d’épargne
pour fixer les idées – dont le taux de rendement est constant, égal à r ; le prix d’une part est donné
part
dEt = rEt dt, E0 = y, i.e. Et = yert .

Une stratégie est la donnée d’un couple de processus, (pt , qt )t≥0 , adapté par rapport à la filtra-
tion du MB W ; qt représente le nombre de parts d’actif sans risque et pt celui d’actif risqué i.e. le
nombre d’actions détenues dans le portefeuille à l’instant t. La valeur du portefeuille est donc, à
l’instant t,
Vt = qt Et + pt St .

On ne considère que des stratégies autofinancées ce qui se traduit par le fait que l’évolution de
la valeur du portefeuille est décrite par

dVt = qt dEt + pt dSt = rqt Et dt + pt St (µ dt + σ dWt ).

Or qt Et = Vt − pt St et donc, on a, notant πt = pt St – la somme d’argent détenue en actions –

dVt = rVt dt + πt σ(µ − r)/σ dt + πt σ dWt ,

soit encore notant Zt = πt σ et θ = (µ − r)/σ le « risk premium »,

dVt = rVt dt + θZt dt + Zt dWt .

Un problème fréquent en finance consiste à donner un prix aux options. Une option européenne
d’achat, un « call », de maturité T et de prix d’exercice K est un contrat qui donne le droit mais
non l’obligation à son détenteur d’acheter une part de l’action au prix d’exercice K à la date T .
Le vendeur de l’option s’engage donc à payer à son détenteur la somme (ST − K)+ qui représente
le profit que permet l’exercice de l’option. Plus généralement on peut imaginer un actif contingent
dont le bénéfice est une variable aléatoire positive ξ qui dépend de (St )0≤t≤T . À quel prix v vendre
l’option ? Le vendeur doit s’assurer qu’en vendant l’option à ce prix à la date t = 0, il disposera de
la somme ξ à la date t = T .
Pour trouver v, l’idée fondamentale est celle de duplication : le vendeur vend l’option au prix
v et investit cette somme dans le marché en suivant la stratégie (Zt )0≤t≤T à trouver ! La valeur de
son portefeuille est régie par l’EDS

dVt = rVt dt + θZt dt + Zt dWt , V0 = v.

Le problème est alors de trouver v et {Zt }0≤t≤T de sorte que la solution de l’EDS précédente
vérifie VT = ξ ; on dit que dans ce cas que v est le prix équitable. En d’autres termes, peut-on
trouver {(Vt , Zt )}0≤t≤T adapté tels que :

dVt = rVt dt + θZt dt + Zt dWt , VT = ξ,


26 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES

auquel cas il suffit de vendre l’option au prix v = V0 . Il s’agit dans ce cas de résoudre une EDSR
qui est linéaire.
Supposons maintenant que « le régulateur du marché » veuille éviter la revente instantanée
de l’action. Il peut soit interdire formellement cette transaction soit pénaliser les investisseurs
qui se livrent à cette pratique – par exemple en leur faisant verser une somme proportionnelle à
βπt− = γZt− (γ > 0). Dans ce dernier cas, dupliquer un actif contingent revient à résoudre l’EDSR,

dVt = (rVt + θZt − γZt− ) dt + Zt dWt , VT = ξ.

L’EDSR n’est plus linéaire mais vérifie néanmoins l’hypothèse (L). Un autre exemple d’EDSR
non-linéaire intervenant en finance est le suivant :

dVt = (rVt + θZt ) dt + Zt dWt − (R − r)(Vt − Zt /σ)− dt, VT = ξ.

On est amené à résoudre cette dernière équation pour dupliquer un actif contingent lorsque le taux
d’emprunt est R > r.
Signalons que dans tous les exemples précédents, les stratégies sont admissibles i.e. Vt ≥ 0. Cela
résulte du théorème de comparaison puisque ξ ≥ 0 et f (t, 0, 0) ≥ 0.
Chapitre 3

EDSR monotones

L’objectif de ce chapitre est d’établir un résultat d’existence et d’unicité pour les EDSR s’af-
franchissant partiellement de la condition de Lipschitz en y ; nous établissons également diverses
estimations pour les solutions des EDSR.

3.1. Position du problème


Nous allons affaiblir la condition de Lipschitz de f dans la variable y pour la remplacer par
une condition de monotonie. Ce type d’hypothèse est apparu dans l’article de S. Peng [Pen91]
pour traiter le cas des EDSR avec temps terminal aléatoire c’est à dire des EDSR pour lesquelles
on impose la condition Yτ = ξ avec τ temps d’arrêt. Le résultat que nous présentons ici est dû à
R. Darling et E. Pardoux [DP97]. L’hypothèse de monotonie est très employée : elle permet,
comme déjà dit, de traiter les EDSR avec temps final aléatoire, voir par exemple [Pen91, BH98] et
d’autre part d’affaiblir l’hypothèse de croissance sur f en y, voir [BC00] et surtout le résultat de
E. Pardoux [Par99].

Considérons W un mouvement brownien d–dimensionnel défini sur un espace de probabilité


(Ω, F, P) complet. Soit f : [0, T ] × Ω × Rk × Rk×d −→ Rk une fonction aléatoire telle que pour tout
(y, z) le processus {f (t, y, z)}0≤t≤T soit progressivement mesurable et soit ξ une variable aléatoire
FT –mesurable (Ft est, comme au chapitre précédent, la filtration augmentée de W ). Voici les
hypothèses de ce chapitre :

(My) Il existe des constantes K ≥ 0, µ ∈ R, C ≥ 0 et un processus progressivement mesurable


{ft }0≤t≤T , positif, tels que, P–p.s.
1. condition de Lipschitz en z :

∀(t, y), ∀(z, z 0 ), |f (t, y, z) − f (t, y, z 0 )| ≤ Kkz − z 0 k ;

2. monotonie en y : pour tout t, z,

∀(y, y 0 ), (y − y 0 ) · (f (t, y, z) − f (t, y 0 , z)) ≤ µ|y − y 0 |2 ;

3. croissance linéaire en (y, z) :

∀(t, y, z), |f (t, y, z)| ≤ ft + C|y| + Kkzk ;

4. continuité en y : pour tout (t, z), y 7−→ f (t, y, z) est continue ;


5. ξ est FT –mesurable et " #
Z T
E |ξ|2 + ft2 dt < ∞.
0

27
28 CHAPITRE 3. EDSR MONOTONES

Remarque. On peut signaler tout d’abord que si yp7−→ f (y) est K–Lipschitz alors f est monotone
avec µ = K. Par contre, la fonction réelle y 7−→ − y + est monotone avec 0 pour constante µ mais
n’est pas Lipschitz.

Notre objectif est à présent d’étudier l’existence et l’unicité des solutions de l’EDSR
Z T Z T
Yt = ξ + f (r, Yr , Zr ) dr − Zr dWr , 0 ≤ t ≤ T, (3.1)
t t

lorsque (ξ, f ) vérifie l’hypothèse (My).


Remarquons ensuite que sous l’hypothèse (My), si (Y, Z) est solution de l’EDSR (3.1) alors Y
appartient à S 2 dès que Z appartient à M2 . C’est une conséquence directe de la Proposition 2.2.2.

3.2. Estimations à priori


Dans ce paragraphe nous allons donner plusieurs estimations « à priori » concernant les solutions
des EDSR. Ces estimations traduisent la dépendance de la solution d’une EDSR par rapport aux
paramètres d’entrée i.e. le générateur et la condition terminale. Nous présentons ici des estimations
qui font intervenir des constantes universelles (plutôt que des constantes dépendant de T ) ce qui
peut s’avérer utile dans certains cas. Ce type d’estimations semble être apparu à la suite d’un
travail de R. Buckdahn, M. Quicampoix et A. Rascanu [BQR97]. D’autres estimations à
priori étaient présentes dans les versions préliminaires de l’article de N. El Karoui, S. Peng et
M.-C. Quenez [EKPQ97]. Rappelons que nous notons B 2 l’espace de Banach Sc2 × M2 .
Proposition 3.1. Soit ξ ∈ L2 (FT ). Supposons qu’il existe des constantes µ, K et un processus
{ft }0≤t≤T appartenant à M2 (R+ ) tels que, P–p.s.

∀(t, y, z), y · f (t, y, z) ≤ |y| ft + µ|y|2 + K|y| kzk.

Soit (Y, Z) ∈ B 2 solution de l’EDSR (3.1). Alors, il existe une constante universelle Cu telle que
" Z T # " #
Z T 2
αt 2 αt 2 αT 2 αt/2
E sup e |Yt | + e kZt k dt ≤ Cu E e |ξ| + e ft dt ,
0≤t≤T 0 0

avec α = 2(µ + K 2 ). De plus, on a, pour tout t ∈ [0, T ], notant γ = 1 + 2µ + K 2 ,


!
Z T
|Yt |2 ≤ E eγ(T −t) |ξ|2 + eγ(r−t) fr2 dr Ft .
t

Remarque. Si f vérifie l’hypothèse (My), on peut prendre ft = |f (t, 0, 0)|. On peut également
noter, pour le second point, que dès que ξ et ft sont bornés par une constante M ,

sup0≤t≤T |Yt |2 ≤ M 2 C(γ, T ).


+
On peut toujours prendre C(γ, T ) = (1 + T )eγ T et si γ ≥ 1, C(γ, T ) = 2eγT convient aussi.
Cette remarque nous servira pour établir l’existence des solutions sous (MY) ; elle est due
initialement à S. Peng [Pen92].

Démonstration. On applique la formule de Itô à eat |Yt |2 , a étant un réel, pour obtenir :
Z T Z T Z T
at ar aT ar
2 2 2 2
2ear Yr · Zr dWr .

e |Yt | + e kZr k dr = e |ξ| + e −a|Yr | + 2Yr · f (r, Yr , Zr ) dr −
t t t
3.2. ESTIMATIONS À PRIORI 29

Par hypothèse, on a, pour tout (t, y, z),

2y · f (t, y, z) ≤ 2|y| ft + 2µ|y|2 + 2K|y| kzk,

et on utilise le fait que 2ab ≤ εa2 + b2 /ε pour tout ε > 0.


Pour la deuxième partie de la proposition, on utilise l’inégalité

2y · f (t, y, z) ≤ (1 + 2µ + K 2 )|y|2 + ft2 + kzk2 .

Si on prend a = γ = 1 + 2µ + K 2 on obtient, pour tout t ∈ [0, T ],


Z T Z T
γt γT γr 2
2 2
e |Yt | ≤ e |ξ| + e fr dr − 2 eγr Yr · Zr dWr .
t t
nR o
t
Un argument utilisé plusieurs fois déjà montre que la martingale locale 0
eγr Yr · Zr dWr
t∈[0,T ]
est en réalité une martingale uniformément intégrable. Il reste à conditionner par rapport à Ft
pour obtenir la seconde partie de la proposition.
Pour la première partie, on commence par écrire

2y · f (t, y, z) ≤ 2(µ + K 2 )|y|2 + 2|y| ft + kzk2 /2,

puis on prend a = α = 2(µ + K 2 ) pour obtenir

1 T αr
Z Z T Z T
αt αT αr
2
e |Yt | + 2
e kZr k dr ≤ e |ξ| + 22
e |Yr | fr dr − 2 eαr Yr · Zr dWr . (3.2)
2 t 0 t

En particulier, prenant l’espérance – ce qui fait partir l’intégrale stochastique via la remarque
précédente –, on obtient facilement, pour t = 0,
"Z # " #
T Z T
αr 2 αT 2 αr
E e kZr k dr ≤ 2 E e |ξ| + 2 e |Yr | fr dr .
0 0

Revenant à l’inégalité (3.2), les inégalités BDG fournissent – avec C universelle –,


" Z T # " Z #
   T 1/2
αt 2 αT 2 αr 2αr 2 2
E sup e |Yt | ≤ E e |ξ| + 2 e |Yr | fr dr + C E e |Yr | kZr k dr .
0≤t≤T 0 0

D’autre part,
" Z # " #
 T 1/2 Z T 1/2
CE e2αr |Yr |2 kZr k2 dr ≤ CE sup eαt/2 |Yt | eαr kZr k2 dr
0 0≤t≤T 0
"Z #
T
C2
 
1 αt 2 αr 2
≤ E sup e |Yt | + E e kZr k dr .
2 0≤t≤T 2 0

Il vient alors,
" # "Z #
  Z T T
E sup eαt |Yt |2 ≤ 2 E eαT |ξ|2 + 2 eαr |Yr | fr dr + C 2 E eαr kZr k2 dr ,
0≤t≤T 0 0

et finalement on obtient
" # " #
Z T Z T
αt 2 αr 2 2 αT 2 αr
E sup e |Yt | + e kZr k dr ≤ 2(2 + C ) E e |ξ| + 2 e |Yr | fr dr .
0≤t≤T 0 0
30 CHAPITRE 3. EDSR MONOTONES

Pour finir la preuve de la proposition, il suffit de remarquer que


"Z # " #
T Z T
2 αr 2 αt/2 αr/2
4(2 + C ) E e |Yr | fr dr ≤ 4(2 + C ) E sup e |Yt | e fr dr
0 0≤t≤T 0
" Z #
  T 2
1 αt 2 2 2

αr/2
≤ E sup e |Yt | + 8(2 + C ) E e fr dr ,
2 0≤t≤T 0

pour obtenir au total


" # " #
Z T Z T 2
αt 2 αr 2 2 2 αT 2 αr/2
E sup e |Yt | + e kZr k dr ≤ 16(2 + C ) E e |ξ| + e fr dr .
0≤t≤T 0 0

La proposition précédente possède le corollaire important suivant.


Corollaire 3.2. Soient (ξ, f ) et (ξ 0 , f 0 ) vérifiant (My) avec des constantes (µ, K, C), (µ0 , K 0 , C 0 ) ;
soient (Y, Z) et (Y 0 , Z 0 ) des solutions des EDSR associées telles que Z, Z 0 appartiennent à M2 . Il
existe une constante universelle Cu telle que
" Z T # " #
Z T 2
αt 2 αt 2 αT 2 αt/2 0 0
E sup e |δYt | + e kδZt k dt ≤ Cu E e |δξ| + e |δf (t, Yt , Zt )| dt ,
0≤t≤T 0 0

avec α = 2(µ + K 2 ) et les notations classiques δY = Y − Y 0 , δZ = Z − Z 0 , δξ = ξ − ξ 0 de même


que δf (t, y, z) = f (t, y, z) − f 0 (t, y, z).

Démonstration. Remarquons tout d’abord que sous (My), dès que Z ∈ M2 , (Y, Z) solution de
l’EDSR de paramètres ξ et f appartient à B 2 . Notons que (δY, δZ) est solution de l’EDSR de
paramètres δξ et g(t, y, z) = f (t, y + Yt0 , z + Zt0 ) − f 0 (t, Yt0 , Zt0 ). Or, d’après l’hypothèse (My),

y · g(t, y, z) = y · (f (t, y + Yt0 , z + Zt0 ) − f (t, Yt0 , z + Zt0 )) + y · (f (t, Yt0 , z + Zt0 ) − f (t, Yt0 , Zt0 ))
+y · (f (t, Yt0 , Zt0 ) − f 0 (t, Yt0 , Zt0 )) ,

d’où l’on déduit que y · g(t, y, z) ≤ µ|y|2 + K|y| kzk + |y| |δf (t, Yt0 , Zt0 )|. Il suffit d’appliquer la
proposition précédente pour conclure.
Remarque. Un bon exercice consiste à montrer que sous l’hypothèse de la proposition précédente,
on a, pour une autre constante universelle Cu ,
" Z T # " Z T #
βt 2 βt 2 βT 2 βt 2
E sup e |Yt | + e kZt k dt ≤ Cu E e |ξ| + e ft dt ,
0≤t≤T 0 0

avec β = 1 + 2(µ + K 2 ). Il suffit de s’inspirer de la Proposition 2.2.7. La remarque vaut aussi pour
le Corollaire 3.2.

3.3. Existence et unicité sous (My)


Nous allons à présent nous intéresser à l’existence et l’unicité de solutions de notre EDSR sous
(My). La démonstration de ce résultat est plus délicate ; elle se décompose en deux étapes : tout
d’abord nous traitons le cas d’un générateur f indépendant de z, puis nous utilisons un argument
de point fixer pour traiter le cas général. La première étape est de loin la plus difficile.
3.3. EXISTENCE ET UNICITÉ SOUS (MY) 31

3.3.1. Le résultat. Dans un premier temps nous admettons le résultat lorsque f ne dépend
que de y et nous en déduisons le théorème général.

Proposition 3.3. Sous (My), pour tout processus V ∈ M2 , l’EDSR


Z T Z T
Yt = ξ + f (r, Yr , Vr )dr − Zr dWr , 0 ≤ t ≤ T,
t t

possède une unique solution telle que Z ∈ M2 .

Muni de cette proposition, nous démontrons le résultat principal de ce chapitre.

Théorème 3.4. Sous (My), l’EDSR (3.1) possède une unique solution telle que Z ∈ M2 .

Démonstration. L’unicité est évidente : il suffit en effet d’appliquer le Corollaire 3.2. Pour l’exis-
tence nous utilisons un argument de point fixe basé sur la proposition précédente. Pour (U, V )
élément de B 2 , notons (Y, Z) = Ψ(U, V ) la solution de l’EDSR de la proposition précédente. Ψ est
une application du Banach B 2 dans lui même. Si (Y 0 , Z 0 ) = Ψ(U 0 , V 0 ), les estimations à priori –
cf. Corollaire 3.2 – donnent, si α = 2µ,
" # " Z #
Z T  T 2
|α|T
E sup |δYt | +2
kδZt k dt ≤ Cu e2
E |f (t, Yt , Vt ) − f (t, Yt , Vt0 )| dt ,
0≤t≤T 0 0

où δ a sa signification habituelle. L’inégalité de Hölder conduit à la majoration, comme f est


K–Lipschitz en z,
" # "Z #
Z T T
2 2 |α|T 2 2
E sup |δYt | + kδZt k dt ≤ Cu e K TE kδVt k dt ;
0≤t≤T 0 0

cette dernière inégalité montre que Ψ est une contraction stricte si T est suffisamment petit et
fournit donc le résultat sous cette restriction. Dans le cas général, il suffit de subdiviser, l’intervalle
de temps [0, T ] en un nombre fini d’intervalles de longueur convenable : on résout d’abord sur
[T − η, T ] puis sur [T − 2η, T − η], . . .

3.3.2. Preuve de la Proposition 3.3. L’unicité a déjà été étudiée lors du théorème
précédent. Passons maintenant aux choses sérieuses : l’existence. Soit donc V ∈ M2 ; notons
h(t, y) = f (t, y, Vt ). On doit construire une solution pour l’EDSR
Z T Z T
Yt = ξ + h(r, Yr ) dr − Zr dWr , 0 ≤ t ≤ T. (3.3)
t t

La fonction h vérifie (My) puisque :


– |h(t, y)| ≤ ht + C|y| ; où ht = ft + KkVt k appartient à M2 ;
– (y − y 0 ) · (h(t, y) − h(t, y 0 )) ≤ µ|y − y 0 |2 ;
– y 7−→ h(t, y) est continue ;
– ξ est de carré intégrable.
Notons tout d’abord que l’on peut supposer que µ = 0 sans perte de généralité puisque (Y, Z)
est solution de l’EDSR (3.3) si et seulement si (Yt0 , Zt0 ) = (eµt Yt , eµt Zt ) est solution de l’EDSR
de paramètres (ξ 0 , h0 ) où ξ 0 = eµT ξ et h0 (t, y) = eµt h(t, e−µt y) − µy. Or (ξ 0 , h0 ) vérifie (My) avec
µ0 = 0, h0t = eµt ht et C 0 = C + |µ|. On suppose donc que µ = 0.
32 CHAPITRE 3. EDSR MONOTONES

k
Étape 1 : ξ et supt ht bornés par un réel M . On considère

R alors une fonction ρ : R∗ −→ R+ ,
de classe C dont le support est la boule unité et telle que ρ(u)du = 1. Soit n ∈ N . On note
ρn (u) = nk ρ(nu). Soit d’autre part θn : Rk −→ [0, 1], C ∞ , telle que θn (y) = 1 si |y| ≤ n et θn (y) = 0
dès que |y| ≥ n + 1. On définit enfin, pour n ≥ 1,
Z Z
hn (t, y) = ρn ∗ θn h(t, ·)(y) = ρn (y − u)θn (u)h(t, u)du = ρn (u)θn (y − u)h(t, y − u)du.
Rk Rk

Étudions d’abord les propriétés de hn . La première chose à remarquer est que y 7−→ hn (t, y)
est de classe C ∞ à support compact : en fait, hn (t, y) = 0 dès que |y| > n + 2 (pour tout (t, ω)).
De plus, d’après l’hypothèse de croissance de h, on a
Z Z
|hn (t, y)| ≤ ρn (u)|h(t, y − u)| du ≤ ρn (u) (ht + C|y| + C|u|) du,

et donc comme le support de ρ est la boule unité

|hn (t, y)| ≤ (M + C) + C|y|. (3.4)

En particulier, hn (t, 0) est un processus borné par M + C.


Montrons que la fonction hn est Lipschitz en y uniformément par rapport à (t, ω) en estimant
supy k∇hn (t, y)k. Si |y| > n + 2, ∇hn (t, y) = 0. Pour |y| ≤ n + 2, on a
Z Z
k∇hn (t, y)k ≤ ∇ρn (u) ⊗ θn (y − u)h(t, y − u) du ≤ |∇ρn (u)| (ht + C|y| + C|u|) du,

et par suite, comme le support de ρ est inclus dans la boule unité, on a pour |y| ≤ n + 2,
Z
k∇hn (t, y)k ≤ n {(M + C) + C|y|} |∇ρ(u)| du ≤ C 0 n2 .

On peut donc appliquer le Théorème 2.2.5, pour obtenir une unique solution (Y n , Z n ) dans B 2
de l’EDSR Z T Z T
n n
Yt = ξ + hn (r, Yr ) dr − Zrn dWr , 0 ≤ t ≤ T.
t t

Comme ξ est bornée par M , la majoration (3.4) permet d’appliquer la remarque suivant la
Proposition 3.1, pour obtenir supn supt |Ytn |2 ≤ 2(M + C)2 exp{(1 + 2C)T }. En fait, on peut
obtenir une meilleure estimation en remarquant que y · hn (t, y) ≤ (M + C)|y|. En effet, on a
Z
y · hn (t, y) = ρn (u)θn (y − u)y · h(t, y − u) du,

et on écrit y · h(t, y − u) = y · (h(t, y − u) − h(t, −u)) + y · h(t, −u) ≤ 0 + |y|(M + C|u|). Il suffit
alors d’intégrer en tenant compte du fait que le support de ρn est inclus dans la boule unité. La
remarque de la page 28 conduit à
2
sup sup |Ytn | ≤ 2(M + C)2 exp{T }. (3.5)
n t

Cette dernière propriété va jouer un rôle important : la fonction hn n’est pas nécessairement
monotone dans tout l’espace (ce que l’on voulait faire au départ) mais hn est monotone dans la
boule de centre 0 et de rayon n − 1. En effet, si |y| ≤ n − 1,
Z Z
hn (t, y) = ρn (u)θn (y − u)h(t, y − u) du = ρn (u)h(t, y − u) du,
|u|≤1 |u|≤1
3.3. EXISTENCE ET UNICITÉ SOUS (MY) 33

puisque θn (x) = 1 si |x| ≤ n. Par suite, si |y| ≤ n − 1 et |y 0 | ≤ n − 1, alors, comme h est monotone,
Z
(y − y 0 ) · (hn (t, y) − hn (t, y 0 )) = ρn (u)(y − y 0 ) · (h(t, y − u) − h(t, y 0 − u)) du ≤ 0.

n n 2
√ montrer que la suite (Y , Z ) converge dans B . Pour cela prenons,
Nous allons à présent
m ≥ n ≥ 1 + a où a = 2(M + C) exp(T /2). La formule d’Itô donne, si on note δY = Y m − Y n ,
δZ = Z m − Z n ,
Z T Z T Z T
2 2 m n
|δYt | + kδZr k dr = 2 δYr · {hm (r, Yr ) − hn (r, Yr )} dr − 2 δYr · δZr dWr .
t t t

On ne peut pas appliquer directement les estimations à priori car les fonctions hm et hn ne sont
pas globalement monotones. Toutefois, hm est monotone dans la boule de rayon m − 1 ; comme
m − 1 ≥ a, Yrm et Yrn appartiennent à cette boule d’après l’estimation (3.5). Par suite,
δYr .{hm (r, Yrm ) − hn (r, Yrn )} ≤ δYr .{hm (r, Yrm ) − hm (r, Yrn )} + δYr .{hm (r, Yrn ) − hn (r, Yrn )}
≤ 0 + 2a sup |hm (t, y) − hn (t, y)|.
|y|≤a

Il vient alors,
Z T Z T Z T
2 2
|δYt | + kδZr k dr = 4a sup |hm (t, y) − hn (t, y)| dr − 2 δYr · δZr dWr .
t 0 |y|≤a t

Utilisant la même démarche que pour les estimations à priori – on établit l’estimation pour le
terme en Z puis on emploie les inégalités BDG –, on obtient pour une constante C,
" # "Z #
Z T T
E sup |δYt |2 + kδZr k2 dr ≤ C E sup |hm (t, y) − hn (t, y)| dr .
0≤t≤T 0 0 |y|≤a

Comme la fonction y 7−→ h(t, y) est continue, hn (t, ·) converge vers h(t, ·) uniformément sur les
compacts λ ⊗ P–presque partout. De plus, d’après la majoration (3.4), on a
sup |hm (t, y) − hn (t, y)| ≤ 2(M + C + Ca).
|y|≤a

Le théorème de convergence dominée de Lebesgue montre que la suite (Y n , Z n ) est de Cauchy


dans l’espace de Banach B 2 .
Soit (Y, Z) la limite de cette suite ; montrons que (Y, Z) est bien solution de l’EDSR (3.3). Pour
cela, on va passer à la limite terme à terme dans l’EDSR dirigée par hn . Ytn converge vers Yt dans
RT RT
L2 et t Zrn dWr converge vers t Zr dWr également dans L2 puisque
" Z # "Z #
 n T 2 T
2 n 2 n n 2
  
E |Yt − Yt | ≤ E supt |Yt − Yt | , E (Zr − Zr ) dWr ≤ 4E kZr − Zr k dr .
t 0

Pour finir, notons que


" Z T #
2
n
E supt {hn (r, Yr ) − h(r, Yr )} dr
t
"Z # "Z #
T T
2 2
≤ 2T E |hn (r, Yrn ) − h(r, Yrn )| dr + 2T E |h(r, Yrn ) − h(r, Yr )| dr ;
0 0

le premier terme tend vers 0 car |hn (r, Yrn ) − h(r, Yrn )| ≤ sup|y|≤a |hn (r, y) − h(r, y)|. Le second
terme tend vers 0 car, comme la fonction h(t, ·) est continue h(t, Ytn ) −→ h(t, Yt ). Dans chacun
des cas les dominations sont immédiates. Ceci termine la première étape.
34 CHAPITRE 3. EDSR MONOTONES

Étape 2 : cas général. Pour tout entier p ≥ 1, définissons ξ p = ξ1|ξ|≤p , hp (t, y) = h(t, y)1ht ≤p .
Le couple (ξ p , hp ) vérifie les hypothèses de l’étape précédente. hp est monotone, y 7−→ hp (t, y) est
continue et
|ξ p | ≤ p, |hp (t, y)| ≤ p + C|y|.
L’EDSR de paramètres (ξ p , hp ) possède donc une unique solution dans B 2 , (Y p , Z p ). Par mono-
tonie, y.hp (t, y) ≤ |y| |hp (t, 0)| ≤ p|y|. La remarque suivant la Proposition 3.1 montre alors que
supt |Y p |2 ≤ 2p2 eT . Montrons que la suite (Y p , Z p ) est de Cauchy dans B 2 . Soit donc q ≥ p. On
utilise les estimations à priori – cf. Corollaire 3.2 – pour obtenir
" Z T # " Z #
 T 2
2 2 p
E sup |δYt | + kδZt k dt ≤ Cu E 1ht >p |h(t, Yt )| dt .
0≤t≤T 0 0

Or |h(t, Ytp )| ≤ ht + C|Ytp | ≤ ht + C 2peT /2 . Par suite,
 √ 
1ht >p |h(t, Ytp )| ≤ 1 + C 2eT /2 ht 1ht >p .

L’inégalité de Hölder fournit alors


" # "Z #
2
Z T
2
 √ T /2 2 T
E sup |δYt | + kδZt k dt ≤ Cu T 1 + C 2e E 1ht >p h2t dt ;
0≤t≤T 0 0

le dernier majorant tend vers 0 puisque ht appartient à M2 .


Pour terminer la preuve de cette proposition, il reste à montrer que la limite de la suite (Y p , Z p )
est la solution de l’EDSR (3.3). On a
Z T Z T
Ytp = ξ p + hp (r, Yrp )dr − Zrp dWr , 0 ≤ t ≤ T,
t t
  RT  RT 
et comme dans l’étape précédente, ξ p , Ytp , t Zrp dWr converge vers ξ, Yt , t Zr dWr dans L2 .
RT RT
Reste à étudier la convergence de t hp (r, Yrp ) dr vers t h(r, Yr ) dr. Procédant de même que lors
de la première étape, on a
" Z T #
2
p p
E supt {h (r, Yr ) − h(r, Yr )} dr
t
"Z # "Z #
T T
p 2 2
≤ 2T E |h (r, Yrp ) − h(r, Yrp )| dr + 2T E |h(r, Yrp ) − h(r, Yr )| dr ;
0 0

Le premier terme est majoré par


"Z #
 √ 2 T
2T 1 + C 2eT /2 E 1ht >p h2t dt
0

qui tend vers 0 comme déjà dit. Pour le second terme, la continuité de h(t, ·) montre que l’intégrant
|h(r, Yrp ) − h(r, Yr )| tend vers 0 λ ⊗ P–presque partout. On a de plus
2
|h(r, Yrp )| ≤ 2 h2r + C 2 |Yrp |2


ce qui donne l’équi–intégrabilité puisque hr appartient à M2 et Y p converge vers Y dans M2 .


On obtient donc en passant à la limite terme à terme dans L2 dans l’EDSR dirigée par (ξ p , hp ),
Z T Z T
Yt = ξ + h(r, Yr ) dr − Zr dWr ,
t t

ce qui achève la démonstration.


Chapitre 4

Équations différentielles stochastiques

Dans ce chapitre, nous rappelons tout d’abord le théorème d’existence et d’unicité sur les
équations différentielles stochastiques – EDS en abrégé dans la suite du cours – puis nous nous
intéresserons au flot stochastique engendré par une EDS. Nous finirons par la propriété de Markov.

4.1. Le résultat classique d’Itô

4.1.1. Définitions et notations. On se place toujours sur un espace de probabilité com-


plet, disons (Ω, F, P) et on se donne W un MB d–dimensionnel sur cet espace. On considère
également une variable aléatoire Z, de carré intégrable,
 et indépendante du MB W . On considère
la filtration définie, pour tout t positif, par Ft = σ σ{Z, Ws ; s ≤ t} ∪ N .
Soit T un réel strictement positif. On considère deux fonctions b : [0, T ] × Rn −→ Rn et
σ : [0, T ] × Rn −→ Rn×d qui sont mesurables. On cherche à résoudre l’équation différentielle
stochastique :
dXt = b(t, Xt )dt + σ(t, Xt )dWt , avec, X0 = Z;
comme nous allons le voir par la suite cette équation est à interpréter au sens d’une équation
intégrale, à savoir :
Z t Z t
Xt = Z + b(r, Xr )dr + σ(r, Xr )dWr , 0 ≤ t ≤ T. (4.1)
0 0

Le coefficient b s’appelle la dérive tandis que la matrice σσ t s’appelle la matrice de diffusion.


Précisons tout d’abord ce que nous entendons par une solution de l’EDS (4.1).

Définition 4.1. Une solution (forte) de l’EDS (4.1), X, est un processus continu tel que :
1. X est progressivement mesurable ;
Z T
2. P–p.s. {|b(r, Xr )| + kσ(r, Xr )k2 }dr < ∞, où kσk = trace(σσ ∗ ) ;
0
Z t Z t
3. P–p.s., on a : Xt = Z + b(r, Xr )dr + σ(r, Xr )dWr , 0 ≤ t ≤ T.
0 0

On notera S 2 l’espace de Banach constitué des processus X, progressivement mesurables, tels


   1/2
que E sup0≤t≤T |Xt |2 < ∞ muni de la norme kXk := E sup0≤t≤T |Xt |2 , et Sc2 le sous espace
2
de S formé des processus continus. Notez que deux processus indistinguables sont identifiés et par
abus d’écriture l’espace quotient est noté de la même façon.
Nous finissons ce paragraphe en rappelant un résultat élémentaire assez utile pour la suite.

35
36 CHAPITRE 4. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Lemme 4.2. Lemme de Gronwall. Soit g : [0, T ] −→ R une fonction continue telle que, pour
tout t, Z t
g(t) ≤ a + b g(s)ds, a ∈ R, b ≥ 0.
0
Alors, pour tout t, g(t) ≤ a exp(bt).
Remarque. Pour simplifier les calculs déjà nombreux, les démonstrations seront effectuées dans le
cas n = d = 1.

4.1.2. Existence et unicité. Nous allons établir le résultat suivant, dû à Itô :


Théorème 4.3. Soient b et σ deux fonctions boréliennes. On suppose qu’il existe une constante
K telle que, pour tout t ∈ [0, T ], x, y ∈ Rn ,
1. condition de Lipschitz en espace, uniforme en temps :

|b(t, x) − b(t, y)| + kσ(t, x) − σ(t, y)k ≤ K|x − y|;

2. croissance linéaire : |b(t, x)| + kσ(t, x)k ≤ K(1 + |x|) ;


3. E[|Z|2 ] < ∞.
Alors l’EDS (4.1) possède une unique solution (à l’indistinguabilité près). Cette solution appar-
tient à S 2 et donc à Sc2 .

Démonstration. La preuve consiste à utiliser la méthode itérative de Picard comme dans le cas
déterministe. Une démonstration s’appuyant sur un argument de point fixe est également possible.
Pour X ∈ Sc2 , posons, pour tout t ∈ [0, T ],
Z t Z t
Φ(X)t = Z + b(r, Xr )dr + σ(r, Xr )dWr .
0 0

Le processus Φ(X) est bien défini et est continu si X ∈ Sc2 .


Si X et Y sont deux éléments de Sc2 , comme (a+b)2 ≤ 2a2 +2b2 , on a, pour tout 0 ≤ t ≤ u ≤ T ,
Z t Z t
2  2  2
Φ(X)t − Φ(Y )t ≤ 2 sup b(r, Xr ) − b(r, Yr ) dr + 2 sup σ(r, Xr ) − σ(r, Yr ) dWr .
0≤t≤u 0 0≤t≤u 0

Utilisant les propriétés de l’intégrale stochastique, il vient :


h i  Z u 2 
2
E sup Φ(X)t − Φ(Y )t ≤ 2E b(r, Xr ) − b(r, Yr ) dr
0≤t≤u 0
Z u 
2
+8E σ(r, Xr ) − σ(r, Yr ) dr .
0

L’inégalité de Hölder donne alors la majoration


h i Z u 
2 2
E sup Φ(X)t − Φ(Y )t ≤ 2T E b(r, Xr ) − b(r, Yr ) dr
0≤t≤u 0
Z u 
2
+8E σ(r, Xr ) − σ(r, Yr ) dr .
0

Comme les fonctions b et σ sont Lipschitz en espace, on obtient, pour tout u ∈ [0, T ],
h i hZ u i
2
E sup Φ(X)t − Φ(Y )t ≤ 2K 2 (T + 4)E sup |Xt − Yt |2 dr . (4.2)
0≤t≤u 0 0≤t≤r
4.1. LE RÉSULTAT CLASSIQUE D’ITÔ 37

De plus, notant 0 le processus nul, on a, comme (a + b + c)2 ≤ 3(a2 + b2 + c2 ),


Z t 2
Z t 2
2
Φ(0)t ≤ 3Z 2 + 3 sup b(r, 0)dr + 3 sup σ(r, 0)dWr ,
0≤t≤T 0 0≤t≤T 0

d’où l’on tire en utilisant l’inégalité de Doob et la croissance linéaire de b et σ,


h i    
2
E sup Φ(0)t ≤ 3 E Z 2 + K 2 T 2 + 4K 2 T . (4.3)
0≤t≤T

Les estimations (4.2) et (4.3) montrent alors que le processus Φ(X) appartient à Sc2 dès que X
appartient à Sc2 .
On définit alors par récurrence une suite de processus de Sc2 en posant

X0 = 0, et, X n+1 = Φ(X n ), pour n ≥ 0.

On obtient très facilement à l’aide de la formule (4.2), pour tout n ≥ 0, notant C à la place de
2K 2 (T + 4),
h i C nT n h i
2 2
E sup Xtn+1 − Xtn ≤ E sup Xt1 ,
0≤t≤T n! 0≤t≤T

soit encore, notant D le majorant de l’inégalité (4.3),


h
2
i C nT n
E sup Xtn+1 − Xtn ≤D .
0≤t≤T n!

Il résulte de cette dernière inégalité que


X X √ X (CT )n/2
sup Xtn+1 − Xtn ≤ sup Xtn+1 − Xtn ≤ D √ < ∞.
n≥0
0≤t≤T L1 n≥0
0≤t≤T L2 n≥0
n!

Ainsi, la série n supt Xtn+1 −Xtn converge P–p.s. et donc, P–p.s., X n converge uniformément
P
sur [0, T ] vers un processus X continu. De plus X ∈ Sc2 puisque la convergence a lieu dans S 2 –
voir l’inégalité précédente. On vérifie très facilement que X est solution de l’EDS (4.1) en passant
à la limite dans la définition X n+1 = Φ(X n ).
Si X et Y sont deux solutions de l’EDS (4.1) dans Sc2 alors X = Φ(X) et Y = Φ(Y ). L’inéga-
lité (4.2) donne alors, pour tout u ∈ [0, T ],
h i Z u h i
2
E sup Xt − Yt ≤ 2K 2 (T + 4) E sup |Xt − Yt |2 dr,
0≤t≤u 0 0≤t≤r

et le lemme de Gronwall montre que


h i
2
E sup Xt − Yt = 0,
0≤t≤T

ce qui prouve que X et Y sont indistinguables.


Pour montrer l’unicité des solutions de (4.1) au sens de la définition 4.2, nous devons montrer
que toute solution appartient à Sc2 c’est à dire, comme toute solution est continue par définition,
appartient à S 2 .
Pour cela, considérons le temps d’arrêt τn = inf{t ∈ [0, T ], |Xt | > n} avec la convention
inf ∅ = +∞. Si u ∈ [0, t], on a
 Z u∧τn 2
Z u∧τn 2

2
Xu∧τn ≤ 3 |Z|2 + sup b(r, Xr )dr + sup σ(r, Xr )dWr .
0≤u≤t 0 0≤u≤t 0
38 CHAPITRE 4. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Il vient alors,
h i  h Z t∧τn 2 i hZ t∧τn i
2 2
≤ 3 E |Z|2 + E
 
E sup Xu b(r, Xr ) dr + 4E σ(r, Xr ) dr ,
0≤u≤t∧τn 0 0

et utilisant la croissance linéaire de b et σ, on obtient :


h i  Z t h i
2  2 2 2 2 2 2 2
E sup Xu ≤ 3 E |Z| + 2K T + 8K T + (2K T + 8K ) E sup Xu .
0≤u≤t∧τn 0 0≤u≤r∧τn

h i
2
On obtient, en appliquant le lemme de Gronwall, à la fonction t 7−→ E sup0≤u≤t∧τn Xu
h i   
2
≤ 3 E |Z|2 + 2K 2 T 2 + 8K 2 T exp{3(2K 2 T + 8K 2 )T },

E sup Xu
0≤u≤T ∧τn

et le lemme de Fatou donne


h i   
2
< 3 E |Z|2 + 2K 2 T 2 + 8K 2 T exp{3(2K 2 T + 8K 2 )T }.

E sup Xu
0≤u≤T

Ceci implique l’unicité des solutions de l’EDS (4.1).


Cette remarque termine la preuve.

4.1.3. Exemples. Donnons deux exemples classiques d’EDS. Le premier est emprunté au
monde de la finance. Le prix d’une action est généralement modélisé par l’EDS :

dSt = St µdt + σdWt , S0 donné;

le paramètre σ s’appelle la volatilité et est très important. On montre facilement à l’aide de la


formule d’Itô que
St = S0 exp (µ − σ 2 /2)t + σWt .


Considérons à présent l’équation de Langevin :

dXt = −cXt dt + σdWt , X0 = x.

L’unique solution X de cette EDS s’appelle le processus d’Ornstein–Ulhenbeck. Posons Yt = Xt ect .


La formule d’intégration par parties donne

dYt = ect dXt + cect Xt dt = ect σdWt .


Z t
On a alors Xt = e−ct x + ec(s−t) σdWs . On peut montrer que le processus X est un processus
0
gaussien et donc en particulier que Xt est une variable aléatoire gaussienne. Calculons sa moyenne
et sa variance. On a
 Z t Z t
−ct
2  1 − e−2ct
E[Xt ] = e x, et, Var(Xt ) = E e c(s−t)
σdWs = σ 2 e−2ct e2cs ds = σ 2 .
0 0 2c

4.2. Propriétés élémentaires du flot


On va travailler ici avec des conditions initiales déterministes ce qui permet de prendre comme
filtration la filtration naturelle du mouvement brownien {FtW }t≥0 . On suppose que les fonctions b
4.2. PROPRIÉTÉS ÉLÉMENTAIRES DU FLOT 39

et σ vérifie les hypothèses du théorème 4.3 – Lipschitz en espace et croissance linéaire. D’après le
résultat précédent, on peut construire pour tout (s, x) ∈ [0, T ] × Rn , la solution de l’EDS
Z t Z t
Xts,x = x + b(r, Xrs,x )dr + σ(r, Xrs,x )dWr , s ≤ t ≤ T, (4.4)
s s

et l’on conviendra que Xts,x


= x si 0 ≤ t ≤ s.
Dans le cas déterministe, si σ = 0, le flot de l’équation différentielle, noté ϕs,x
t dans ce cas,
possède de nombreuses propriétés ; en particulier :
1. ϕs,x
t est Lipschitz en (s, x, t) ;
s,ϕr,x
2. pour r ≤ s ≤ t, ϕr,x
t = ϕt s
;
3. si s ≤ t, x 7−→ ϕs,x
t est un homéomorphisme de Rn .
Dans le cas stochastique, Xts,x possède aussi des propriétés du même type. Dans le paragraphe
suivant, nous étudierons la continuité de (s, x, t) 7−→ Xts,x , puis le paragraphe suivant sera consacré
à la propriété de composition. Nous n’aborderons pas le point 3 ; je vous renvoie aux livres de H.
Kunita [Kun84, Kun90].

4.2.1. Continuité. Pour démontrer les propriétés de continuité du flot, nous allons utiliser
le critère de Kolmogorov (théorème 1.36). Pour cela, nous devons établir des estimations sur les
moments de Xts,x . Les démonstrations sont un peu techniques mais ne sont pas difficiles : il s’agit
souvent d’utiliser les inégalités de Hölder, de Burkholder-Davis-Gundy – BDG dans la suite – et
le lemme de Gronwall.
Proposition 4.4. Soit p ≥ 1. Il existe une constante C, dépendant de T et p, telle que :
h i  
p p
∀s ∈ [0, T ], ∀x ∈ Rn , E sup Xts,x ≤C 1+ x (4.5)
0≤t≤T

Démonstration. On fait la preuve dans le cas n = d = 1.


Nous commençons par le cas p ≥ 2. Fixons s et x. Nous notons Xt à la place de Xts,x pour
alléger l’écriture. Dans ce qui suit C est une constante dépendant de p et T dont la valeur peut
changer d’une ligne sur l’autre mais qui ne dépend pas de (s, x).
On a, tout d’abord,

sup |Xt |p ≤ sup |Xt |p + sup |Xt |p ≤ |x|p + sup |Xt |p ;


t∈[0,T ] t∈[0,s] t∈[s,T ] t∈[s,T ]
 
il suffit donc d’établir l’inégalité pour E supt∈[s,T ] |Xt |p .
Comme nous ne savons pas à priori si cette quantité est finie ou non, on introduit le temps
d’arrêt τn = inf{t ∈ [0, T ], |Xt | > n}, et on prend n > |x| de sorte que τn > s.
L’inégalité (a + b + c)p ≤ 3p−1 (ap + bp + cp ) fournit l’estimation, pour tout u ∈ [s, T ],
 Z u∧τn p
Z u∧τn p

p
Xu∧τn ≤ 3p−1 |x|p + sup b(r, Xr )dr + sup σ(r, Xr )dWr
s≤u≤t s s≤u≤t s
 Z t∧τn p Z u∧τn p

p−1 p
≤ 3 |x| + b(r, Xr ) dr + sup σ(r, Xr )dWr .
s s≤u≤t s

L’inégalité de BDG conduit à :


h i   Z t∧τn p   Z t∧τn p/2 
p 2
E sup Xu ≤ C |x|p + E b(r, Xr ) dr +E σ(r, Xr ) dr ,
s≤u≤t∧τn s s
40 CHAPITRE 4. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

et utilisant l’inégalité de Hölder (p/2 ≥ 1), on a, notant p∗ le conjugué de p et q celui de p/2,


h i   Z t∧τn   Z t∧τn 
p p p
E sup Xu ≤ C |x|p + T p/p∗ E b(r, Xr ) dr + T p/2q E σ(r, Xr ) dr .
s≤u≤t∧τn s s

De plus, comme b et σ sont à croissance linéaire, on a :


 Z t∧τn   Z t∧τn   Z t∧τn 
p p
p p
E b(r, Xr ) dr ≤ K E 1 + |Xr | dr ≤ C 1 + E |Xr | dr ,
s s s

et donc Z t∧τn Z  t 


p p
E b(r, Xr ) dr ≤ C 1 + E sup |Xu | dr ;
s s s≤u≤r∧τn

et la même inégalité est valable pour le terme en σ.


Par suite, on obtient :
   Z t   
p
E sup Xu ≤ C 1 + |x|p + E sup |Xu |p dr ,
s≤u≤t∧τn s s≤u≤r∧τn

où C ne dépend pas de n. Le lemme de Gronwall donne alors, pour tout n,


h i
p
≤ C 1 + |x|p .

E sups≤u≤T ∧τn Xu

On fait tendre n vers l’infini et on applique le lemme de Fatou pour avoir :


h i
p
≤ C 1 + |x|p ,

E sups≤u≤T Xu

ce qui termine la preuve dans le cas p ≥ 2.


Si maintenant 1 ≤ p < 2 alors 2p ≥ 2 et l’inégalité de Hölder donne
h i  h i1/2
p 2p 1/2
E sup Xu ≤ E sup Xu ≤ C 1/2 1 + |x|2p ,
s≤u≤T s≤u≤T
√ √ √
ce qui conduit à, notant que a + b ≤ a + b,
h i
p
≤ C 1/2 1 + |x|p .

E sup Xu
s≤u≤T

Cette dernière inégalité termine la preuve de cette proposition.

Nous savons à présent que la solution de l’EDS a des moments de tout ordre ; nous montrons
une estimation du même type pour les moments des accroissements de X.
Proposition 4.5. Soit 2 ≤ p < ∞. Il existe une constante C telle que, pour tout (s, x), (s0 , x0 )
appartenant à [0, T ] × Rn ,
0 0 p
h i  
E sup Xts,x − Xts ,x ≤ C |x − x0 |p + |s − s0 |p/2 1 + |x0 |p . (4.6)
0≤t≤T

Démonstration. Fixons (s, x) et (s0 , x0 ). Trivialement,


0 0 0 0 0 0
|Xts,x − Xts ,x |p ≤ 2p−1 |Xts,x − Xts,x |p + |Xts,x − Xts ,x |p


de sorte que nous montrons l’inégalité pour chacun des deux termes précédents.
4.2. PROPRIÉTÉS ÉLÉMENTAIRES DU FLOT 41

0
Commençons par le premier, |Xts,x − Xts,x |p . Il est inutile de prendre un temps d’arrêt car la
proposition précédente nous dit que l’espérance du sup en t est fini. On a
0 0 0
sup |Xts,x − Xts,x |p ≤ sup |Xts,x − Xts,x |p + sup |Xts,x − Xts,x |p ,
t∈[0,T ] t∈[0,s] t∈[s,T ]

de sorte que
0 0
sup |Xts,x − Xts,x |p ≤ |x − x0 |p + sup |Xts,x − Xts,x |p ;
t∈[0,T ] t∈[s,T ]

par suite, on s’intéresse seulement au second membre de cette inégalité.


Pour tout u ∈ [s, T ], on a :

0
 Z t 0
p
|Xus,x − Xus,x |p ≤ 3p−1 |x − x0 |p + b(r, Xrs,x ) − b(r, Xrs,x ) dr
s
Z u p

0 
+ sup σ(r, Xrs,x ) − σ(r, Xrs,x ) dWr .
u∈[s,t] s

Les inégalités de BDG et de Hölder conduisent à l’inégalité, notant p∗ le conjugué de p :


h i  hZ t i
s,x0 p 0 p
s,x
E sup |Xu − Xu | ≤ C |x − x0 |p + T p/p∗ E b(r, Xrs,x ) − b(r, Xrs,x ) dr
u∈[s,t] s
h Z t p/2 i 
0 2
+E σ(r, Xrs,x ) − σ(r, Xrs,x ) dr .
s

Utilisant une fois encore l’inégalité de Hölder, on obtient, notant q le conjugué de p/2,
 Z t p/2  Z t 
0 2 0 p
E σ(r, Xrs,x ) − σ(r, Xrs,x ) dr ≤ T p/2q E σ(r, Xrs,x ) − σ(r, Xrs,x ) dr ;
s s

b et σ étant Lipschitz, l’inégalité précédente donne


h i  Z t h i 
0 0
E sup |Xus,x − Xus,x |p ≤ C |x − x0 |p + E sup |Xus,x − Xus,x |p dr .
u∈[s,t] s u∈[s,r]

Le lemme de Gronwall donne alors – en changeant C –


h 0
i
E sup |Xus,x − Xus,x |p ≤ C|x − x0 |p .
u∈[s,T ]

0 0 0
Il reste à étudier le terme E supt |Xts,x − Xts ,x |p . On suppose, sans perte de généralité, que
 

s ≤ s0 et on coupe en trois morceaux i.e.


0 0 0 0 0 0 0 0 0 0 0 0
sup |Xts,x − Xts ,x |p ≤ sup |Xts,x − Xts ,x |p + sup |Xts,x − Xts ,x |p + sup |Xts,x − Xts ,x |p ,
t∈[0,T ] t∈[0,s] t∈[s,s0 ] t∈[s0 ,T ]

d’où l’on déduit que


0 0 0 0 0 0 0
sup |Xts,x − Xts ,x |p ≤ sup |Xts,x − x0 |p + sup |Xts,x − Xts ,x |p .
t∈[0,T ] t∈[s,s0 ] t∈[s0 ,T ]

Pour le premier terme du membre de droite de l’inégalité précédente, on a,


 h Z s0 p i Z t 
h 0
i 0
h 0 pi
E sup |Xts,x − x0 |p ≤ 2p−1 E b(r, Xrs,x ) dr + E sup σ(r, Xrs,x )dWr .
t∈[s,s0 ] s t∈[s,s0 ] s
42 CHAPITRE 4. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

L’inégalité de Hölder et la majoration (4.5) (proposition 4.4) donnent, utilisant la croissance


linéaire de b,
h Z s0 p i h i
0 0 p
b(r, Xrs,x ) dr ≤ (s0 − s)p E sup b(u, Xus,x ) ≤ CT p/2 |s − s0 |p/2 1 + |x0 |p .

E
s u∈[s,s0 ]

D’autre part, l’inégalité de BDG, donne


h Z t pi h Z s0 p/2 i
0 0 2
E sup σ(r, Xrs,x )dWr ≤ E σ(r, Xrs,x ) dr
t∈[s,s0 ] s s
h 0
i
0 p
≤ (s − s)p/2 E sup σ(u, Xus,x ) ,
u∈[s,s0 ]

et, via la croissance de σ et l’estimation (4.5), on obtient


h Z t pi
0
σ(r, Xrs,x )dWr ≤ C|s − s0 |p/2 1 + |x0 |p .

E sup
t∈[s,s0 ] s

Finalement,
0 0 0
h i
E sup |Xts,x − Xts ,x |p ≤ C|s − s0 |p/2 1 + |x0 |p .

(4.7)
t∈[s,s0 ]

0 0 0
Étudions pour finir le terme E supt∈[s0 ,T ] |Xts,x − Xts ,x |p . Remarquons que, pour t ∈ [s0 , T ],
 

0 0
Z t Z t
0 0
Xts,x = Xss,x
0 + b(r, Xrs,x )dr + σ(r, Xrs,x )dWr ,
s0 s0
Z t Z t
0 0 0 0 0 0
Xts ,x = x0 + b(r, Xrs ,x )dr + σ(r, Xrs ,x )dWr .
s0 s0

On a donc, pour tout u ∈ [s0 , t],



0
Z t p
0 0 0 p 0 0 0
0 p
Xus,x − Xus ,x ≤ 3 p−1
Xss,x
0 −x + b(r, Xrs,x ) − b(r, Xrs ,x ) dr
s0
Z t p

s,x0 s0,x0

+ sup σ(r, Xr ) − σ(r, Xr ) dWr ,
u∈[s0 ,t] s0

et un calcul désormais familier, utilisant les inégalités de Hölder, et de BDG, conduit à, via la
majoration (4.7) et le fait que b et σ sont Lipschitz,
h i  hZ t i
0 0 0 p 0 0 0 p
0 p/2 0 p
Xus,x Xus ,x Xrs,x Xrs ,x dr

E sup − ≤ C |s − s | 1 + |x | +E −
u∈[s0 ,t] s0
 hZ t i
0 0 0 p
C |s − s0 |p/2 1 + |x0 |p + E Xus,x − Xus ,x

≤ sup dr .
s0 u∈[s0 ,r]

0 0 0 p
Le lemme de Gronwall appliqué à r 7−→ supu∈[s0 ,r] Xus,x − Xus ,x donne alors
h 0 0 0
i
p
Xus,x − Xus ,x ≤ C|s − s0 |p/2 1 + |x0 |p ,

E sup
u∈[s0 ,t]

ce qui termine la preuve.


4.2. PROPRIÉTÉS ÉLÉMENTAIRES DU FLOT 43

Corollaire 4.6. Il existe une modification du processus X telle que l’application de [0, T ] × Rn à
valeurs dans Sc2 , (s, x) 7−→ (t 7→ Xts,x ) soit continue.
En particulier, (s, x, t) 7−→ Xts,x est continue.

Démonstration. C’est une application directe de l’estimation précédente – valable pour tout p ≥ 2
et du critère de Kolmogorov (théorème 1.36) vu au chapitre 1.

Remarque. Il est important de remarquer que le corollaire précédent implique en particulier que,
P–p.s., pour tout (s, x, t), l’équation (4.4) est valable.
Nous terminons ce paragraphe en précisant la régularité du flot généré par l’EDS.

Proposition 4.7. Soit 2 ≤ p < ∞. Il existe une constante C telle que, pour tout (s, x, t), (s0 , x0 , t0 ),
0 0 p
h i  
E Xts,x − Xts0 ,x ≤ C |x − x0 |p + 1 + |x0 |p |s − s0 |p/2 + |t − t0 |p/2 .

(4.8)

En particulier, les trajectoires (s, x, t) 7−→ Xts,x sont hölderiennes (localement en x) de para-
mètre β en s, α en x et β en t pour tout β < 1/2 et α < 1.

Démonstration. La régularité des trajectoires résulte du critère de Kolmogorov et de l’estimation


que nous allons montrer rapidement.
On a : 0 0 0 0 0 0 0 0
Xts,x − Xts0 ,x ≤ Xts,x − Xts ,x + Xts ,x − Xts0 ,x .

Comme (a+b)p ≤ 2p−1 (ap +bp ), il suffit d’établir l’estimation pour le second terme du majorant
– le premier relevant de l’estimation (4.6) de la proposition 4.5. On suppose alors que t ≤ t0 ; trois
cas se présentent : t ≤ t0 ≤ s0 (trivial), t ≤ s0 ≤ t0 et s0 ≤ t ≤ t0 . Notons que le second cas se
0 0 0 0
ramène au troisième puisque, si t ≤ s0 ≤ t0 , Xts ,x = Xss0,x et |t − t0 | ≥ |t0 − s0 |. On suppose donc
que s0 ≤ t ≤ t0 . On a alors

0 0 0 0
Z t0 Z t0
0 0 0 0
Xts0 ,x − Xts ,x = b(r, Xrs ,x )dr + b(r, Xrs ,x )dWr ,
t t

et on doit estimer
h Z t0 p i h Z t0 pi
0 0 0 0
E b(r, Xrs ,x ) dr , et, E σ(r, Xrs ,x )dr .
t t

Or, d’après un calcul déjà effectué lors de la démonstration de la proposition


 4.5 – voir page 42
– chacun des deux termes précédents est majoré par C|t − t0 |p/2 1 + |x0 |p ce qui termine la
démonstration.

4.2.2. Propriété de Markov. Nous allons établir la propriété de Markov pour les solu-
tions de l’EDS (4.4) comme conséquence de la propriété de flot.

Proposition 4.8. Soit x ∈ Rn ; soient 0 ≤ r ≤ s ≤ t. On a


s,Xsr,x
Xtr,x = Xt , P–p.s.

Démonstration. C’est la remarque 4.2.1 qui fournit le résultat. En effet, P–p.s.


Z t Z t
s,y s,y
∀s, y, t, Xt = y + b(u, Xu )du + σ(u, Xus,y )dWu .
s s
44 CHAPITRE 4. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Il vient alors, P–p.s.,


Z t Z t
s,Xsr,x s,Xsr,x  s,Xsr,x 
∀t, Xt = Xsr,x + b u, Xu du + σ u, Xu dWu .
s s

On remarque que X·r,x est aussi solution de cette dernière EDS sur [s, T ] puisque
Z t Z t
r,x r,x
Xt = x+ b(u, Xu )du + σ(u, Xur,x )dWu
r r
Z t Z t
r,x r,x
= Xs + b(u, Xu )du + σ(u, Xur,x )dWu .
s s

L’unicité des solutions d’une EDS à coefficients Lipschitz donne alors – en fait à l’indistingua-
s,X r,x
bilité près sur [s, T ] – Xtr,x = Xt s .
s,Xsr,x
Remarque. En fait, par continuité, l’égalité Xtr,x = Xt a lieu pour tout x et pour tout 0 ≤
r ≤ s ≤ t ≤ T en dehors d’un ensemble P–négligeable.
Nous allons à présent établir la propriété de Markov. Rappelons qu’un processus X est marko-
vien s’il ne dépend du passé que par l’intermédiaire du présent. Mathématiquement cela conduit à
la définition suivante :
Définition 4.9. Propriété de Markov. Soit X un processus progressivement mesurable par
rapport à la filtration {Ft }t≥0 . On dit que X possède la propriété de Markov par rapport à {Ft }t≥0
si, pour toute fonction borélienne bornée f , et pour tout s ≤ t, on a
 
E f (Xt ) | Fs = E f (Xt ) | Xs , P–p.s.
Montrons la propriété de Markov pour les solutions de l’EDS (4.4) par rapport à la tribu du
mouvement brownien W .
Théorème 4.10. Soient x ∈ Rn et s ∈ [0, T ]. Xts,x 0≤t≤T est un processus de Markov par rapport


à la filtration du MB et si f est mesurable et bornée alors, pour s ≤ r ≤ t,


E f (Xts,x ) | Fr = Λ(Xrs,x ) P–p.s.


avec Λ(y) = E f (Xtr,y ) .


 

r,X s,x
Démonstration. Soient 0 ≤ s ≤ r ≤ t ≤ T . D’après la propriété du flot, on a Xts,x = Xt r . De
plus, nous démontrerons au chapitre 5 – ou alors voir par exemple [Fri75] – que Xtr,y est mesurable
par rapport à la tribu des accroissements du mouvement brownien σ{Wr+u − Wr , u ∈ [0, t − r]}.
Donc,
Xtr,y = Φ y, Wr+u − Wr ; 0 ≤ u ≤ t − r ,


où Φ est mesurable. Par suite,


r,Xrs,x
Xts,x = Xt = Φ Xrs,x , Wr+u − Wr ; 0 ≤ u ≤ t − r .


Pour conclure, il faut encore remarquer que Xrs,x est Fr –mesurable et noter que Fr est indé-
pendante de la tribu σ{Wr+u − Wr , u ∈ [0, t − r]}. On a alors
  
E f (Xts,x ) | Fr = E f Φ Xrs,x , Wr+u − Wr ; 0 ≤ u ≤ t − r
 
Fr
h   i
= E f Φ y, Wr+u − Wr ; 0 ≤ u ≤ t − r
y=Xrs,x
h i
= E f Xtr,y

y=Xrs,x

= Λ Xrs,x .


Ce qui montre la propriété annoncée.


4.2. PROPRIÉTÉS ÉLÉMENTAIRES DU FLOT 45

On peut également montrer que, si g est mesurable et, par exemple bornée,
Z T 
E g(u, Xus,x )du Fr = Γ(r, Xrs,x ),
r
RT 
où Γ(r, y) = E r g(u, Xur,y )du .
Remarque. Si b et σ ne dépendent pas du temps – on dit que l’EDS est autonome – on peut montrer
que la loi de Xts,x est la même que la loi de Xt−s
0,x
. On a alors :

E f (Xts,x ) | Fr = E f (Xt−r
0,y 
 
) |y=X s,x .
r
Chapitre 5

Le cadre markovien

Nous considérons ici des EDSR « markoviennes » : il s’agit d’un cadre très spécifique dans
lequel la dépendance de la condition terminale et du générateur de l’EDSR dans l’aléat ω se fait
au travers de la solution d’une EDS. Nous verrons que la propriété de Markov pour les EDS se
transfère aux EDSR ; d’où le nom du chapitre.

5.1. Le modèle
5.1.1. Hypothèses et notations. La donnée de base est toujours un espace probabilisé
complet (Ω, F, P) sur lequel est défini un mouvement brownien W d-dimensionnel. La filtration
{Ft }t≥0 est la filtration naturelle de W augmentée de sorte que les conditions habituelles sont
satisfaites.
On considère deux fonctions b : [0, T ] × Rn −→ Rn et σ : [0, T ] × Rn −→ Rn×d continues. On
suppose qu’il existe une constante K ≥ 0 telle que, pour tout t, pour tout x, x0 de Rn ,
1. b(t, x) − b(t, x0 ) + σ(t, x) − σ(t, x0 ) ≤ K|x − x0 | ;
2. b(t, x) + σ(t, x) ≤ K(1 + |x|).
Sous ces hypothèses, on peut construire, étant donnés un réel t ∈ [0, T ] et une variable aléatoire
θ ∈ L2 (Ft ), {Xut,θ }t≤u≤T la solution de l’EDS
Z u Z u
Xut,θ = θ + b r, Xrt,θ dr + σ r, Xrt,θ dWr ,
 
t≤u≤T ; (5.1)
t t

on convient, que si 0 ≤ u ≤ t, Xut,θ


= E(θ | Fu ). Les propriétés de {Xut,θ }t≤u≤T ont été étudiées au
Chapitre 4 surtout dans le cas θ = x ∈ Rn .
Considérons aussi deux fonctions continues g : Rk −→ Rk et f : [0, T ] × Rn × Rk × Rk×d −→ Rk .
Nous supposons que f et g vérifient les hypothèses suivantes : il existe deux réels µ et p ≥ 1 tels
que, pour tout (t, x, y, y 0 , z, z 0 ),
1. (y − y 0 ) · f (t, x, y, z) − f (t, x, y 0 , z) ≤ µ|y − y 0 |2 ;


2. f (t, x, y, z) − f (t, x, y, z 0 ) ≤ Kkz − z 0 k ;



3. g(x) + f (t, x, y, z) ≤ K 1 + |x|p + |y| + kzk .
Sous ces hypothèses, si θ appartient à L2p (Ft ), on peut résoudre l’EDSR
Z T Z T
Yut,θ = g XTt,θ + f r, Xrt,θ , Yrt,θ , Zrt,θ dr − Zrt,θ dWr ,
 
0 ≤ u ≤ T. (5.2)
u u

Dans tout ce chapitre, nous supposerons que les hypothèses précédentes sur les coefficients b,
σ, f et g sont satisfaites. Parfois, nous ferons une hypothèse plus forte sur f et g en supposant
que g est K–Lipschitz et que f est K–Lipschitz en x uniformément en (t, y, z). Dans ce cas, p = 1.
Nous désignerons cette hypothèse par (Lip).

47
48 CHAPITRE 5. LE CADRE MARKOVIEN

5.1.2. Premières propriétés.

Rappels sur les EDS. Rappelons tout d’abord quelques propriétés des EDS que nous avons
établies lors du Chapitre 4. Nous commençons par des estimations dans Lq avec q ≥ 2.
La première chose à signaler est que le théorème d’Itô sur les EDS (Théorème 4.3) garantit
l’existence et l’unicité de {Xut,θ }0≤u≤T . De plus, il existe une constante C telle que, pour tout
t ∈ [0, T ] et θ, θ0 ∈ Lq Ft ,
0 q
h q
i h i
E sup0≤u≤T Xut,θ ≤ C 1 + E |θ|q , E sup0≤u≤T Xut,θ − Xut,θ ≤ C E |θ − θ0 |q .
   

Dans le même esprit, on a


0 0 q
h i n o
E sup0≤u≤T Xut,x − Xut ,x ≤ C |x − x0 |q + |t − t0 |q/2 1 + |x|q .

Notons si x ∈ Rn et u ≥ t, Λ(ω, t, x, u) = Xut,x (ω). On est naturellement amené à comparer


deux objets : Λ ω, t, θ(ω), u d’une part et Xut,θ (ω) d’autre part. Nous avons vu au Chapitre 4 que
P–p.s.,
Λ ω, t, θ(ω), u = Xut,θ (ω),

t ≤ u ≤ T.

L’EDSR (5.2). Nous donnons deux propriétés élémentaires de l’équation (5.2).

Proposition 5.1. Si θ ∈ L2p (Ft ), l’EDSR (5.2) possède une unique solution (vérifiant Z ∈ M2 ),

(Yut,θ , Zut,θ ) 0≤u≤T . Il existe une constante C telle que, pour tout t, pour tout θ ∈ L2p (Ft ),
" #
Z T
2 2
Yut,θ Zrt,θ dr ≤ C 1 + E |θ|2p .
 
E sup +
0≤u≤T 0

Démonstration. Commençons par écrire l’équation (5.2) sous la forme d’une EDSR telle que nous
les avons étudiées dans les deux chapitres précédents. Pour cela, on résout d’abord l’EDS (5.1),
puis on définit
ξ¯ = g XTt,θ , f¯(ω, r, y, z) = f r, Xrt,θ (ω), y, z .
 

Avec ces notations, l’équation (5.2) n’est rien d’autre que l’EDSR
Z T Z T
Yu = ξ¯ + f¯(r, Yr , Zr )dr − Zr dWr , 0 ≤ u ≤ T.
u t

Pour la première partie de la proposition, il suffit de montrer, vues les hypothèses du chapitre, que
ξ¯ est de carré intégrable et qu’il en va de même pour le processus {f¯(r, 0, 0)}r . Mais, d’après la
croissance de g et f , on a
 p

∀r ∈ [0, T ], ξ¯ + f¯(r, 0, 0) ≤ K 1 + sup0≤u≤T Xut,θ ;

le résultat s’en suit immédiatement puisque, comme θ ∈ L2p , il en est de même de sup0≤u≤T Xut,θ
d’après le rappel sur les EDS.
Pour établir la majoration, on utilise les estimations à priori du Chapitre 3 cf. Proposition 3.1,
si α = 2µ + 2K 2 ,
" Z T # " Z T #
2
t,θ 2 t,θ 2 |α|T t,θ  t,θ
2
E sup Yu + Zr dr ≤ Cu (1 + T )e E g XT + f r, Xr , 0, 0 dr ,
0≤u≤T 0 0
5.1. LE MODÈLE 49

ce qui compte tenu de la croissance de f et g donne


" Z T #
 h i
t,θ 2 t,θ 2 2p
E sup Yu + Zr dr ≤ C 1 + E sup0≤u≤T Xut,θ ,
0≤u≤T 0

et par suite, pour une autre constante C,


" #
Z T  h i
2 2 2p
E sup Yut,θ + Zrt,θ dr ≤ C 1 + E |θ| ,
0≤u≤T 0

ce que l’on voulait établir.

Remarque. En particulier, lorsque θ est constante égale à x, on a


" Z T #
 
t,x 2 t,x 2 2p
E sup Yu + Zr dr ≤ C 1 + |x| .
0≤u≤T 0

Proposition 5.2. Si θn converge vers θ dans L2p (Ft ), alors


" Z T #
t,θ t,θn 2 t,θ t,θn 2
E sup Yu − Yu + Zr − Zr dr −→ 0, si n → ∞.
0≤u≤T 0

De plus, sous l’hypothèse (Lip), on a, si θ et θ0 sont Ft –mesurables et de carré intégrable,


" Z T #
2 2 h i
t,θ 0 t,θ 0 2
E sup Yu − Yut,θ
+ t,θ
Zr − Zr dr ≤ C E |θ − θ0 | .
0≤u≤T 0

Démonstration. Le point de départ est encore une fois les estimations à priori cf. Corollaire 3.2.
On a donc, si θ et θ0 sont deux éléments de L2p (Ft ), notant α = 2µ + 2K 2 , un contrôle de
" #
Z 2 T 2
0 0
E sup Yut,θ − Yut,θ + Zrt,θ − Zrt,θ dr
0≤u≤T 0

par la quantité, à la constante multiplicative Cu (1 + T )e|α|T près,


" Z T #
2 2
t,θ  t,θ 0  t,θ t,θ t,θ
 t,θ 0 t,θ t,θ
E g XT − g XT + f r, Xr , Yr , Zr − f r, Xr , Yr , Zr dr .
0

Sous l’hypothèse (Lip), cette dernière s’estime facilement ; on obtient comme majorant, C, C 0
désignant deux constantes dépendant de T , µ, K,
 
0 2
h i
2
C 0 E sup Xrt,θ − Xrt,θ ≤ C E |θ − θ0 | ,
0≤r≤T

d’après les résultats sur les EDS.


En l’absence de l’hypothèse (Lip), on doit montrer que l’on conserve la convergence vers 0 si
on prend θ0 = θn avec θn −→ θ dans L2p . Les estimations sur les EDS donnent,
  h i
2p 2p
E sup Xrt,θ − Xrt,θn ≤ C E |θ − θn | −→ 0 ; (5.3)
0≤r≤T
50 CHAPITRE 5. LE CADRE MARKOVIEN

ceci fournit la convergence en probabilité de g XTt,θn vers g XTt,θ par continuité de g ainsi que la
 

convergence en P ⊗ m–mesure de

f r, Xrt,θn , Yrt,θ , Zrt,θ vers f r, Xrt,θ , Yrt,θ , Zrt,θ


 

vue la continuité de f . Il reste donc à établir l’équi-intégrabilité. Pour cela il suffit de noter que la
croissance de f et g conduit à l’inégalité
 
t,θn  t,θn t,θ t,θ t,θn p t,θ t,θ

g XT + f r, Xr , Yr , Zr ≤ K 1 + sup Xr + Yr + Zr ,
0≤r≤T

et le dernier majorant converge dans L2 essentiellement en vertu de (5.3). Le résultat s’en suit
directement.

5.2. La propriété de Markov


Dans ce paragraphe, nous allons établir que la propriété de Markov des solutions d’EDS se
transfère aux solutions d’EDSR. Cette propriété est importante pour les applications aux EDP.
Nous commençons par montrer que Ytt,x est une quantité
 déterministe. Introduisons une nouvelle
notation : si t ≤ u, Fut = σ N , Wr − Wt , t ≤ r ≤ u .
Proposition 5.3. Soit (t, x) ∈ [0, T ] × Rn . {(Xut,x , Yut,x , )}t≤u≤T est adapté par rapport à la
filtration {Fut }t≤u≤T . En particulier, Ytt,x est déterministe.
On peut choisir une version de {Zut,x }t≤u≤T adapté par rapport à la filtration {Fut }t≤u≤T .

Démonstration. Considérons le processus {Bu }u≥0 définie par Bu = Wt+u − Wt et notons {Gu }u
t
sa filtration naturelle augmentée. B est un mouvement brownien et on a de plus Gu = Ft+u .
Soit {Xu }0≤u≤T −t la solution {Gu }u –adaptée de l’EDS
Z u Z u
Xu = x + b(t + r, Xr )dr + σ(t + r, Xr )dBr , 0 ≤ u ≤ T − t.
0 0

En particulier, pour tout v ∈ [t, T ], on a


Z v−t Z v−t
Xv−t = x + b(t + r, Xr )dr + σ(t + r, Xr )dBr .
0 0

Dans les deux intégrales, on fait le changement de variables s = r + t pour obtenir – le changement
dans l’intégrale stochastique sera justifiée à la fin de la preuve –
Z v−t Z v Z v−t Z v
b(t + r, Xr )dr = b(s, Xs−t )ds, σ(t + r, Xr )dBr = σ(s, Xs−t )dWs ,
0 t 0 t

et par suite,
Z v Z v
Xv−t = x + b(s, Xs−t )ds + σ(s, Xs−t )dWs , t≤v≤T ;
t t

on a, d’autre part, par définition du processus X t,x ,


Z v Z v
Xvt,x = x + b(s, Xst,x )ds + σ(s, Xst,x )dWs , t ≤ v ≤ T.
t t

L’EDS de coefficients b, σ et de condition initiale x en t possède deux solutions : Xv−t et Xvt,x .


Par unicité des solutions d’EDS à coefficients Lipschitz, ces deux processus sont indistinguables :
5.2. LA PROPRIÉTÉ DE MARKOV 51

P–p.s., ∀v ∈ [t, T ], Xv−t = Xvt,x . En particulier, Xvt,x est mesurable par rapport à Gv−t puisqu’il
en est ainsi pour Xv−t . Or Gv−t = Fvt .
Le résultat pour les EDSR se déduit de celui que nous venons d’établir pour les EDS. En effet,
on considère la solution {(Yu , Zu )}0≤u≤T −t , Gu –adaptée de l’EDSR
Z T −t Z T −t
Yu = g(XT −t ) + f (t + r, Xr , Yr , Zr )dr − Zr dBr , 0 ≤ u ≤ T − t,
u u

soit encore
Z T −t Z T −t
Yv−t = g(XT −t ) + f (t + r, Xr , Yr , Zr )dr − Zr dBr , t ≤ v ≤ T.
v−t v−t

On effectue le changement de variables s = t + r dans les deux intégrales, pour obtenir


Z T Z T
Yv−t = g(XT −t ) + f (s, Xs−t , Ys−t , Zs−t )ds − Zs−t dWs , t ≤ v ≤ T.
v v

Il s’en suit que {Yv−t , Zv−t }v∈[t,T ] est solution sur [t, T ] de l’EDSR (5.2) pour θ = x puisque
nous savons déjà que Xv−t = Xvt,x . L’unicité des solutions des EDSR donne, dans Sc2 × M2 ,
{Yv−t , Zv−t }v∈[t,T ] = {Yvt,x , Zvt,x }v∈[t,T ] et la mesurabilité recherchée puisque {Yv−t , Zv−t }v∈[t,T ]
est adapté par rapport à Gv−t = Fvt .

Pour être tout à fait complet, justifions le changement de variables dans les intégrales stochas-
tiques i.e. si {h(r)}0≤r≤T −t est un processus de carré intégrable et Gr –adapté,
Z u Z t+u
h(r)dBr = h(s − t)dWs , 0 ≤ u ≤ T − t,
0 t

où rappelons-le Br = Wt+r − Wt . Le résultat est immédiat si h(r) = ha 1]a,b] (r) avec ha une v.a.
bornée, Ga –mesurable. En effet, on a
Z u
h(r)dBr = ha (Bu∧b − Bu∧a ) = ha (Wt+u∧b − Wt+u∧a ) ,
0

et aussi, comme Ga ⊂ Ft+a ,


Z u+t Z u+t 
h(s − t)dWs = ha 1[t+a,t+b[ (s)dWs = ha W(t+u)∧(t+b) − W(t+u)∧(t+a) .
t t

Par linéarité, le résultat est valable pour tous les processus simples. Si maintenant, h est un
processus de carré intégrable et Gu –adapté, il existe une suite processus simples hn , Gu –adaptés,
tels que "Z #
T −t
2
E |hn (r) − h(r)| dr −→ 0.
0

On en déduit immédiatement que


"Z #
T
2
E |hn (s − t) − h(s − t)| ds −→ 0.
t

Comme Gs ⊂ Ft+s , {hn (s − t)}s et par suite {h(s − t)}s sont Fs –progressivement mesurables. Pour
finir, il suffit de noter que, d’une part
" # "Z #
Z u 2 T −t
2
E sup (hn (r) − h(r)) dBr ≤ 4E |hn (r) − h(r)| dr
0≤u≤T −t 0 0
52 CHAPITRE 5. LE CADRE MARKOVIEN

et que d’autre part


" # "Z #
Z u 2 T
2
E sup (hn (s − t) − h(s − t)) dWs ≤ 4E |hn (s − t) − h(s − t)| ds ,
t≤u≤T t t

ce qui achève la démonstration de cette proposition.

Puisque nous savons que Ytt,x est une quantité déterministe, on peut définir une fonction en
posant,
∀(t, x) ∈ [0, T ] × Rn , u(t, x) := Ytt,x .
Commençons par étudier la croissance et la continuité de cette fonction.

Proposition 5.4. La fonction u est continue et à croissance polynomiale. On a

∀(t, x) ∈ [0, T ] × Rn , |u(t, x)| ≤ C (1 + |x|p ) .

Sous l’hypothèse (Lip), la fonction u vérifie de plus, pour tout (t, x), (t0 , x0 ),
 
1/2
|u(t, x) − u(t0 , x0 )| ≤ C |x − x0 | + |t − t0 | (1 + |x|) .

Démonstration. La croissance de la fonction u a déjà été notée lors de la Remarque 5.1.2. Montrons
la continuité. C désigne une constante dépendant de K et T qui peut changer au cours du texte.
Soient (t, x) et (t0 , x0 ) deux points de [0, T ] × Rn . On a
0 0
h 0 0 i h 0 0 i
u(t0 , x0 ) − u(t, x) = Ytt0 ,x − Ytt,x = E Ytt0 ,x − Ytt,x = E Ytt0 ,x − Ytt,x + E Ytt,x − Ytt,x ;
 
0 0

si t ≥ t0 – on procède de même si t < t0 –,


Z t Z t
Ytt,x = Ytt,x + f r, Xrt,x , Yrt,x , Zrt,x dr − Zrt,x dWr ,

0
t0 t0

et par suite, on obtient, à l’aide de l’inégalité de Hölder,


Z t  2
2
E Ytt,x − Ytt,x f r, Xrt,x , Yrt,x , Zrt,x dr
  
0 = E
t0
"Z #
T
0 2
r, Xrt,x , Yrt,x , Zrt,x

≤ |t − t | E f dr .
0

Or, utilisant la croissance de f , on obtient,


"Z # " #
T n o Z T
t,x t,x t,x 2 2p 2 2
Xrt,x Yrt,x Zrt,x

E f r, Xr , Yr , Zr dr ≤ C E 1 + sup + + dr
0 0≤r≤T 0

C 1 + |x|2p .


 
h 0 0 i 2 2
t0 ,x0
D’autre part, on a, E Ytt0 ,x − Ytt,x
0 ≤ E supr∈[0,T ] Yr − Yrt,x
, et les estimations à
priori fournissent
" #
0 0 2
Z T 2
0 0
XTt ,x XTt,x r, Xrt ,x , Yrt,x , Zrt,x r, Xrt,x , Yrt,x , Zrt,x
  
CE g −g + f −f dr
0
5.2. LA PROPRIÉTÉ DE MARKOV 53

comme majorant. Notons ∆(t, x, t0 , x0 ) cette quantité (sans la constante multiplicative). Nous ve-
nons de montrer que
2
|u(t0 , x0 ) − u(t, x)| ≤ C ∆(t, x, t0 , x0 ) + |t − t0 | 1 + |x|2p .

(5.4)

Sous l’hypothèse (Lip), nous avons p = 1 et, de plus,


 
0 0 2
∆(t, x, t0 , x0 ) ≤ C E sup Xrt ,x − Xrt,x ≤ C |x − x0 |2 + |t − t0 | 1 + |x|2 ,

0≤r≤T

d’après la Proposition 4.5.


Dans le cas général, soit {(tn , xn )}n une suite de points de [0, T ] × Rn convergeant vers (t, x).
On prend (t0 , x0 ) = (tn , xn ) dans l’inégalité (5.4) ; il suffit de montrer que ∆n = ∆(t, x, tn , xn ) tend
vers 0 quand n → ∞. Or, d’après la Proposition 4.5, on a, pour tout q ≥ 1,

sup Xrt,x − Xrtn ,xn −→ 0, dans Lq .


0≤r≤T

La continuité de g et f donnent alors g XTtn ,xn −→ g XTt,x en probabilité et


 

f r, Xrtn ,xn , Yrt,x , Zrt,x −→ f r, Xrt,x , Yrt,x , Zrt,x


 
en P ⊗ m–mesure.

Pour conclure, nous devons établir l’équi-intégrabilité des carrés. Mais cela résulte simplement de
l’inégalité
 
2 2 2p 2 2
g XTtn ,xn + f r, Xrtn ,xn , Yrt,x , Zrt,x ≤ C 1 + sup Xrtn ,xn + sup Yrt,x + Zrt,x
0≤r≤T 0≤r≤T

puisque comme déjà dit sup0≤r≤T |Xrtn ,xn | converge dans tous les Lq .

À l’aide de cette fonction, nous pouvons établir la propriété de Markov pour les EDSR.
Théorème 5.5. Soient t ∈ [0, T ] et θ ∈ L2p (Ft ). On a :

P–p.s. Ytt,θ = u(t, θ) = Ytt,· ◦ θ.


Pl
Démonstration. Supposons tout d’abord que θ soit une variable aléatoire étagée : θ = i=1 xi 1Ai
où (Ai )1≤i≤l  est une partition Ft –mesurable de Ω et xi ∈ Rn pour tout i = 1, . . . , l. Notons
Xr , Yr , Zr 0≤r≤T à la place de (Xr , Yr , Zrt,xi )0≤r≤T . On a alors, pour t ≤ r ≤ T ,
i i i t,xi t,xi

X X X
Xrt,θ = 1Ai Xri , Yrt,θ = 1Ai Yri , Zrt,θ = 1Ai Zri .
i i i

En effet, par définition, pour tout i, si r ≥ t,


Z r Z r
i i
Xr = xi + b(u, Xu )du + σ(u, Xui )dWu ,
t t

et, en multipliant par 1Ai et faisant la somme sur i, on obtient – les indicatrices rentrent à l’intérieur
de l’intégrale stochastique puisque Ai ∈ Ft –
X Z rX Z rX
i i
1Ai Xr = θ + 1Ai b(u, Xu )du + 1Ai σ(u, Xui )dWu ;
i t i t i
P P
or on a i 1Ai H(Ti ) = H ( i 1Ai Ti ). Il s’en suit que

X Z r  X  Z r  X 
i i
1Ai Xr = θ + b u, 1Ai Xu du + σ u, 1Ai Xui dWu .
i t i t i
54 CHAPITRE 5. LE CADRE MARKOVIEN

Par unicité des solutions d’EDS à coefficients Lipschitz, on a


X
P–p.s., ∀t ≤ r ≤ T, Xrt,θ = 1Ai Xri .
i

De la même façon, on a, pour tout i, si t ≤ r ≤ T ,


Z T Z T
Yri = g XTi + f u, Xui , Yui , Zui du − Zui dWu ,
 
r r

et multipliant parP1Ai et faisantP la somme  sur i, on montre, utilisant la relation déjà établie pour
i i
la diffusion que i 1 Ai Yr , i 1A i
Z r est solution sur [t, T ] de l’EDSR
Z T Z T
Yr0 = g XTt,θ + f u, Xut,θ , Yu0 , Zu0 du − Zu0 dWu
 
r r

dont Yrt,θ , Zrt,θ
est également solution par définition. L’unicité des solutions des EDSR donnent
X X
P–p.s., ∀t ≤ r ≤ T, Yrt,θ = 1Ai Yri , Zrt,θ = 1Ai Zri , P ⊗ m–p.p. sur Ω × [t, T ].
i i

En particulier, pour r = t, on a, revenant aux notations de départ,


X X X  X 
P–p.s. Ytt,θ = 1Ai Yti = 1Ai Ytt,xi = 1Ai u(t, xi ) = u t, 1Ai xi = u(t, θ).
i i i i

Avant de traiter le cas général, examinons ce qui se passe sous l’hypothèse (Lip). Considérons
une suite de v.a. θn , Ft –étagées, qui converge vers θ dans L2 (Ft ). La Proposition 5.2 fournit
l’estimation  
2
t,θn t,θ
≤ C E |θn − θ|2
 
E Yt − Yt

et, d’après la Proposition 5.4, u(t, ·) est Lipschitzienne ce qui implique que
h i
2
E |u(t, θn ) − u(t, θ)| ≤ C E |θn − θ|2 .
 

Or d’après l’étape précédente, pour tout entier n, u(t, θn ) = Ytt,θn ; on en déduit directement que
u(t, θ) = Ytt,θ , P–p.s.
Dans le cas général, considérons une suite de v.a. θn , Ft –étagées, qui converge vers θ dans
L2p (Ft ). La Proposition 5.2 entraîne toujours que

Ytt,θn −→ Ytt,θ , dans L2 , si n → ∞,

et, de plus, la continuité de l’application u(t, ·) implique, en particulier, la convergence de u(t, θn )


vers u(t, θ) en probabilité. La Remarque 5.1.2 montre que |u(t, x)| est majoré par C(1 + |x|p ). Par
suite,  
2 2p
|u(t, θn )| ≤ C 0 1 + |θn | ,
 
2
ce qui montre que |u(t, θn )| est une suite équi-intégrable ; donc u(t, θn ) vers u(t, θ) en proba-
n
bilité et dans L2 . Comme u(t, θn ) = Ytt,θn , P–p.s., on obtient u(t, θ) = Ytt,θ , P–p.s.

Corollaire 5.6. Soient t ∈ [0, T ] et θ ∈ L2p (Ft ). Alors, on a, P–p.s.,

Yst,θ = u s, Xst,θ .

∀s ∈ [t, T ],
5.3. FORMULE DE FEYNMAN-KAC 55

Démonstration. Fixons (t, θ) ∈ [0, T ] × L2p (Ft ) et prenons s ∈ [t, T ]. On a d’après le théorème
précédent,
s,Xst,θ
P–p.s., Ys = u(s, Xst,θ ).
s,Xst,θ s,Xst,θ
n o
Or Yr , Zr est solution sur [s, T ] de l’EDSR
r

Z T Z T
s,X t,θ s,X t,θ
   
Yu = g XT s + f r, Xr s , Yr , Zr dr − Zr dWr , s ≤ u ≤ T.
u u

Or, par unicité des solutions sur [s, T ] de l’EDS,


Z r Z r
t,θ
Xr = Xs + b(u, Xu ) du + σ(u, Xu ) dWu
s s

on obtient facilement
s,Xst,θ
P–p.s., ∀r ∈ [s, T ], Xr = Xrt,θ .

s,X t,θ s,X t,θ


n o  t,θ t,θ 
Par conséquent, Yr s , Zr s et Yr , Zr r
sont deux solutions sur [s, T ] de
r
l’EDSR Z T Z T
XTt,θ r, Xrt,θ , Yr , Zr
 
Yu = g + f dr − Zr dWr , s ≤ u ≤ T.
u u

L’unicité des solutions de cette EDSR donne en particulier

s,Xst,θ
P–p.s., = u(s, Xst,θ ). Yst,θ = Ys
 
Ceci est valable pour tout s ∈ [t, T ] ; comme les deux processus Yst,θ s
et u(s, Xst,θ ) s
sont
continus via la continuité de u, on obtient le résultat.

Remarque. On utilise souvent ce résultat avec θ constante égale à x. Cette propriété de Markov,
Yst,x = u(s, Xst,x ), joue un rôle important lorsque l’on tente de construire la solution d’une EDP à
l’aide d’une EDSR : nous le verrons plus loin.

5.3. Formule de Feynman-Kac


Nous finissons ce chapitre en faisant un lien entre les EDSR et les EDP. Au paragraphe précé-
dent, nous avons vu que Yrt,x = u(r, Xrt,x ) où u est une fonction déterministe ; nous allons voir que
u est solution d’une équation aux dérivées partielles – EDP. Nous notons L l’opérateur différentiel
du second ordre suivant : pour h régulière

1
trace σσ ∗ (t, x)D2 h(t, x) + b(t, x) · ∇h(t, x)

Lh(t, x) =
2
n n
1 X ∗
 X
= σσ i,j (t, x) ∂xi ,xj h(t, x) + bi (t, x) ∂xi h(t, x).
2 i,j=1 i=1

En ce qui concerne les notations, si h est une fonction de t et x nous notons ∂t h ou h0 la dérivée

partielle en temps, ∇h le gradient en espace (vecteur colonne) et Dh = (∇h) , D2 h la matrice des
dérivées secondes.
Nous supposerons également que le processus Y est réel c’est à dire que k = 1. Z est donc une
ligne de dimension d (celle du brownien). En résumé, f : [0, T ] × Rn × R × R1×d −→ R.
56 CHAPITRE 5. LE CADRE MARKOVIEN

L’objectif de ce paragraphe est d’établir des relations entre {Yrt,x , Zrt,x }0≤r≤T solution de
l’EDSR
Z T Z T
Yrt,x = g XTt,x + f u, Xut,x , Yut,x , Zut,x du − Zut,x dWu ,
 
0 ≤ r ≤ T, (5.5)
r r

où {Xrt,x }0≤r≤T est la solution de l’EDS – avec la convention Xrt,x = x si 0 ≤ r ≤ t –


Z r Z r
Xrt,x u, Xut,x σ u, Xut,x dWu ,
 
=x+ b du + t ≤ r ≤ T, (5.6)
t t

d’une part et « la solution » v de l’EDP parabolique suivante :

∂t v(t, x) + Lv(t, x) + f (t, x, v(t, x), Dv(t, x)σ(t, x)) = 0, (t, x) ∈]0, T [×Rn ,
v(T, ·) = g. (5.7)

Proposition 5.7. Supposons que l’EDP (5.7) possède une solution v, de classe C 1,2 [0, T ] × Rn ,
telle que pour tout (t, x) ∈ [0, T ] × Rn , |∇v(t, x)| ≤ C (1 + |x|q ).
Alors, pour tout (t, x) ∈ [0, T ] × Rn , la solution de l’EDSR (5.5), {Yrt,x , Zrt,x }t≤r≤T , est donnée
  
par le couple de processus v r, Xrt,x , Dvσ r, Xrt,x t≤r≤T . En particulier, on obtient la formule,
u(t, x) = Ytt,x = v(t, x).

Démonstration. La condition de croissance sur le gradient de v assure que Dvσ r, Xrt,x r est un
processus de carré intégrable. De plus, comme v est régulière, on obtient en appliquant la formule
d’Itô,
1
dv s, Xst,x = v 0 s, Xst,x ds + ∇v s, Xst,x · dXst,x + trace σσ ∗ s, Xst,x D2 v s, Xst,x ds ;
     
2
soit encore, utilisant dXst,x pour s ≥ t, et la définition de L,

dv s, Xst,x = v 0 s, Xst,x + Lv s, Xst,x ds + Dvσ s, Xst,x dWs .


    

Or v est solution de l’EDP (5.7), donc v 0 + Lv = −f ; il vient alors

dv s, Xst,x = −f s, Xst,x , v s, Xst,x , Dvσ s, Xst,x ds + Dvσ s, Xst,x dWs .


   

On conclut en intégrant de r à T notant que v T, XTt,x = g XTt,x .


 

Le résultat précédent donne une formule de représentation probabiliste pour la solution d’une
EDP parabolique non-linéaire – on dit semi-linéaire car la non-linéarité n’est pas très forte –. Ce
type de formules, connues sous le nom de formule de Feynman-Kac – suite aux travaux de Richard
Feynman et Mark Kac – s’appliquent à l’origine à des problèmes linéaires. Nous l’obtenons comme
corollaire :

Corollaire 5.8. Prenons f (t, x, y, z) = c(t, x)y + h(t, x), où c et h sont deux fonctions continues
bornées. Sous les hypothèses précédentes, pour tout (t, x) ∈ [0, T ] × Rn ,
" Z T  Z T Z r  #
t,x  t,x t,x t,x
v(t, x) = E g XT exp c(r, Xr ) dr + h(r, Xr ) exp c(s, Xs ) ds dr .
t t t

Démonstration. D’après la proposition précédente, nous savons que v(t, x) = Ytt,x . Mais lorsque la
fonction f prend la forme f (t, x, y, z) = c(t, x)y + h(t, x), l’EDSR que l’on doit résoudre est une
EDSR linéaire. On utilise alors la formule vue au cours du Chapitre 2 pour conclure.
5.3. FORMULE DE FEYNMAN-KAC 57

Remarque. Dans les deux derniers énoncés, nous avons supposé l’existence d’une solution classique
v et nous en avons déduit la solution de l’EDSR et la formule v(t, x) = Ytt,x . Si tous les coefficients
sont réguliers, on peut montrer que u qui est définie par u(t, x) = Ytt,x est une fonction régulière
qui est solution de l’EDP (5.7).

La démarche que nous avons eue précédemment consiste à étudier l’EDP, puis en déduire les
solutions de l’EDSR. Mais on peut également étudier l’EDSR et en déduire la construction de la
solution de l’EDP sans supposer les coefficients réguliers. Pour cela nous utiliserons la notion de
solutions de viscosité des EDP dont nous rappelons rapidement la définition. Je vous renvoie au
livre de Guy Barles [Bar94] pour plus de détails.
Définition 5.9. Soit u une fonction continue sur [0, T ] × Rn vérifiant la condition u(T, x) = g(x).
u est une sous-solution (resp.
 sursolution) de viscosité de l’EDP (5.7) si, pour toute fonction ϕ,
de classe C 1,2 [0, T ] × Rn , on a, en tout point (t0 , x0 ) ∈]0, T [×Rn de maximum (resp. minimum)
local de u − ϕ :

∂t ϕ(t0 , x0 ) + Lϕ(t0 , x0 ) + f (t0 , x0 , u(t0 , x0 ), Dϕσ(t0 , x0 )) ≥ 0, (resp. ≤ 0).

u est solution de viscosité si elle est à la fois sous-solution et sursolution de viscosité.


Théorème 5.10. La fonction u(t, x) := Ytt,x est solution de viscosité de l’EDP (5.7).

Démonstration. Remarquons que la fonction u est continue et vérifie de plus u(T, ·) = g. Nous
montrons seulement que u est sous-solution (la démonstration de u sursolution est identique).
Soit donc ϕ une fonction de classe C 1,2 telle que u − ϕ possède en (t0 , x0 ) un maximum local
(0 < t0 < T ). Quitte à remplacer ϕ par ϕ − ϕ(t0 , x0 ) + u(t0 , x0 ) – opération qui n’affecte pas les
dérivées de ϕ, on peut supposer que ϕ(t0 , x0 ) = u(t0 , x0 ). Nous devons montrer que

ϕ0 (t0 , x0 ) + Lϕ(t0 , x0 ) + f t0 , x0 , u(t0 , x0 ), Dϕσ(t0 , x0 ) ≥ 0.




Supposons le contraire i.e. il existe δ > 0 tel que

ϕ0 (t0 , x0 ) + Lϕ(t0 , x0 ) + f t0 , x0 , u(t0 , x0 ), Dϕσ(t0 , x0 ) = −δ < 0.




u − ϕ possède un maximum local en (t0 , x0 ) qui est nul donc par continuité, il existe 0 < α ≤ T − t0
tel que, si t0 ≤ t ≤ t0 + α et |x − x0 | ≤ α,

ϕ0 (t, x) + Lϕ(t, x) + f t, x, u(t, x), Dϕσ(t, x) ≤ −δ/2.



u(t, x) ≤ ϕ(t, x), et,

Considérons le temps d’arrêt τ = inf {u ≥ t0 ; |Xut0 ,x0 − x0 | > α} ∧ t0 + α. Comme X t0 ,x0 est
un processus continu on a |Xτt0 ,x0 − x0 | ≤ α.
La formule d’Itô appliquée à ϕ(r, Xrt0 ,x0 ) donne

dϕ(r, Xrt0 ,x0 ) = ϕ0 (r, Xrt0 ,x0 ) + Lϕ(r, Xrt0 ,x0 ) dr + Dϕσ(r, Xrt0 ,x0 )dWr ,


et, en intégrant de u ∧ τ à (t0 + α) ∧ τ = τ pour t0 ≤ u ≤ t0 + α, on obtient


Z τ Z τ
t0 ,x0  t0 ,x0 0 t0 ,x0
Dϕσ r, Xrt0 ,x0 dWr ;
  
ϕ u ∧ τ, Xu∧τ = ϕ τ, Xτ − {ϕ + Lϕ} r, Xr dr −
u∧τ u∧τ

t0 ,x0 
notant, pour t0 ≤ u ≤ t0 + α, Yu0 = ϕ u ∧ τ, Xu∧τ et Zu0 = 1u≤τ Dϕσ r, Xrt0 ,x0 , l’égalité


précédente prend la forme


Z t0 +α Z t0 +α
0 0
t0 ,x0 t0 ,x0
Zr0 dWr ,
 
Yu = ϕ τ, Xτ + −1r≤τ {ϕ + Lϕ} r, Xr dr − t0 ≤ u ≤ t0 + α.
u u
58 CHAPITRE 5. LE CADRE MARKOVIEN

t0 ,x0
De la même façon, si on pose, pour t0 ≤ u ≤ t0 + α, Yu = Yu∧τ et Zu = 1u≤τ Zut0 ,x0 , on a
Z t0 +α Z t0 +α
r, Xrt0 ,x0 , Yr , Zr

Yu = Yt0 +α + 1r≤τ f dr − Zr dWr , t0 ≤ u ≤ t0 + α.
u u

Or la propriété de Markov – Corollaire 5.6 et la remarque qui le suit – implique que, P–p.s.
pour tout t0 ≤ r ≤ t0 + α, Yrt0 ,x0 = u(r, Xrt0 ,x0 ) d’où l’on déduit que Yt0 +α = Yτt0 ,x0 = u(τ, Xτt0 ,x0 ).
L’égalité précédente devient alors
Z t0 +α Z t0 +α
Yu = u τ, Xτt0 ,x0 + 1r≤τ f r, Xrt0 ,x0 , u r, Xrt0 ,x0 , Zr dr −
  
Zr dWr , t0 ≤ u ≤ t0 + α.
u u

Nous allons appliquer le théorème de comparaison  à (Yu0 ,Zu0 )u et (Yu , Zu )u qui sont solutions
t0 ,x0
d’EDSR. Par définition de τ , on a u τ, Xτ ≤ ϕ τ, Xτt0 ,x0 et

1r≤τ f r, Xrt0 ,x0 , u(r, Xrt0 ,x0 ), Zr0 = 1r≤τ f r, Xrt0 ,x0 , u(r, Xrt0 ,x0 ), Dϕσ(r, Xrt0 ,x0 )
 

≤ −1r≤τ {ϕ0 + Lϕ} r, Xrt0 ,x0 .




De plus, on a, toujours par définition de τ ,


Z t0 +α 
0 t0 ,x0 t0 ,x0 t0 ,x0

E −1r≤τ (ϕ + Lϕ + f ) r, Xr , u(r, Xr ), Dϕσ(r, Xr ) dr ≥ E [τ − t0 ] δ/2.
t0

Cette quantité est strictement positive : en effet, δ > 0 et τ > t0 car |Xtt00 ,x0 − x0 | = 0 < α. On
peut donc appliquer la version stricte du théorème de comparaison, voir la remarque à la suite
du Théorème 2.9, pour obtenir u(t0 , x0 ) = Yt0 < Yt00 = ϕ(t0 , x0 ). Ceci est impossible puisque
u(t0 , x0 ) = ϕ(t0 , x0 ). u est donc bien une sous-solution.
Références

[Bar94] G. Barles, Solutions de viscosité des équations de Hamilton-Jacobi, Math. Appl., vol. 17,
Springer-Verlag, Paris, 1994.
[BC00] Ph. Briand and R. Carmona, BSDEs with polynomial growth generators, J. Appl. Math.
Stochastic Anal. 13 (2000), no. 3, 207–238.
[BH98] Ph. Briand and Y. Hu, Stability of BSDEs with random terminal time and homogeni-
zation of semilinear elliptic PDEs, J. Funct. Anal. 155 (1998), no. 2, 455–494.
[Bis73] J.-M. Bismut, Conjugate convex functions in optimal stochastic control, J. Math. Anal.
Appl. 44 (1973), 384–404.
[BQR97] R. Buckdahn, M. Quincampoix, and A. Rascanu, Propriété de viabilité pour des équa-
tions différentielles stochastiques rétrogrades et applications à des équations aux dérivées
partielles, C. R. Acad. Sci. Paris Sér. I Math. 325 (1997), no. 11, 1159–1162.
[DP97] R. W. R. Darling and É. Pardoux, Backwards SDE with random terminal time and
applications to semilinear elliptic PDE, Ann. Probab. 25 (1997), no. 3, 1135–1159.
[EKPQ97] N. El Karoui, S. Peng, and M.-C. Quenez, Backward stochastic differential equations
in finance, Math. Finance 7 (1997), no. 1, 1–71.
[Fri75] A. Friedman, Stochastic differential equations and applications I, Probab. Math. Stat.,
vol. 28, Academic Press, New York, 1975.
[KS91] I. Karatzas and S. E. Shreve, Brownian motion and stochastic calculus, 2nd ed., Grad.
Texts in Math., vol. 113, Springer-Verlag, New York, 1991.
[Kun84] H. Kunita, Stochastic differential equations and stochastic flows of diffeomorphisms,
Ecole d’été de probabilités de Saint-Flour XII—1982 (P.-L. Hennequin, ed.), Lecture
Notes in Math., vol. 1097, Springer-Verlag, Berlin Heidelberg New York, 1984, pp. 143–
303.
[Kun90] , Stochastic flows and stochastic differential equations, Cambridge Stud. Adv.
Math., vol. 24, Cambridge University Press, Cambridge, 1990.
[LL97] D. Lamberton and B. Lapeyre, Introduction au calcul stochastique appliqué à la finance,
second ed., Ellipses Édition Marketing, Paris, 1997.
[Par99] É. Pardoux, BSDEs, weak convergence and homogenization of semilinear PDEs, Non-
linear analysis, differential equations and control (Montreal, QC, 1998), Kluwer Acad.
Publ., Dordrecht, 1999, pp. 503–549.
[Pen91] S. Peng, Probabilistic interpretation for systems of quasilinear parabolic partial diffe-
rential equations, Stochastics Stochastics Rep. 37 (1991), no. 1-2, 61–74.
[Pen92] , Stochastic Hamilton-Jacobi-Bellman equations, SIAM J. Control Optim. 30
(1992), no. 2, 284–304.
[PP90] É. Pardoux and S. Peng, Adapted solution of a backward stochastic differential equation,
Systems Control Lett. 14 (1990), no. 1, 55–61.

59
60 RÉFÉRENCES

[PP92] , Backward stochastic differential equations and quasilinear parabolic partial


differential equations, Stochastic partial differential equations and their applications
(Charlotte, NC, 1991) (B. L. Rozovskii and R. B. Sowers, eds.), Lecture Notes in Control
and Inform. Sci., vol. 176, Springer, Berlin, 1992, pp. 200–217.
[PP94] , Backward doubly stochastic differential equations and systems of quasilinear
SPDE’s, Probab. Theory Related Fields 98 (1994), no. 2, 209–227.
[RY91] D. Revuz and M. Yor, Continuous martingales and Brownian motion, Grundlehren
Math. Wiss., vol. 293, Springer-Verlag, Berlin Heidelberg New York, 1991.

Vous aimerez peut-être aussi