Équations Différentielles Stochastiques
Équations Différentielles Stochastiques
Rétrogrades
Philippe Briand
Mars 2001
Introduction
L’objectif de ce cours est de présenter la théorie des équations différentielles stochastiques rétro-
grades – EDSR dans toute la suite du cours – et d’en donner des applications dans deux domaines
différents : les mathématiques financières d’une part et les équations aux dérivées partielles – EDP
en abrégé – d’autre part.
De nombreux mathématiciens ont contribué et contribuent toujours à la théorie des EDSR ;
il m’est impossible de tous les citer. Néanmoins, signalons les travaux de E. Pardoux et S.
Peng [PP90, PP92, PP94] et l’article de N. El Karoui, S. Peng et M.-C. Quenez [EKPQ97].
Le cours est divisé en deux parties : dans un premier temps, on se consacre à l’étude générale
des EDSR puis dans la seconde partie, on étudiera les liens entre les EDSR et les EDP et l’on
introduira la notion de solution de viscosité d’une EDP.
Résoudre une EDSR, c’est trouver un couple de processus adaptés par rapport à la filtration
du mouvement brownien (Wt )0≤t≤T , (Yt , Zt )t∈[0,T ] vérifiant l’équation différentielle stochastique
−dYt = f (t, Yt , Zt )dt − Zt dWt , 0 ≤ t ≤ T,
avec la condition finale (c’est pour cela que l’on dit rétrograde) YT = ξ où ξ est une variable
aléatoire de carré intégrable. Comme les EDS, ces équations doivent être comprise au sens intégral
i.e. Z T Z T
Yt = ξ + f (s, Ys , Zs )ds − Zs dWs , 0 ≤ t ≤ T.
t t
Les EDSR ont été introduites en 1973 par J.-M. Bismut [Bis73] dans le cas où f est linéaire
par rapport aux variables Y et Z. Il a fallu attendre le début des années 90 et le travail de E.
Pardoux et S. Peng [PP90] pour avoir le premier résultat d’existence et d’unicité dans le cas où
f n’est pas linéaire.
Depuis de nombreux travaux ont été effectués ; la théorie n’a cessé de se développer en raison de
ses relations étroites avec les mathématiques financières et les EDP. Donnons un exemple emprunté
à chacun des deux thèmes précédents.
En finance, une question importante est de déterminer le prix d’une option – un produit finan-
cier. Prenons le cas le plus simple, celui du modèle de Black–Scholes et d’un « call européen ». Le
prix de ce produit financier, (Vt )0≤t≤T satisfait l’équation :
dVt = (rVt + θZt )dt + Zt dWt ,
où r est le taux d’intéret à court terme et θ est le « risk premium », avec la condition finale
VT = (ST − K)+ où St est le prix de l’action sous-jacente et K une constante, un prix fixé à
l’avance. Nous voyons que c’est une EDSR linéaire dans ce modèle simple mais qui peut être
non-linéaire dans des modèles financiers plus compliqués.
Venons-en au second exemple. Considérons l’EDP suivante
1 2
∂t u(t, x) + ∂x,x u(t, x) + f (u(t, x)) = 0, u(T, x) = g(x).
2
3
4
Supposons que cette équation possède une solution régulière, u. Appliquons la formule d’Itô à
u(s, Ws ) ; on obtient
1 2
du(s, Ws ) = {∂s u(s, Ws ) + ∂x,x u(s, Ws )}ds + ∂x u(s, Ws )dWs
2
= −f (u(s, Ws ))ds + ∂x u(s, Ws )dWs .
Nous obtenons encore une EDSR – qui est non-linéaire si f l’est – en posant Ys = u(s, Ws ) et
Zs = ∂x u(s, Ws ) puisque
Le cours commence par des rappels et compléments sur les EDS, puis vient l’étude des EDSR
et enfin les applications aux EDP.
Chapitre 1
Le but de ce chapitre est de présenter brièvement les résultats de calcul stochastique dont nous
aurons besoin dans la suite du cours. Il ne s’agit nullement de développer la théorie générale pour
laquelle les ouvrages [KS91] et [RY91] sont des références remarquables. La référence [LL97] est
très pédagogique ; le second paragraphe en est fortement inspiré.
1.1. Définitions
Ici (Ω, F, P) est un espace de probabilité complet.
1.1.1. Généralités.
Définition 1.1. Soit T un ensemble. On appelle processus stochastique indexé par T et à valeurs
dans Rd une famille (Xt )t∈T d’applications mesurables de (Ω, F) dans Rd , B(Rd ) ; pour tout
t ∈ T , Xt est une variable aléatoire.
Remarque. Dans ce cours, nous aurons T = N ce qui correspond aux processus à temps discret,
T = R+ ou T = [0, a] pour les processus à temps continu.
Pour simplifier les énoncés qui suivent sont donnés avec T = R+ ; pour alléger l’écriture, nous
noterons un processus X plutôt que (Xt )t≥0 .
Définition 1.2. Un processus X est mesurable si l’application (t, ω) 7−→ Xt (ω) de R+ × Ω dans
Rd est mesurable par rapport aux tribus B(R+ ) ⊗ F et B(Rd ).
On peut noter qu’un processus stochastique peut être vu comme une fonction aléatoire : à
chaque ω, on associe la fonction t 7−→ Xt (ω) qui est appelée trajectoire (sample path en anglais).
Définition 1.3. Soient X et Y deux processus. X est une modification de Y si, pour tout t ≥ 0,
les v.a. Xt et Yt sont égales P–p.s. : ∀t ≥ 0, P(Xt = Yt ) = 1.
X et Y sont indistinguables si, P–p.s., les trajectoires de X et de Y sont les mêmes c’est à dire
P (Xt = Yt , ∀t ≥ 0) = 1.
La notion d’indistinguabilité est plus forte que la notion de modification. Notons que si X est
une modification de Y et si X et Y sont à trajectoires continues à droite (ou à gauche) alors X et
Y sont indistinguables.
Comme dans le cas discret, les tribus jouent un rôle très important dans l’étude des processus
stochastiques car elles représentent l’information disponible et permettent de traduire les notions
de passé, présent et futur.
5
6 CHAPITRE 1. RAPPELS DE CALCUL STOCHASTIQUE
Nous travaillerons avec une filtration {Ft }t≥0 de (Ω, F) c’est à dire une famille croissante de
sous-tribus de F i.e. pour s ≤ t, Fs ⊂ Ft ⊂ F. On définit alors F∞ = σ{∪t Ft } ainsi que, pour
tout t, Ft+ = ∩ε>0 Ft+ε .
Définition 1.4. On dit qu’une filtration {Ft }t≥0 est continue à droite si Ft = Ft+ pour tout t.
On dit qu’elle vérifie les conditions habituelles si elle est continue à droite et si F0 contient tous
les ensembles P–négligeables de F, noté N dans la suite.
Définition 1.5. Un processus X est adapté par rapport à la filtration {Ft }t≥0 si, pour tout t, Xt
est Ft –mesurable.
Il est inutile de dire qu’un processus est toujours adapté par rapport à sa filtration naturelle.
Remarque. Si N ⊂ F0 , et si X est adapté par rapport à {Ft }t≥0 alors toute modification de X est
encore adaptée.
Définition 1.6. Un processus X est progressivement mesurable par rapport à {Ft }t≥0 si, pour
tout t ≥ 0, l’application (s, ω) 7−→ Xs (ω) de [0, t] × Ω dans Rd est mesurable par rapport à
B([0, t]) ⊗ Ft et B(Rd ).
Proposition 1.7. Si X est un processus stochastique dont les trajectoires sont continues à droite
(ou continues à gauche) alors X est mesurable et X est progressivement mesurable s’il est de plus
adapté.
Définition 1.8. Soit τ une variable aléatoire à valeurs dans R+ . τ est un {Ft }t≥0 –temps d’arrêt
si, pour tout t, {τ ≤ t} ∈ Ft .
Si τ est un temps d’arrêt, on appelle tribu des évènements antérieurs à τ la tribu définie par
Fτ = {A ∈ F∞ , A ∩ {τ ≤ t} ∈ Ft , ∀t} .
Proposition 1.9. Soit τ un temps d’arrêt. Si X est progressivement mesurable, le processus arrêté
X τ – défini par Xtτ = Xτ ∧t – est progressivement mesurable.
Pour tout t > 0, la variable aléatoire Wt suit la loi gaussienne centrée de variance t donc de
densité (2πt)−1/2 exp{−x2 /(2t)}. On dit qu’un mouvement brownien (MB dans la suite) part d’un
point x si W0 = x.
Remarque. On dit que W est un {Ft }t≥0 –MB si W est un processus continu, adapté à la filtration
{Ft }t≥0 , vérifiant :
E eiu(Wt −Ws ) | Fs = exp −u2 (t − s)/2 .
∀u ∈ R, ∀0 ≤ s ≤ t,
Rappelons qu’une fonction f à valeurs réelles et définie sur R+ est localement hölderienne
d’ordre α si, pour tout a > 0, il existe une constante C telle que :
Théorème 1.12 (Propriétés des trajectoires). Si W est un MB, alors presque sûrement, on a :
1. t 7−→ Wt (ω) n’est à variation finie sur aucun intervalle ;
2. t 7−→ Wt (ω) est localement hölderienne d’ordre α pour tout α < 1/2.
3. t 7−→ Wt (ω) n’est dérivable en aucun point (ni localement hölderienne d’ordre α ≥ 1/2).
Définition 1.13. On appelle MB standard à valeurs dans Rd , un vecteur W = W 1 , . . . , W d où
les W i sont des MB réels indépendants.
Proposition 1.14. Soit W un MB. La filtration FtW t≥0 vérifie les conditions habituelles et W
W
est un Ft t≥0 –MB.
1.1.3. Martingales.
Définition 1.15. Un processus X à valeurs réelles est une surmartingale par rapport à la filtration
{Ft }t≥0 si :
1. pour tout t ≥ 0, Xt est Ft –mesurable ;
2. pour tout t ≥ 0, Xt− est intégrable ;
3. pour 0 ≤ s ≤ t, E (Xt | Fs ) ≤ Xs .
X est une sousmartingale lorsque −X est une surmartingale ; X est une martingale si X est à
la fois une surmartingale et une sous-martingale.
Remarque. Si W est un MB, alors Wt2 − t t≥0 et exp σWt − σ 2 t/2 t≥0 sont des martingales.
Théorème 1.16 (Inégalités maximales). Soit X une martingale (ou une sous-martingale positive)
continue à droite. Alors,
1. ∀p ≥ 1, ∀a > 0, ap P (supt |Xt | ≥ a) ≤ supt E [|Xt |p ] ;
2. ∀p > 1, E [supt |Xt |p ] ≤ q p supt E [|Xt |p ] où q = p(p − 1)−1 .
Théorème 1.17 (Théorème d’arrêt). Si X est une martingale et si σ et τ sont deux temps d’arrêt
bornés tels que σ ≤ τ , alors, E(Xτ |Fσ ) = Xσ P–p.s.
8 CHAPITRE 1. RAPPELS DE CALCUL STOCHASTIQUE
Rappelons aussi qu’un processus X adapté et intégrable est une martingale si et seulement si,
pour tout temps d’arrêt borné τ , E[Xτ ] = E[X0 ].
Pour le dernier résultat nous supposons que la filtration {Ft }t≥0 vérifie les conditions habi-
tuelles.
Théorème 1.18. Soit X une {Ft }t≥0 –martingale. X possède une modification càdlàg i.e. dont
les trajectoires sont continues à droite et possèdent des limites à gauche.
Indroduisons à présent une classe plus vaste de processus stochastiques : les martingales locales.
Définition 1.19. Soit X un processus {Ft }t≥0 –adapté, à trajectoires continues à droite. On dit
que X est une martingale locale s’il existe une suite croissante de temps d’arrêt {τn }n≥1 telle que
limn→∞ τn = +∞ P–p.s et, pour tout n, X τn 1τn >0 est une martingale.
Théorème 1.20. Soit X une martingale locale continue. Il existe un unique processus croissant
et continu, hX, Xi, nul en 0, tel que X 2 − hX, Xi soit une martingale locale.
Remarque. Si W est un MB, on a hW, W it = t car Wt2 − t t≥0 est une martingale.
Proposition 1.21. Soit X une martingale locale continue. Il y a équivalence entre :
1. X0 ∈ L2 et E[hX, Xi∞ ] < ∞ ;
2. X est une martingale bornée dans L2 .
Rappelons pour finir ce paragraphe les inégalités de Burkholder–Davis–Gundy connues aussi
sous le nom d’inégalités BDG.
Théorème 1.22 (Inégalités BDG). Soit p > 0 un réel. Il existe deux constantes cp et Cp telles
que, pour toute martingale locale continue X, nulle en zéro,
h i h i
cp E hX, Xip/2
∞ ≤ E sup |Xt | p
≤ Cp E hX, Xip/2
∞ .
t≥0
où 0 = t0 < t1 < . . . < tp = T , φ0 est une variable aléatoire F0 –mesurable bornée et, pour
i = 1, . . . , p, φi est une variable aléatoire Fti−1 –mesurable et bornée.
1.2. CALCUL D’ITÔ 9
Pour un tel processus, on peut définir l’intégrale stochastique par rapport à W comme étant le
processus continu {I(H)t }0≤t≤T défini par :
p
X
I(H)t = φi (Wti ∧t − Wti−1 ∧t ),
i=1
On veut à présent définir l’intégrale stochastique pour une classe plus vaste de processus H.
Pour la première extension, on utilise la densité des processus élémentaires dans l’espace vectoriel
M2 suivant :
( "Z # )
T
M2 = (Ht )0≤t≤T , progressivement mesurable, E Hs2 ds < ∞ .
0
La dernière extension de l’intégrale stochastique dont nous aurons besoin consiste à relaxer
l’hypothèse d’intégrabilité portant sur H. On introduit pour cela
( )
Z T
M2loc = (Ht )0≤t≤T , progressivement mesurable, Hs2 ds < ∞ P–p.s. .
0
et on a le résultat suivant :
Proposition 1.27. Il existe une unique application linéaire J 0 de M2loc dans l’ensemble des mar-
tingales locales continues telle que :
1. si H est un processus élémentaire alors J 0 (H) et I(H) sont indistinguables ;
RT
2. si (Hn )n est une suite de processus de M2loc telle que 0 Hsn 2 ds tend vers 0 en probabilité
alors sup0≤t≤T |J 0 (H n )t | tend vers 0 en probabilité.
Rt
On note encore Hs dWs pour J 0 (H)t .
0
R
t
Remarque. Attention, lorsque H ∈ M2loc , 0 Hs dWs est seulement une martingale locale
0≤t≤T
et pas nécessairement une martingale.
R· Rt
Proposition 1.28. Pour H ∈ M2loc , h 0 Hs dWs it = 0 Hs2 ds.
1.2.2. Processus d’Itô. Nous introduisons à présent une classe de processus qui sera très
utile dans la suite.
Définition 1.29. On appelle processus d’Itô un processus X à valeurs réelles tel que :
Z t Z t
P–p.s. ∀0 ≤ t ≤ T, Xt = X0 + Ks ds + Hs dWs ,
0 0
On peut montrer que si un processus d’Itô est une martingale locale continue alors Kt = 0
m ⊗ P–p.p. On en déduit alors que la décomposition d’un processus d’Itô est unique au sens où si
Z t Z t Z t Z t
Xt = X0 + Ks ds + Hs dWs = X00 + Ks0 ds + Hs0 dWs
0 0 0 0
Proposition 1.30 (Intégration par parties). Si X et Y sont deux processus d’Itô, alors
Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + hX, Y it .
0 0
1.3. RÉSULTATS IMPORTANTS 11
Théorème 1.31 (Formule d’Itô). Soient (t, x) 7−→ f (t, x) une fonction réelle deux fois différen-
tiable en x et une fois différentiable en t et X un processus de Itô. On a :
Z t Z t
1 t 00
Z
f (t, Xt ) = f (0, X0 ) + fs0 (s, Xs ) ds + fx0 (s, Xs ) dXs + f (s, Xs ) dhX, Xis .
0 0 2 0 xx
Nous finissons ce paragraphe en étendant la formule précédente au cas d’un mouvement brow-
nien d–dimensionnel et d’un processus d’Itô n–dimensionnel. Les hypothèses sur les coefficients
sont celles de la Définition 1.29.
Théorème 1.32. Soit X un processus d’Itô à valeurs dans Rn : pour i = 1, . . . , n,
Z t d Z
X t
Xti = X0i + Ksi ds + Hsi,k dWsk .
0 k=1 0
Pd Pd
avec dXsi = Ksi ds + k=1 Hsi,k dWsk et dhX i , X j is = k=1 Hsi,k Hsj,k ds.
Le résultat est plus simple à retenir sous forme vectorielle. Pour cela, on note X le vecteur
colonne de Rn de coordonnées X i , K le vecteur de Rn de coordonnées K i et W le vecteur de Rd
de coordonnée W j . On introduit alors la matrice de taille n × d, H = (H i,j )1≤i≤n, 1≤j≤d . Avec ces
notations, on a : Z Z t t
Xt = X0 + Ks ds + Hs dWs ,
0 0
où Hs dWs est un produit matrice–vecteur colonne. La formule d’Itô s’écrit sous la forme, notant
x · y le produit scalaire dans Rn et H ∗ la transposée de H
Z t Z t
1 t
Z
trace D2 f (s, Xs )Hs Hs∗ ds,
f (t, Xt ) = f (0, X0 ) + ∂s f (s, Xs ) ds + ∇f (s, Xs ) · dXs +
0 0 2 0
soit encore
Z t
f (t, Xt ) = f (0, X0 ) + (∂s f (s, Xs ) + ∇f (s, Xs ) · Ks ) ds
0
1 t
Z Z t
trace D2 f (s, Xs )Hs Hs∗ ds +
+ Df (s, Xs )Hs dWs .
2 0 0
Démonstration. Plaçons-nous sur [0, T ] et remarquons que X est une martingale de carré intégrable
si la condition de crochet est satisfaite. Nous devons montrer que
∀0 ≤ s ≤ t ≤ T, ∀u ∈ Rd , E eiu·(Xt −Xs ) | Fs = exp −|u|2 (t − s)/2 .
Nous allons utiliser cette caractérisation du mouvement brownien pour démontrer que toute
martingale dans la filtration brownienne est une intégrale stochastique par rapport au mouve-
ment brownien. Insistons lourdement sur le fait que nous travaillons avec la filtration naturelle du
mouvement brownien W et reprenons la notation FtW pour ne pas l’oublier.
Théorème 1.34 (Représentation des martingales browniennes). Soit M une martingale (càdlàg)
de carré intégrable pour la filtration FtW t∈[0,T ] . Alors il existe un unique processus (Ht )t∈[0,T ] ,
appartenant à M2 (Rk ), tel que
Z t
P–p.s. ∀t ∈ [0, T ], Mt = M0 + Hs · dWs .
0
Il est important de remarquer que ce résultat implique que, dans la filtration brownienne, les
martingales sont continues.
Démonstration. Nous nous plaçons en dimension un pour simplifier l’écriture. Rappelons que H2 est
l’espace des martingales de carré
2intégrable,
H2c le sous-espace formé des martingales continues. La
2
norme utilisée est kM k = E MT qui fait des deux espaces précédents deux espaces de Hilbert.
H2 et H2c sont les sous-espaces de H2 et H2c formés par les martingales nulles en 0. On note J
l’application intégrale stochastique : J : M2 −→ H2c .
On doit montrer que H2 = J M2 . Pour cela remarquons tout d’abord que siM ∈ H2 il
existe un unique couple de martingales (X, Y ) tel que M = X + Y avec X ∈ J M2 et Y ∈ H2
vérifiant hY,
W i = 0. Cette dernière condition signifie que XY est une martingale pour toute
X ∈ J M2 . L’unicité est évidente. Pour l’existence, notons que J M2 T l’ensemble des conditions
terminales des intégrales browniennes, est un fermé de L2 FTW . Soit F l’orthogonal.
On considère
la décomposition orthogonale MT = XT + YT et on définit Yt = E YT | FtW . On doit montrer
que le crochet de Y et W est nul ce qui revient à montrer que Y W est une martingale. Si τ est un
temps d’arrêt,
E[Yτ Wτ ] = E Wτ E YT | FτW = E [Wτ YT ] = E [WTτ YT ] ;
la dernière espérance est nulle car W τ appartient à J M2 et donc Y est orthogonale à W .
Comme J M2 est fermé il suffit de démontrer que G ⊂ J M2 pour un sous-ensemble dense
de H2 . Les martingales bornées sont denses. Mais on peut remarquer que les martingales bornées
1.3. RÉSULTATS IMPORTANTS 13
telles que Y est également bornée sont denses. En effet, si M est une martingale bornée, notons
(X, Y ) sa décomposition. On introduit la suite de temps d’arrêt σn = inf{t, |Xt | ≥ n}. Comme
X est continue, X σn et par suite Y σn = M σn − X σn sont des martingales bornées. On a bien
évidemment MTσn −→ MT dans L2 . Montrons que la décomposition de M σn est (X σn , Y σn ). Il s’agit
de montrer que W est orthogonal à Y σn puisque X σn s’écrit comme une intégrale stochastique.
Or hY σn , W i = hY, W iσn ce qui donne le résultat.
On suppose donc que X, Y , et M sont bornées par α. Soit D = 1 + YT /(2α). On a D ≥ 1/2 et
E[D] = 1. On considère P∗ la probabilité sur FTW de densité D par rapport à P. Soit X ∈ J M2 ;
montrons que X est une P∗ –martingale. Soit donc τ un temps d’arrêt. On a, comme E[Xτ ] = 0,
E∗ [Xτ ] = E[DXτ ] = E[YT Xτ ]/(2α) = E[Yτ Xτ ]/(2α) = hY, Xiτ /(2α) = 0,
Rt
ce qui montre que X est une P∗ –martingale. Comme Wt2 − t = 2 0 Wr dWr , le calcul précédent
montre que Wt et Wt2 − t sont des P∗ –martingales continues. Donc d’après le théorème de Paul
Lévy, sous P comme sous P∗ , W est un mouvement brownien. Comme D est mesurable par rapport
à FTW , on en déduit que D = 1 ce qui donne YT = 0 et donc Y = 0.
On déduit de ce résultat que si ξ est une variable aléatoire de carré intégrable, FTW –mesurable,
il existe un unique processus (Ht )t∈[0,T ] ∈ M2 (Rd ) tel que
Z T
ξ = E[ξ] + Hs · dWs .
0
Théorème 1.35 (Girsanov). Soit (ht )0≤t≤T un processus progressivement mesurable, à valeurs
RT
dans Rd tel que P–p.s. 0 |hs |2 ds < +∞. On suppose que le processus (Dt )0≤t≤T défini par
Z t
1 t
Z
2
Dt = exp hs · dWs − |hs | ds
0 2 0
est une martingale. RSoit P∗ la mesure de densité DT par rapport à P sur FT . Introduisons le
t
processus Bt = Wt − 0 hs ds. Alors, sous la probabilité P∗ , B est un mouvement brownien standard.
h n RT oi
Remarque. Lorsque E exp 1/2 0 |hs |2 ds < +∞, D est une martingale. Ce critère est connu
sous le nom de condition de Novikov.
Nous finissons ce chapitre préliminaire par le critère de Kolmogorov. Fixons quelques notations.
Soit X un processus à valeurs dans un espace de Banach indicé par un paramètre d–dimensionnel.
On note k · k la norme de l’espace de Banach et | · | celle de Rd . Rappelons qu’une fonction f à
valeurs dans un Banach et définie sur Rd est localement hölderienne d’ordre α si, pour tout a > 0,
il existe une constante C telle que :
∀|x|, |y| ≤ a, kf (x) − f (y)k ≤ C |x − y|α .
Théorème 1.36 (Critère de Kolmogorov). Soit (Xt )t∈[0,1]d un processus à valeurs dans un Banach.
Supposons qu’il existe trois constantes strictement positives, γ, ε, C, telles que :
∀s, t ∈ [0, 1]d , E [kXt − Xs kγ ] ≤ C |t − s|d+ε .
Alors il existe une modification Y de X telle que
γ
E sups6=t kYt − Ys k/|t − s|α
∀α ∈ [0, ε/γ[, < +∞.
2.1.1. Présentation du problème. Soient (Ω, F, (Ft )t≥0 , P) un espace probabilisé filtré
et variable aléatoire ξ mesurable par rapport à FT . On voudrait résoudre l’équation différentielle
suivante :
−dYt
= f (Yt ), t ∈ [0, T ], avec, YT = ξ,
dt
en imposant que, pour tout instant t, Yt ne dépende pas du futur après t c’est à dire que le processus
Y soit adapté par rapport à la filtration {Ft }t≥0 .
Prenons l’exemple le plus simple à savoir f ≡ 0. Le candidat naturel est Yt = ξ qui n’est pas
adapté si ξ n’est pas déterministe. La meilleure approximation – disons dans L2 – adaptée est la
martingale Yt = E(ξ | Ft ). Si on travaille avec la filtration naturelle d’un mouvement brownien, le
théorème de représentation des martingales browniennes permet de construire un processus Z de
carré intégrable et adapté tel que :
Z t
Yt = E(ξ | Ft ) = E[ξ] + Zs dWs .
0
On voit donc apparaître sur l’exemple le plus simple une seconde inconnue qui est le processus
Z dont le rôle est de rendre le processus Y adapté.
Par conséquent, comme une seconde variable apparaît, pour obtenir la plus grande généralité,
on permet à f de dépendre du processus Z ; l’équation devient donc :
15
16 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES
– on notera tout d’abord S 2 (Rk ) l’espace vectoriel formé des processus Y , progressivement
mesurables, à valeurs dans Rk , tels que :
kY k2S 2 := E sup |Yt |2 < ∞,
0≤t≤T
et Sc2 (Rk ) le sous-espace formé par les processus continus. Deux processus indistinguables
seront toujours identifiés et nous garderons les mêmes notations pour les espaces quotients.
– et ensuite M2 (Rk×d ) celui formé par les processus Z, progressivement mesurables, à valeurs
dans Rk×d , tels que : "Z #
T
2 2
kZkM2 := E kZt k dt < ∞,
0
Si {(Yt , Zt )}0≤t≤T est une solution de l’EDSR (2.1) telle que Z ∈ M2 alors Y appartient à Sc2 .
2.2. LE CAS LIPSCHITZ 17
Posons Z T Z t
ζ = |Y0 | + (fr + λkZr k) dr + sup Zr dWr .
0 0≤t≤T 0
Par hypothèse, Z appartient à M2 et donc, via l’inégalité de Doob, le troisième terme est de carré
intégrable ; il en est de même pour {ft }0≤t≤T , et Y0 est déterministe donc de carré intégrable ; il
s’en suit que ζ est une variable aléatoire de carré intégrable.
Comme Y est un processus continu – cf. remarque précédente, le lemme de Gronwall fournit
l’inégalité sup0≤t≤T |Yt | ≤ ζeλT qui montre que Y appartient à S 2 .
Remarque. Le résultat est encore valable lorsque kf· k1 est une variable aléatoire de carré intégrable.
Finissons par un résultat d’intégrabilité qui nous servira à plusieurs reprise.
Z t
2 k 2 k×d
Lemme 2.3. Soient Y ∈ S (R ) et Z ∈ M (R ). Alors Ys · Zs dWs , t ∈ [0, T ] est une
0
martingale uniformément intégrable.
2. condition d’intégrabilité :
" #
Z T
2 2
E |ξ| + |f (r, 0, 0)| dr < ∞.
0
Nous commençons par un cas très simple, celui où f ne dépend ni de y ni de z i.e. on se donne
ξ de carré intégrable et un processus {Ft }0≤t≤T dans M2 (Rk ) et on veut trouver une solution de
l’EDSR Z Z T T
Yt = ξ + Fr dr − Zr dWr , 0 ≤ t ≤ T. (2.2)
t t
Lemme 2.4. Soient ξ ∈ L2 (FT ) et {Ft }0≤t≤T ∈ M2 (Rk ). L’EDSR (2.2) possède une unique
solution (Y, Z) telle que Z ∈ M2 .
Démonstration. Supposons dans un premier temps que (Y, Z) soit une solution vérifiant Z ∈ M2 .
Si on prend l’espérance conditionnelle sachant Ft , on a nécessairement,
!
Z T
Yt = E ξ + Fr dr Ft .
t
M est une martingale brownienne ; via le théorème de représentation des martingales brow-
niennes on construit un processus Z appartenant à M2 tel que
Z t Z t Z t
Yt = Mt − Fr dr = M0 + Zr dWr − Fr dr.
0 0 0
On vérifie facilement que (Y, Z) ainsi construit est une solution de l’EDSR étudiée puisque
comme YT = ξ,
!
Z Z t Z tZ T T
Yt − ξ = M0 + Zr dWr − Fr dr − M0 + Zr dWr − Fr dr
0 0 0 0
Z T Z T
= Fr dr − Zr dWr .
t t
Démonstration. Nous utilisons un argument de point fixe dans l’espace de Banach B 2 en construi-
sant une application Ψ de B 2 dans lui-même de sorte que (Y, Z) ∈ B 2 est solution de l’EDSR (2.1)
si et seulement si c’est un point fixe de Ψ.
Pour (U, V ) élément de B 2 , on définit (Y, Z) = Ψ(U, V ) comme étant la solution de l’EDSR :
Z T Z T
Yt = ξ + f (r, Ur , Vr ) dr − Zr dWr , 0 ≤ t ≤ T.
t t
Remarquons que cette dernière EDSR possède une unique solution qui est dans B 2 . En effet,
posons Fr = f (r, Ur , Vr ). Ce processus appartient à M2 puisque, f étant Lipschitz,
et ces trois derniers processus sont de carré intégrable. Par suite, nous pouvons appliquer le
Lemme 2.4 pour obtenir une unique solution (Y, Z) telle que Z ∈ M2 . (Y, Z) appartient à B 2 :
l’intégralité de Z est obtenue par construction et, d’après la Proposition 2.2, Y appartient à Sc2 .
L’application Ψ de B 2 dans lui-même est donc bien définie.
Soient (U, V ) et (U 0 , V 0 ) deux éléments de B 2 et (Y, Z) = Ψ(U, V ), (Y 0 , Z 0 ) = Ψ(U 0 , V 0 ). Notons
y = Y − Y 0 et z = Z − Z 0 . On a, yT = 0 et
d eαt |yt |2 = αeαt |yt |2 dt − 2eαt yt · {f (t, Ut , Vt ) − f (t, Ut0 , Vt0 )} dt + 2eαt yt · zt dWt + eαt kzt k2 dt.
En particulier, prenant l’espérance – ce qui fait partir l’intégrale stochastique via la remarque
précédente –, on obtient facilement, pour t = 0,
"Z #
T
E eαr kzr k2 dr ≤ E [Rε ] . (2.4)
0
Prenons ε tel que ε(3 + C 2 )(1 ∨ T ) = 1/2, de sorte que l’application Ψ est alors une contraction
stricte de B 2 dans lui-même si on le munit de la norme
" #1/2
Z T
k(U, V )kα = E sup eαt |Ut |2 + eαr kVr k2 dr ,
0≤t≤T 0
qui en fait un espace de Banach – cette dernière norme étant équivalente à la norme usuelle
correspondant au cas α = 0.
Ψ possède donc un unique point fixe, ce qui assure l’existence et l’unicité d’une solution de
l’EDSR (2.1) dans B 2 .
On obtient ensuite une unique solution vérifiant Z ∈ M2 puisque la Proposition 2.2 implique
qu’un telle solution appartient à B 2 .
Remarque. À partir de maintenant et sans plus insister, l’expression « la solution de l’EDSR »
signifiera la solution de l’EDSR vérifiant Z ∈ M2 .
2.2.2. Le rôle de Z. Nous allons voir que le rôle de Z, plus précisément celui du terme
RT
t
Zr dWr est de rendre le processus Y adapté et que lorsque ceci n’est pas nécessaire Z est nul.
Proposition 2.6. Soit (Y, Z) la solution de l’EDSR (2.1) et soit τ un temps d’arrêt majoré par
T . On suppose, outre l’hypothèse (L), que ξ est Fτ –mesurable et que f (t, y, z) = 0 dès que t ≥ τ .
Alors Yt = Yt∧τ et Zt = 0 si t ≥ τ .
2.2. LE CAS LIPSCHITZ 21
Démonstration. On a, P–p.s.,
Z T Z T
Yt = ξ + f (r, Yr , Zr ) dr − Zr dWr , 0 ≤ t ≤ T,
t t
RT
Il vient alors Yτ = E(ξ|Fτ ) = ξ et par suite τ Zr dWr = 0 d’où l’on tire que
" Z # "Z #
T 2 T
E Zr dWr =E kZr k2 dr = 0,
τ τ
Notons que dans le cas où ξ et f sont déterministes alors Z est nul et Y est la solution de
l’équation différentielle
dYt
= f (t, Yt , 0), YT = ξ.
dt
2.2.3. Une estimation à priori. Nous finissons ce paragraphe en donnant une première
estimation sur les EDSR : il s’agit en fait d’étudier la dépendance de la solution de l’EDSR par
rapport aux données qui sont ξ et le processus {f (t, 0, 0)}0≤t≤T . Cette étude sera reprise au chapitre
suivant.
Proposition 2.7. Supposons que (ξ, f ) vérifie (L). Soit (Y, Z) la solution de l’EDSR (2.1) telle
que Z ∈ M2 . Alors, il existe une constante Cu universelle telle que, pour tout β ≥ 1 + 2λ + 2λ2 ,
" # " #
Z T Z T
E sup eβt |Yt |2 + eβt kZt k2 dt ≤ Cu E eβT |ξ|2 + eβt |f (t, 0, 0)|2 dt .
0≤t≤T 0 0
1 T βr
Z Z T Z T
βt βT βr
2
e |Yt | + 2
e kZr k dr ≤ e |ξ| + 2 2
e |f (r, 0, 0)| dr − 2 eβr Yr · Zr dWr . (2.5)
2 t 0 t
22 CHAPITRE 2. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES RÉTROGRADES
nR o
t βr
La martingale locale 0
e Yr · Z r dWr , t ∈ [0, T ] est une martingale – cf. Lemme 2.3. En
particulier, prenant l’espérance, on obtient facilement, pour t = 0,
"Z # " #
T Z T
βr 2 βT 2 βr 2
E e kZr k dr ≤ 2 E e |ξ| + e |f (r, 0, 0)| dr .
0 0
D’autre part,
" Z # " #
T 1/2 Z T 1/2
CE e2βr |Yr |2 kZr k2 dr ≤ CE sup eβt/2 |Yt | eβr kZr k2 dr
0 0≤t≤T 0
"Z #
T
C2
1 βt 2 βr 2
≤ E sup e |Yt | + E e kZr k dr .
2 0≤t≤T 2 0
Il vient alors,
" # "Z #
Z T T
βt βT
2 2
E sup e |Yt | ≤ 2 E e |ξ| + eβr |f (r, 0, 0)|2 dr + C 2 E eβr kZr k2 dr ,
0≤t≤T 0 0
et finalement on obtient
" # " #
Z T Z T
E sup eβt |Yt |2 + βr 2 2 βT 2 βr 2
e kZr k dr ≤2 2+C E e |ξ| + e |f (r, 0, 0)| dr ,
0≤t≤T 0 0
ce qui termine la preuve de la proposition prenant Cu = 2 2 + C 2 .
Démonstration. La preuve s’effectue par linéarisation ce qui permet de se ramener aux EDSR
linéaires. On cherche une équation satisfaite par U = Y 0 − Y ; on a notant V = Z 0 − Z et ζ = ξ 0 − ξ,
Z T Z T
Ut = ζ + (f 0 (r, Yr0 , Zr0 ) − f (r, Yr , Zr )) dr − Vr dWr .
t t
avec, pour 0 ≤ r ≤ T ,
nZ r Z r Z r
1 o
Γr = exp bu · dWu − |bu |2 du + au du .
0 2 0 0
Comme déjà mentionné lors de la remarque suivant la Proposition 2.8, cette formule montre
que Ut ≥ 0, dès que ζ ≥ 0 et cr ≥ 0.
Pour la seconde partie du résultat, si de plus U0 = 0 on a :
Z T !
0 = E ζΓT + cr Γr dr ,
0
et la variable aléatoire intégrée est positive. Par conséquent, elle est nulle P–p.s. ce qui termine la
preuve de ce théorème en remarquant que dans ce cas ζ = 0 et cr = 0.
Remarque. On peut supposer que f (t, Yt0 , Zt0 ) ≤ f 0 (t, Yt0 , Zt0 ) au lieu de f (t, Yt , Zt ) ≤ f (t, Yt , Zt )
pour obtenir le résultat précédent. Il suffit de faire une linéarisation en partant de l’écriture
f 0 (r, Yr0 , Zr0 ) − f (r, Yr , Zr ) = f 0 (r, Yr0 , Zr0 ) − f (r, Yr0 , Zr0 ) (supposé positif ici)
+f (r, Yr0 , Zr0 ) − f (r, Yr , Zr0 ) + f (r, Yr , Zr0 ) − f (r, Yr , Zr ).
2.3. THÉORÈME DE COMPARAISON 25
dSt = St (µ dt + σ dWt ), S0 = x,
Parallèlement à cette action, on a un placement sans risque – disons un livret de Caisse d’épargne
pour fixer les idées – dont le taux de rendement est constant, égal à r ; le prix d’une part est donné
part
dEt = rEt dt, E0 = y, i.e. Et = yert .
Une stratégie est la donnée d’un couple de processus, (pt , qt )t≥0 , adapté par rapport à la filtra-
tion du MB W ; qt représente le nombre de parts d’actif sans risque et pt celui d’actif risqué i.e. le
nombre d’actions détenues dans le portefeuille à l’instant t. La valeur du portefeuille est donc, à
l’instant t,
Vt = qt Et + pt St .
On ne considère que des stratégies autofinancées ce qui se traduit par le fait que l’évolution de
la valeur du portefeuille est décrite par
Un problème fréquent en finance consiste à donner un prix aux options. Une option européenne
d’achat, un « call », de maturité T et de prix d’exercice K est un contrat qui donne le droit mais
non l’obligation à son détenteur d’acheter une part de l’action au prix d’exercice K à la date T .
Le vendeur de l’option s’engage donc à payer à son détenteur la somme (ST − K)+ qui représente
le profit que permet l’exercice de l’option. Plus généralement on peut imaginer un actif contingent
dont le bénéfice est une variable aléatoire positive ξ qui dépend de (St )0≤t≤T . À quel prix v vendre
l’option ? Le vendeur doit s’assurer qu’en vendant l’option à ce prix à la date t = 0, il disposera de
la somme ξ à la date t = T .
Pour trouver v, l’idée fondamentale est celle de duplication : le vendeur vend l’option au prix
v et investit cette somme dans le marché en suivant la stratégie (Zt )0≤t≤T à trouver ! La valeur de
son portefeuille est régie par l’EDS
Le problème est alors de trouver v et {Zt }0≤t≤T de sorte que la solution de l’EDS précédente
vérifie VT = ξ ; on dit que dans ce cas que v est le prix équitable. En d’autres termes, peut-on
trouver {(Vt , Zt )}0≤t≤T adapté tels que :
auquel cas il suffit de vendre l’option au prix v = V0 . Il s’agit dans ce cas de résoudre une EDSR
qui est linéaire.
Supposons maintenant que « le régulateur du marché » veuille éviter la revente instantanée
de l’action. Il peut soit interdire formellement cette transaction soit pénaliser les investisseurs
qui se livrent à cette pratique – par exemple en leur faisant verser une somme proportionnelle à
βπt− = γZt− (γ > 0). Dans ce dernier cas, dupliquer un actif contingent revient à résoudre l’EDSR,
L’EDSR n’est plus linéaire mais vérifie néanmoins l’hypothèse (L). Un autre exemple d’EDSR
non-linéaire intervenant en finance est le suivant :
On est amené à résoudre cette dernière équation pour dupliquer un actif contingent lorsque le taux
d’emprunt est R > r.
Signalons que dans tous les exemples précédents, les stratégies sont admissibles i.e. Vt ≥ 0. Cela
résulte du théorème de comparaison puisque ξ ≥ 0 et f (t, 0, 0) ≥ 0.
Chapitre 3
EDSR monotones
L’objectif de ce chapitre est d’établir un résultat d’existence et d’unicité pour les EDSR s’af-
franchissant partiellement de la condition de Lipschitz en y ; nous établissons également diverses
estimations pour les solutions des EDSR.
27
28 CHAPITRE 3. EDSR MONOTONES
Remarque. On peut signaler tout d’abord que si yp7−→ f (y) est K–Lipschitz alors f est monotone
avec µ = K. Par contre, la fonction réelle y 7−→ − y + est monotone avec 0 pour constante µ mais
n’est pas Lipschitz.
Notre objectif est à présent d’étudier l’existence et l’unicité des solutions de l’EDSR
Z T Z T
Yt = ξ + f (r, Yr , Zr ) dr − Zr dWr , 0 ≤ t ≤ T, (3.1)
t t
Soit (Y, Z) ∈ B 2 solution de l’EDSR (3.1). Alors, il existe une constante universelle Cu telle que
" Z T # " #
Z T 2
αt 2 αt 2 αT 2 αt/2
E sup e |Yt | + e kZt k dt ≤ Cu E e |ξ| + e ft dt ,
0≤t≤T 0 0
Remarque. Si f vérifie l’hypothèse (My), on peut prendre ft = |f (t, 0, 0)|. On peut également
noter, pour le second point, que dès que ξ et ft sont bornés par une constante M ,
Démonstration. On applique la formule de Itô à eat |Yt |2 , a étant un réel, pour obtenir :
Z T Z T Z T
at ar aT ar
2 2 2 2
2ear Yr · Zr dWr .
e |Yt | + e kZr k dr = e |ξ| + e −a|Yr | + 2Yr · f (r, Yr , Zr ) dr −
t t t
3.2. ESTIMATIONS À PRIORI 29
1 T αr
Z Z T Z T
αt αT αr
2
e |Yt | + 2
e kZr k dr ≤ e |ξ| + 22
e |Yr | fr dr − 2 eαr Yr · Zr dWr . (3.2)
2 t 0 t
En particulier, prenant l’espérance – ce qui fait partir l’intégrale stochastique via la remarque
précédente –, on obtient facilement, pour t = 0,
"Z # " #
T Z T
αr 2 αT 2 αr
E e kZr k dr ≤ 2 E e |ξ| + 2 e |Yr | fr dr .
0 0
D’autre part,
" Z # " #
T 1/2 Z T 1/2
CE e2αr |Yr |2 kZr k2 dr ≤ CE sup eαt/2 |Yt | eαr kZr k2 dr
0 0≤t≤T 0
"Z #
T
C2
1 αt 2 αr 2
≤ E sup e |Yt | + E e kZr k dr .
2 0≤t≤T 2 0
Il vient alors,
" # "Z #
Z T T
E sup eαt |Yt |2 ≤ 2 E eαT |ξ|2 + 2 eαr |Yr | fr dr + C 2 E eαr kZr k2 dr ,
0≤t≤T 0 0
et finalement on obtient
" # " #
Z T Z T
αt 2 αr 2 2 αT 2 αr
E sup e |Yt | + e kZr k dr ≤ 2(2 + C ) E e |ξ| + 2 e |Yr | fr dr .
0≤t≤T 0 0
30 CHAPITRE 3. EDSR MONOTONES
Démonstration. Remarquons tout d’abord que sous (My), dès que Z ∈ M2 , (Y, Z) solution de
l’EDSR de paramètres ξ et f appartient à B 2 . Notons que (δY, δZ) est solution de l’EDSR de
paramètres δξ et g(t, y, z) = f (t, y + Yt0 , z + Zt0 ) − f 0 (t, Yt0 , Zt0 ). Or, d’après l’hypothèse (My),
y · g(t, y, z) = y · (f (t, y + Yt0 , z + Zt0 ) − f (t, Yt0 , z + Zt0 )) + y · (f (t, Yt0 , z + Zt0 ) − f (t, Yt0 , Zt0 ))
+y · (f (t, Yt0 , Zt0 ) − f 0 (t, Yt0 , Zt0 )) ,
d’où l’on déduit que y · g(t, y, z) ≤ µ|y|2 + K|y| kzk + |y| |δf (t, Yt0 , Zt0 )|. Il suffit d’appliquer la
proposition précédente pour conclure.
Remarque. Un bon exercice consiste à montrer que sous l’hypothèse de la proposition précédente,
on a, pour une autre constante universelle Cu ,
" Z T # " Z T #
βt 2 βt 2 βT 2 βt 2
E sup e |Yt | + e kZt k dt ≤ Cu E e |ξ| + e ft dt ,
0≤t≤T 0 0
avec β = 1 + 2(µ + K 2 ). Il suffit de s’inspirer de la Proposition 2.2.7. La remarque vaut aussi pour
le Corollaire 3.2.
3.3.1. Le résultat. Dans un premier temps nous admettons le résultat lorsque f ne dépend
que de y et nous en déduisons le théorème général.
Théorème 3.4. Sous (My), l’EDSR (3.1) possède une unique solution telle que Z ∈ M2 .
Démonstration. L’unicité est évidente : il suffit en effet d’appliquer le Corollaire 3.2. Pour l’exis-
tence nous utilisons un argument de point fixe basé sur la proposition précédente. Pour (U, V )
élément de B 2 , notons (Y, Z) = Ψ(U, V ) la solution de l’EDSR de la proposition précédente. Ψ est
une application du Banach B 2 dans lui même. Si (Y 0 , Z 0 ) = Ψ(U 0 , V 0 ), les estimations à priori –
cf. Corollaire 3.2 – donnent, si α = 2µ,
" # " Z #
Z T T 2
|α|T
E sup |δYt | +2
kδZt k dt ≤ Cu e2
E |f (t, Yt , Vt ) − f (t, Yt , Vt0 )| dt ,
0≤t≤T 0 0
cette dernière inégalité montre que Ψ est une contraction stricte si T est suffisamment petit et
fournit donc le résultat sous cette restriction. Dans le cas général, il suffit de subdiviser, l’intervalle
de temps [0, T ] en un nombre fini d’intervalles de longueur convenable : on résout d’abord sur
[T − η, T ] puis sur [T − 2η, T − η], . . .
3.3.2. Preuve de la Proposition 3.3. L’unicité a déjà été étudiée lors du théorème
précédent. Passons maintenant aux choses sérieuses : l’existence. Soit donc V ∈ M2 ; notons
h(t, y) = f (t, y, Vt ). On doit construire une solution pour l’EDSR
Z T Z T
Yt = ξ + h(r, Yr ) dr − Zr dWr , 0 ≤ t ≤ T. (3.3)
t t
k
Étape 1 : ξ et supt ht bornés par un réel M . On considère
∞
R alors une fonction ρ : R∗ −→ R+ ,
de classe C dont le support est la boule unité et telle que ρ(u)du = 1. Soit n ∈ N . On note
ρn (u) = nk ρ(nu). Soit d’autre part θn : Rk −→ [0, 1], C ∞ , telle que θn (y) = 1 si |y| ≤ n et θn (y) = 0
dès que |y| ≥ n + 1. On définit enfin, pour n ≥ 1,
Z Z
hn (t, y) = ρn ∗ θn h(t, ·)(y) = ρn (y − u)θn (u)h(t, u)du = ρn (u)θn (y − u)h(t, y − u)du.
Rk Rk
Étudions d’abord les propriétés de hn . La première chose à remarquer est que y 7−→ hn (t, y)
est de classe C ∞ à support compact : en fait, hn (t, y) = 0 dès que |y| > n + 2 (pour tout (t, ω)).
De plus, d’après l’hypothèse de croissance de h, on a
Z Z
|hn (t, y)| ≤ ρn (u)|h(t, y − u)| du ≤ ρn (u) (ht + C|y| + C|u|) du,
et par suite, comme le support de ρ est inclus dans la boule unité, on a pour |y| ≤ n + 2,
Z
k∇hn (t, y)k ≤ n {(M + C) + C|y|} |∇ρ(u)| du ≤ C 0 n2 .
On peut donc appliquer le Théorème 2.2.5, pour obtenir une unique solution (Y n , Z n ) dans B 2
de l’EDSR Z T Z T
n n
Yt = ξ + hn (r, Yr ) dr − Zrn dWr , 0 ≤ t ≤ T.
t t
Comme ξ est bornée par M , la majoration (3.4) permet d’appliquer la remarque suivant la
Proposition 3.1, pour obtenir supn supt |Ytn |2 ≤ 2(M + C)2 exp{(1 + 2C)T }. En fait, on peut
obtenir une meilleure estimation en remarquant que y · hn (t, y) ≤ (M + C)|y|. En effet, on a
Z
y · hn (t, y) = ρn (u)θn (y − u)y · h(t, y − u) du,
et on écrit y · h(t, y − u) = y · (h(t, y − u) − h(t, −u)) + y · h(t, −u) ≤ 0 + |y|(M + C|u|). Il suffit
alors d’intégrer en tenant compte du fait que le support de ρn est inclus dans la boule unité. La
remarque de la page 28 conduit à
2
sup sup |Ytn | ≤ 2(M + C)2 exp{T }. (3.5)
n t
Cette dernière propriété va jouer un rôle important : la fonction hn n’est pas nécessairement
monotone dans tout l’espace (ce que l’on voulait faire au départ) mais hn est monotone dans la
boule de centre 0 et de rayon n − 1. En effet, si |y| ≤ n − 1,
Z Z
hn (t, y) = ρn (u)θn (y − u)h(t, y − u) du = ρn (u)h(t, y − u) du,
|u|≤1 |u|≤1
3.3. EXISTENCE ET UNICITÉ SOUS (MY) 33
puisque θn (x) = 1 si |x| ≤ n. Par suite, si |y| ≤ n − 1 et |y 0 | ≤ n − 1, alors, comme h est monotone,
Z
(y − y 0 ) · (hn (t, y) − hn (t, y 0 )) = ρn (u)(y − y 0 ) · (h(t, y − u) − h(t, y 0 − u)) du ≤ 0.
n n 2
√ montrer que la suite (Y , Z ) converge dans B . Pour cela prenons,
Nous allons à présent
m ≥ n ≥ 1 + a où a = 2(M + C) exp(T /2). La formule d’Itô donne, si on note δY = Y m − Y n ,
δZ = Z m − Z n ,
Z T Z T Z T
2 2 m n
|δYt | + kδZr k dr = 2 δYr · {hm (r, Yr ) − hn (r, Yr )} dr − 2 δYr · δZr dWr .
t t t
On ne peut pas appliquer directement les estimations à priori car les fonctions hm et hn ne sont
pas globalement monotones. Toutefois, hm est monotone dans la boule de rayon m − 1 ; comme
m − 1 ≥ a, Yrm et Yrn appartiennent à cette boule d’après l’estimation (3.5). Par suite,
δYr .{hm (r, Yrm ) − hn (r, Yrn )} ≤ δYr .{hm (r, Yrm ) − hm (r, Yrn )} + δYr .{hm (r, Yrn ) − hn (r, Yrn )}
≤ 0 + 2a sup |hm (t, y) − hn (t, y)|.
|y|≤a
Il vient alors,
Z T Z T Z T
2 2
|δYt | + kδZr k dr = 4a sup |hm (t, y) − hn (t, y)| dr − 2 δYr · δZr dWr .
t 0 |y|≤a t
Utilisant la même démarche que pour les estimations à priori – on établit l’estimation pour le
terme en Z puis on emploie les inégalités BDG –, on obtient pour une constante C,
" # "Z #
Z T T
E sup |δYt |2 + kδZr k2 dr ≤ C E sup |hm (t, y) − hn (t, y)| dr .
0≤t≤T 0 0 |y|≤a
Comme la fonction y 7−→ h(t, y) est continue, hn (t, ·) converge vers h(t, ·) uniformément sur les
compacts λ ⊗ P–presque partout. De plus, d’après la majoration (3.4), on a
sup |hm (t, y) − hn (t, y)| ≤ 2(M + C + Ca).
|y|≤a
le premier terme tend vers 0 car |hn (r, Yrn ) − h(r, Yrn )| ≤ sup|y|≤a |hn (r, y) − h(r, y)|. Le second
terme tend vers 0 car, comme la fonction h(t, ·) est continue h(t, Ytn ) −→ h(t, Yt ). Dans chacun
des cas les dominations sont immédiates. Ceci termine la première étape.
34 CHAPITRE 3. EDSR MONOTONES
Étape 2 : cas général. Pour tout entier p ≥ 1, définissons ξ p = ξ1|ξ|≤p , hp (t, y) = h(t, y)1ht ≤p .
Le couple (ξ p , hp ) vérifie les hypothèses de l’étape précédente. hp est monotone, y 7−→ hp (t, y) est
continue et
|ξ p | ≤ p, |hp (t, y)| ≤ p + C|y|.
L’EDSR de paramètres (ξ p , hp ) possède donc une unique solution dans B 2 , (Y p , Z p ). Par mono-
tonie, y.hp (t, y) ≤ |y| |hp (t, 0)| ≤ p|y|. La remarque suivant la Proposition 3.1 montre alors que
supt |Y p |2 ≤ 2p2 eT . Montrons que la suite (Y p , Z p ) est de Cauchy dans B 2 . Soit donc q ≥ p. On
utilise les estimations à priori – cf. Corollaire 3.2 – pour obtenir
" Z T # " Z #
T 2
2 2 p
E sup |δYt | + kδZt k dt ≤ Cu E 1ht >p |h(t, Yt )| dt .
0≤t≤T 0 0
√
Or |h(t, Ytp )| ≤ ht + C|Ytp | ≤ ht + C 2peT /2 . Par suite,
√
1ht >p |h(t, Ytp )| ≤ 1 + C 2eT /2 ht 1ht >p .
qui tend vers 0 comme déjà dit. Pour le second terme, la continuité de h(t, ·) montre que l’intégrant
|h(r, Yrp ) − h(r, Yr )| tend vers 0 λ ⊗ P–presque partout. On a de plus
2
|h(r, Yrp )| ≤ 2 h2r + C 2 |Yrp |2
Dans ce chapitre, nous rappelons tout d’abord le théorème d’existence et d’unicité sur les
équations différentielles stochastiques – EDS en abrégé dans la suite du cours – puis nous nous
intéresserons au flot stochastique engendré par une EDS. Nous finirons par la propriété de Markov.
Définition 4.1. Une solution (forte) de l’EDS (4.1), X, est un processus continu tel que :
1. X est progressivement mesurable ;
Z T
2. P–p.s. {|b(r, Xr )| + kσ(r, Xr )k2 }dr < ∞, où kσk = trace(σσ ∗ ) ;
0
Z t Z t
3. P–p.s., on a : Xt = Z + b(r, Xr )dr + σ(r, Xr )dWr , 0 ≤ t ≤ T.
0 0
35
36 CHAPITRE 4. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
Lemme 4.2. Lemme de Gronwall. Soit g : [0, T ] −→ R une fonction continue telle que, pour
tout t, Z t
g(t) ≤ a + b g(s)ds, a ∈ R, b ≥ 0.
0
Alors, pour tout t, g(t) ≤ a exp(bt).
Remarque. Pour simplifier les calculs déjà nombreux, les démonstrations seront effectuées dans le
cas n = d = 1.
Démonstration. La preuve consiste à utiliser la méthode itérative de Picard comme dans le cas
déterministe. Une démonstration s’appuyant sur un argument de point fixe est également possible.
Pour X ∈ Sc2 , posons, pour tout t ∈ [0, T ],
Z t Z t
Φ(X)t = Z + b(r, Xr )dr + σ(r, Xr )dWr .
0 0
Comme les fonctions b et σ sont Lipschitz en espace, on obtient, pour tout u ∈ [0, T ],
h i hZ u i
2
E sup Φ(X)t − Φ(Y )t ≤ 2K 2 (T + 4)E sup |Xt − Yt |2 dr . (4.2)
0≤t≤u 0 0≤t≤r
4.1. LE RÉSULTAT CLASSIQUE D’ITÔ 37
Les estimations (4.2) et (4.3) montrent alors que le processus Φ(X) appartient à Sc2 dès que X
appartient à Sc2 .
On définit alors par récurrence une suite de processus de Sc2 en posant
On obtient très facilement à l’aide de la formule (4.2), pour tout n ≥ 0, notant C à la place de
2K 2 (T + 4),
h i C nT n h i
2 2
E sup Xtn+1 − Xtn ≤ E sup Xt1 ,
0≤t≤T n! 0≤t≤T
Ainsi, la série n supt Xtn+1 −Xtn converge P–p.s. et donc, P–p.s., X n converge uniformément
P
sur [0, T ] vers un processus X continu. De plus X ∈ Sc2 puisque la convergence a lieu dans S 2 –
voir l’inégalité précédente. On vérifie très facilement que X est solution de l’EDS (4.1) en passant
à la limite dans la définition X n+1 = Φ(X n ).
Si X et Y sont deux solutions de l’EDS (4.1) dans Sc2 alors X = Φ(X) et Y = Φ(Y ). L’inéga-
lité (4.2) donne alors, pour tout u ∈ [0, T ],
h i Z u h i
2
E sup Xt − Yt ≤ 2K 2 (T + 4) E sup |Xt − Yt |2 dr,
0≤t≤u 0 0≤t≤r
Il vient alors,
h i h Z t∧τn 2 i hZ t∧τn i
2 2
≤ 3 E |Z|2 + E
E sup Xu b(r, Xr ) dr + 4E σ(r, Xr ) dr ,
0≤u≤t∧τn 0 0
h i
2
On obtient, en appliquant le lemme de Gronwall, à la fonction t 7−→ E sup0≤u≤t∧τn Xu
h i
2
≤ 3 E |Z|2 + 2K 2 T 2 + 8K 2 T exp{3(2K 2 T + 8K 2 )T },
E sup Xu
0≤u≤T ∧τn
4.1.3. Exemples. Donnons deux exemples classiques d’EDS. Le premier est emprunté au
monde de la finance. Le prix d’une action est généralement modélisé par l’EDS :
dSt = St µdt + σdWt , S0 donné;
et σ vérifie les hypothèses du théorème 4.3 – Lipschitz en espace et croissance linéaire. D’après le
résultat précédent, on peut construire pour tout (s, x) ∈ [0, T ] × Rn , la solution de l’EDS
Z t Z t
Xts,x = x + b(r, Xrs,x )dr + σ(r, Xrs,x )dWr , s ≤ t ≤ T, (4.4)
s s
4.2.1. Continuité. Pour démontrer les propriétés de continuité du flot, nous allons utiliser
le critère de Kolmogorov (théorème 1.36). Pour cela, nous devons établir des estimations sur les
moments de Xts,x . Les démonstrations sont un peu techniques mais ne sont pas difficiles : il s’agit
souvent d’utiliser les inégalités de Hölder, de Burkholder-Davis-Gundy – BDG dans la suite – et
le lemme de Gronwall.
Proposition 4.4. Soit p ≥ 1. Il existe une constante C, dépendant de T et p, telle que :
h i
p p
∀s ∈ [0, T ], ∀x ∈ Rn , E sup Xts,x ≤C 1+ x (4.5)
0≤t≤T
Nous savons à présent que la solution de l’EDS a des moments de tout ordre ; nous montrons
une estimation du même type pour les moments des accroissements de X.
Proposition 4.5. Soit 2 ≤ p < ∞. Il existe une constante C telle que, pour tout (s, x), (s0 , x0 )
appartenant à [0, T ] × Rn ,
0 0 p
h i
E sup Xts,x − Xts ,x ≤ C |x − x0 |p + |s − s0 |p/2 1 + |x0 |p . (4.6)
0≤t≤T
de sorte que nous montrons l’inégalité pour chacun des deux termes précédents.
4.2. PROPRIÉTÉS ÉLÉMENTAIRES DU FLOT 41
0
Commençons par le premier, |Xts,x − Xts,x |p . Il est inutile de prendre un temps d’arrêt car la
proposition précédente nous dit que l’espérance du sup en t est fini. On a
0 0 0
sup |Xts,x − Xts,x |p ≤ sup |Xts,x − Xts,x |p + sup |Xts,x − Xts,x |p ,
t∈[0,T ] t∈[0,s] t∈[s,T ]
de sorte que
0 0
sup |Xts,x − Xts,x |p ≤ |x − x0 |p + sup |Xts,x − Xts,x |p ;
t∈[0,T ] t∈[s,T ]
0
Z t 0
p
|Xus,x − Xus,x |p ≤ 3p−1 |x − x0 |p + b(r, Xrs,x ) − b(r, Xrs,x ) dr
s
Z u p
0
+ sup σ(r, Xrs,x ) − σ(r, Xrs,x ) dWr .
u∈[s,t] s
Utilisant une fois encore l’inégalité de Hölder, on obtient, notant q le conjugué de p/2,
Z t p/2 Z t
0 2 0 p
E σ(r, Xrs,x ) − σ(r, Xrs,x ) dr ≤ T p/2q E σ(r, Xrs,x ) − σ(r, Xrs,x ) dr ;
s s
0 0 0
Il reste à étudier le terme E supt |Xts,x − Xts ,x |p . On suppose, sans perte de généralité, que
Finalement,
0 0 0
h i
E sup |Xts,x − Xts ,x |p ≤ C|s − s0 |p/2 1 + |x0 |p .
(4.7)
t∈[s,s0 ]
0 0 0
Étudions pour finir le terme E supt∈[s0 ,T ] |Xts,x − Xts ,x |p . Remarquons que, pour t ∈ [s0 , T ],
0 0
Z t Z t
0 0
Xts,x = Xss,x
0 + b(r, Xrs,x )dr + σ(r, Xrs,x )dWr ,
s0 s0
Z t Z t
0 0 0 0 0 0
Xts ,x = x0 + b(r, Xrs ,x )dr + σ(r, Xrs ,x )dWr .
s0 s0
et un calcul désormais familier, utilisant les inégalités de Hölder, et de BDG, conduit à, via la
majoration (4.7) et le fait que b et σ sont Lipschitz,
h i hZ t i
0 0 0 p 0 0 0 p
0 p/2 0 p
Xus,x Xus ,x Xrs,x Xrs ,x dr
E sup − ≤ C |s − s | 1 + |x | +E −
u∈[s0 ,t] s0
hZ t i
0 0 0 p
C |s − s0 |p/2 1 + |x0 |p + E Xus,x − Xus ,x
≤ sup dr .
s0 u∈[s0 ,r]
0 0 0 p
Le lemme de Gronwall appliqué à r 7−→ supu∈[s0 ,r] Xus,x − Xus ,x donne alors
h 0 0 0
i
p
Xus,x − Xus ,x ≤ C|s − s0 |p/2 1 + |x0 |p ,
E sup
u∈[s0 ,t]
Corollaire 4.6. Il existe une modification du processus X telle que l’application de [0, T ] × Rn à
valeurs dans Sc2 , (s, x) 7−→ (t 7→ Xts,x ) soit continue.
En particulier, (s, x, t) 7−→ Xts,x est continue.
Démonstration. C’est une application directe de l’estimation précédente – valable pour tout p ≥ 2
et du critère de Kolmogorov (théorème 1.36) vu au chapitre 1.
Remarque. Il est important de remarquer que le corollaire précédent implique en particulier que,
P–p.s., pour tout (s, x, t), l’équation (4.4) est valable.
Nous terminons ce paragraphe en précisant la régularité du flot généré par l’EDS.
Proposition 4.7. Soit 2 ≤ p < ∞. Il existe une constante C telle que, pour tout (s, x, t), (s0 , x0 , t0 ),
0 0 p
h i
E Xts,x − Xts0 ,x ≤ C |x − x0 |p + 1 + |x0 |p |s − s0 |p/2 + |t − t0 |p/2 .
(4.8)
En particulier, les trajectoires (s, x, t) 7−→ Xts,x sont hölderiennes (localement en x) de para-
mètre β en s, α en x et β en t pour tout β < 1/2 et α < 1.
Comme (a+b)p ≤ 2p−1 (ap +bp ), il suffit d’établir l’estimation pour le second terme du majorant
– le premier relevant de l’estimation (4.6) de la proposition 4.5. On suppose alors que t ≤ t0 ; trois
cas se présentent : t ≤ t0 ≤ s0 (trivial), t ≤ s0 ≤ t0 et s0 ≤ t ≤ t0 . Notons que le second cas se
0 0 0 0
ramène au troisième puisque, si t ≤ s0 ≤ t0 , Xts ,x = Xss0,x et |t − t0 | ≥ |t0 − s0 |. On suppose donc
que s0 ≤ t ≤ t0 . On a alors
0 0 0 0
Z t0 Z t0
0 0 0 0
Xts0 ,x − Xts ,x = b(r, Xrs ,x )dr + b(r, Xrs ,x )dWr ,
t t
et on doit estimer
h Z t0 p i h Z t0 pi
0 0 0 0
E b(r, Xrs ,x ) dr , et, E σ(r, Xrs ,x )dr .
t t
4.2.2. Propriété de Markov. Nous allons établir la propriété de Markov pour les solu-
tions de l’EDS (4.4) comme conséquence de la propriété de flot.
On remarque que X·r,x est aussi solution de cette dernière EDS sur [s, T ] puisque
Z t Z t
r,x r,x
Xt = x+ b(u, Xu )du + σ(u, Xur,x )dWu
r r
Z t Z t
r,x r,x
= Xs + b(u, Xu )du + σ(u, Xur,x )dWu .
s s
L’unicité des solutions d’une EDS à coefficients Lipschitz donne alors – en fait à l’indistingua-
s,X r,x
bilité près sur [s, T ] – Xtr,x = Xt s .
s,Xsr,x
Remarque. En fait, par continuité, l’égalité Xtr,x = Xt a lieu pour tout x et pour tout 0 ≤
r ≤ s ≤ t ≤ T en dehors d’un ensemble P–négligeable.
Nous allons à présent établir la propriété de Markov. Rappelons qu’un processus X est marko-
vien s’il ne dépend du passé que par l’intermédiaire du présent. Mathématiquement cela conduit à
la définition suivante :
Définition 4.9. Propriété de Markov. Soit X un processus progressivement mesurable par
rapport à la filtration {Ft }t≥0 . On dit que X possède la propriété de Markov par rapport à {Ft }t≥0
si, pour toute fonction borélienne bornée f , et pour tout s ≤ t, on a
E f (Xt ) | Fs = E f (Xt ) | Xs , P–p.s.
Montrons la propriété de Markov pour les solutions de l’EDS (4.4) par rapport à la tribu du
mouvement brownien W .
Théorème 4.10. Soient x ∈ Rn et s ∈ [0, T ]. Xts,x 0≤t≤T est un processus de Markov par rapport
r,X s,x
Démonstration. Soient 0 ≤ s ≤ r ≤ t ≤ T . D’après la propriété du flot, on a Xts,x = Xt r . De
plus, nous démontrerons au chapitre 5 – ou alors voir par exemple [Fri75] – que Xtr,y est mesurable
par rapport à la tribu des accroissements du mouvement brownien σ{Wr+u − Wr , u ∈ [0, t − r]}.
Donc,
Xtr,y = Φ y, Wr+u − Wr ; 0 ≤ u ≤ t − r ,
Pour conclure, il faut encore remarquer que Xrs,x est Fr –mesurable et noter que Fr est indé-
pendante de la tribu σ{Wr+u − Wr , u ∈ [0, t − r]}. On a alors
E f (Xts,x ) | Fr = E f Φ Xrs,x , Wr+u − Wr ; 0 ≤ u ≤ t − r
Fr
h i
= E f Φ y, Wr+u − Wr ; 0 ≤ u ≤ t − r
y=Xrs,x
h i
= E f Xtr,y
y=Xrs,x
= Λ Xrs,x .
On peut également montrer que, si g est mesurable et, par exemple bornée,
Z T
E g(u, Xus,x )du Fr = Γ(r, Xrs,x ),
r
RT
où Γ(r, y) = E r g(u, Xur,y )du .
Remarque. Si b et σ ne dépendent pas du temps – on dit que l’EDS est autonome – on peut montrer
que la loi de Xts,x est la même que la loi de Xt−s
0,x
. On a alors :
E f (Xts,x ) | Fr = E f (Xt−r
0,y
) |y=X s,x .
r
Chapitre 5
Le cadre markovien
Nous considérons ici des EDSR « markoviennes » : il s’agit d’un cadre très spécifique dans
lequel la dépendance de la condition terminale et du générateur de l’EDSR dans l’aléat ω se fait
au travers de la solution d’une EDS. Nous verrons que la propriété de Markov pour les EDS se
transfère aux EDSR ; d’où le nom du chapitre.
5.1. Le modèle
5.1.1. Hypothèses et notations. La donnée de base est toujours un espace probabilisé
complet (Ω, F, P) sur lequel est défini un mouvement brownien W d-dimensionnel. La filtration
{Ft }t≥0 est la filtration naturelle de W augmentée de sorte que les conditions habituelles sont
satisfaites.
On considère deux fonctions b : [0, T ] × Rn −→ Rn et σ : [0, T ] × Rn −→ Rn×d continues. On
suppose qu’il existe une constante K ≥ 0 telle que, pour tout t, pour tout x, x0 de Rn ,
1. b(t, x) − b(t, x0 ) + σ(t, x) − σ(t, x0 ) ≤ K|x − x0 | ;
2. b(t, x) + σ(t, x) ≤ K(1 + |x|).
Sous ces hypothèses, on peut construire, étant donnés un réel t ∈ [0, T ] et une variable aléatoire
θ ∈ L2 (Ft ), {Xut,θ }t≤u≤T la solution de l’EDS
Z u Z u
Xut,θ = θ + b r, Xrt,θ dr + σ r, Xrt,θ dWr ,
t≤u≤T ; (5.1)
t t
Dans tout ce chapitre, nous supposerons que les hypothèses précédentes sur les coefficients b,
σ, f et g sont satisfaites. Parfois, nous ferons une hypothèse plus forte sur f et g en supposant
que g est K–Lipschitz et que f est K–Lipschitz en x uniformément en (t, y, z). Dans ce cas, p = 1.
Nous désignerons cette hypothèse par (Lip).
47
48 CHAPITRE 5. LE CADRE MARKOVIEN
Rappels sur les EDS. Rappelons tout d’abord quelques propriétés des EDS que nous avons
établies lors du Chapitre 4. Nous commençons par des estimations dans Lq avec q ≥ 2.
La première chose à signaler est que le théorème d’Itô sur les EDS (Théorème 4.3) garantit
l’existence et l’unicité de {Xut,θ }0≤u≤T . De plus, il existe une constante C telle que, pour tout
t ∈ [0, T ] et θ, θ0 ∈ Lq Ft ,
0 q
h q
i h i
E sup0≤u≤T Xut,θ ≤ C 1 + E |θ|q , E sup0≤u≤T Xut,θ − Xut,θ ≤ C E |θ − θ0 |q .
Proposition 5.1. Si θ ∈ L2p (Ft ), l’EDSR (5.2) possède une unique solution (vérifiant Z ∈ M2 ),
(Yut,θ , Zut,θ ) 0≤u≤T . Il existe une constante C telle que, pour tout t, pour tout θ ∈ L2p (Ft ),
" #
Z T
2 2
Yut,θ Zrt,θ dr ≤ C 1 + E |θ|2p .
E sup +
0≤u≤T 0
Démonstration. Commençons par écrire l’équation (5.2) sous la forme d’une EDSR telle que nous
les avons étudiées dans les deux chapitres précédents. Pour cela, on résout d’abord l’EDS (5.1),
puis on définit
ξ¯ = g XTt,θ , f¯(ω, r, y, z) = f r, Xrt,θ (ω), y, z .
Avec ces notations, l’équation (5.2) n’est rien d’autre que l’EDSR
Z T Z T
Yu = ξ¯ + f¯(r, Yr , Zr )dr − Zr dWr , 0 ≤ u ≤ T.
u t
Pour la première partie de la proposition, il suffit de montrer, vues les hypothèses du chapitre, que
ξ¯ est de carré intégrable et qu’il en va de même pour le processus {f¯(r, 0, 0)}r . Mais, d’après la
croissance de g et f , on a
p
∀r ∈ [0, T ], ξ¯ + f¯(r, 0, 0) ≤ K 1 + sup0≤u≤T Xut,θ ;
le résultat s’en suit immédiatement puisque, comme θ ∈ L2p , il en est de même de sup0≤u≤T Xut,θ
d’après le rappel sur les EDS.
Pour établir la majoration, on utilise les estimations à priori du Chapitre 3 cf. Proposition 3.1,
si α = 2µ + 2K 2 ,
" Z T # " Z T #
2
t,θ 2 t,θ 2 |α|T t,θ t,θ
2
E sup Yu + Zr dr ≤ Cu (1 + T )e E g XT + f r, Xr , 0, 0 dr ,
0≤u≤T 0 0
5.1. LE MODÈLE 49
Démonstration. Le point de départ est encore une fois les estimations à priori cf. Corollaire 3.2.
On a donc, si θ et θ0 sont deux éléments de L2p (Ft ), notant α = 2µ + 2K 2 , un contrôle de
" #
Z 2 T 2
0 0
E sup Yut,θ − Yut,θ + Zrt,θ − Zrt,θ dr
0≤u≤T 0
Sous l’hypothèse (Lip), cette dernière s’estime facilement ; on obtient comme majorant, C, C 0
désignant deux constantes dépendant de T , µ, K,
0 2
h i
2
C 0 E sup Xrt,θ − Xrt,θ ≤ C E |θ − θ0 | ,
0≤r≤T
ceci fournit la convergence en probabilité de g XTt,θn vers g XTt,θ par continuité de g ainsi que la
convergence en P ⊗ m–mesure de
vue la continuité de f . Il reste donc à établir l’équi-intégrabilité. Pour cela il suffit de noter que la
croissance de f et g conduit à l’inégalité
t,θn t,θn t,θ t,θ t,θn p t,θ t,θ
g XT + f r, Xr , Yr , Zr ≤ K 1 + sup Xr + Yr + Zr ,
0≤r≤T
et le dernier majorant converge dans L2 essentiellement en vertu de (5.3). Le résultat s’en suit
directement.
Démonstration. Considérons le processus {Bu }u≥0 définie par Bu = Wt+u − Wt et notons {Gu }u
t
sa filtration naturelle augmentée. B est un mouvement brownien et on a de plus Gu = Ft+u .
Soit {Xu }0≤u≤T −t la solution {Gu }u –adaptée de l’EDS
Z u Z u
Xu = x + b(t + r, Xr )dr + σ(t + r, Xr )dBr , 0 ≤ u ≤ T − t.
0 0
Dans les deux intégrales, on fait le changement de variables s = r + t pour obtenir – le changement
dans l’intégrale stochastique sera justifiée à la fin de la preuve –
Z v−t Z v Z v−t Z v
b(t + r, Xr )dr = b(s, Xs−t )ds, σ(t + r, Xr )dBr = σ(s, Xs−t )dWs ,
0 t 0 t
et par suite,
Z v Z v
Xv−t = x + b(s, Xs−t )ds + σ(s, Xs−t )dWs , t≤v≤T ;
t t
P–p.s., ∀v ∈ [t, T ], Xv−t = Xvt,x . En particulier, Xvt,x est mesurable par rapport à Gv−t puisqu’il
en est ainsi pour Xv−t . Or Gv−t = Fvt .
Le résultat pour les EDSR se déduit de celui que nous venons d’établir pour les EDS. En effet,
on considère la solution {(Yu , Zu )}0≤u≤T −t , Gu –adaptée de l’EDSR
Z T −t Z T −t
Yu = g(XT −t ) + f (t + r, Xr , Yr , Zr )dr − Zr dBr , 0 ≤ u ≤ T − t,
u u
soit encore
Z T −t Z T −t
Yv−t = g(XT −t ) + f (t + r, Xr , Yr , Zr )dr − Zr dBr , t ≤ v ≤ T.
v−t v−t
Il s’en suit que {Yv−t , Zv−t }v∈[t,T ] est solution sur [t, T ] de l’EDSR (5.2) pour θ = x puisque
nous savons déjà que Xv−t = Xvt,x . L’unicité des solutions des EDSR donne, dans Sc2 × M2 ,
{Yv−t , Zv−t }v∈[t,T ] = {Yvt,x , Zvt,x }v∈[t,T ] et la mesurabilité recherchée puisque {Yv−t , Zv−t }v∈[t,T ]
est adapté par rapport à Gv−t = Fvt .
Pour être tout à fait complet, justifions le changement de variables dans les intégrales stochas-
tiques i.e. si {h(r)}0≤r≤T −t est un processus de carré intégrable et Gr –adapté,
Z u Z t+u
h(r)dBr = h(s − t)dWs , 0 ≤ u ≤ T − t,
0 t
où rappelons-le Br = Wt+r − Wt . Le résultat est immédiat si h(r) = ha 1]a,b] (r) avec ha une v.a.
bornée, Ga –mesurable. En effet, on a
Z u
h(r)dBr = ha (Bu∧b − Bu∧a ) = ha (Wt+u∧b − Wt+u∧a ) ,
0
Par linéarité, le résultat est valable pour tous les processus simples. Si maintenant, h est un
processus de carré intégrable et Gu –adapté, il existe une suite processus simples hn , Gu –adaptés,
tels que "Z #
T −t
2
E |hn (r) − h(r)| dr −→ 0.
0
Comme Gs ⊂ Ft+s , {hn (s − t)}s et par suite {h(s − t)}s sont Fs –progressivement mesurables. Pour
finir, il suffit de noter que, d’une part
" # "Z #
Z u 2 T −t
2
E sup (hn (r) − h(r)) dBr ≤ 4E |hn (r) − h(r)| dr
0≤u≤T −t 0 0
52 CHAPITRE 5. LE CADRE MARKOVIEN
Puisque nous savons que Ytt,x est une quantité déterministe, on peut définir une fonction en
posant,
∀(t, x) ∈ [0, T ] × Rn , u(t, x) := Ytt,x .
Commençons par étudier la croissance et la continuité de cette fonction.
Sous l’hypothèse (Lip), la fonction u vérifie de plus, pour tout (t, x), (t0 , x0 ),
1/2
|u(t, x) − u(t0 , x0 )| ≤ C |x − x0 | + |t − t0 | (1 + |x|) .
Démonstration. La croissance de la fonction u a déjà été notée lors de la Remarque 5.1.2. Montrons
la continuité. C désigne une constante dépendant de K et T qui peut changer au cours du texte.
Soient (t, x) et (t0 , x0 ) deux points de [0, T ] × Rn . On a
0 0
h 0 0 i h 0 0 i
u(t0 , x0 ) − u(t, x) = Ytt0 ,x − Ytt,x = E Ytt0 ,x − Ytt,x = E Ytt0 ,x − Ytt,x + E Ytt,x − Ytt,x ;
0 0
C 1 + |x|2p .
≤
h 0 0 i 2 2
t0 ,x0
D’autre part, on a, E Ytt0 ,x − Ytt,x
0 ≤ E supr∈[0,T ] Yr − Yrt,x
, et les estimations à
priori fournissent
" #
0 0 2
Z T 2
0 0
XTt ,x XTt,x r, Xrt ,x , Yrt,x , Zrt,x r, Xrt,x , Yrt,x , Zrt,x
CE g −g + f −f dr
0
5.2. LA PROPRIÉTÉ DE MARKOV 53
comme majorant. Notons ∆(t, x, t0 , x0 ) cette quantité (sans la constante multiplicative). Nous ve-
nons de montrer que
2
|u(t0 , x0 ) − u(t, x)| ≤ C ∆(t, x, t0 , x0 ) + |t − t0 | 1 + |x|2p .
(5.4)
Pour conclure, nous devons établir l’équi-intégrabilité des carrés. Mais cela résulte simplement de
l’inégalité
2 2 2p 2 2
g XTtn ,xn + f r, Xrtn ,xn , Yrt,x , Zrt,x ≤ C 1 + sup Xrtn ,xn + sup Yrt,x + Zrt,x
0≤r≤T 0≤r≤T
puisque comme déjà dit sup0≤r≤T |Xrtn ,xn | converge dans tous les Lq .
À l’aide de cette fonction, nous pouvons établir la propriété de Markov pour les EDSR.
Théorème 5.5. Soient t ∈ [0, T ] et θ ∈ L2p (Ft ). On a :
X X X
Xrt,θ = 1Ai Xri , Yrt,θ = 1Ai Yri , Zrt,θ = 1Ai Zri .
i i i
et, en multipliant par 1Ai et faisant la somme sur i, on obtient – les indicatrices rentrent à l’intérieur
de l’intégrale stochastique puisque Ai ∈ Ft –
X Z rX Z rX
i i
1Ai Xr = θ + 1Ai b(u, Xu )du + 1Ai σ(u, Xui )dWu ;
i t i t i
P P
or on a i 1Ai H(Ti ) = H ( i 1Ai Ti ). Il s’en suit que
X Z r X Z r X
i i
1Ai Xr = θ + b u, 1Ai Xu du + σ u, 1Ai Xui dWu .
i t i t i
54 CHAPITRE 5. LE CADRE MARKOVIEN
et multipliant parP1Ai et faisantP la somme sur i, on montre, utilisant la relation déjà établie pour
i i
la diffusion que i 1 Ai Yr , i 1A i
Z r est solution sur [t, T ] de l’EDSR
Z T Z T
Yr0 = g XTt,θ + f u, Xut,θ , Yu0 , Zu0 du − Zu0 dWu
r r
dont Yrt,θ , Zrt,θ
est également solution par définition. L’unicité des solutions des EDSR donnent
X X
P–p.s., ∀t ≤ r ≤ T, Yrt,θ = 1Ai Yri , Zrt,θ = 1Ai Zri , P ⊗ m–p.p. sur Ω × [t, T ].
i i
Avant de traiter le cas général, examinons ce qui se passe sous l’hypothèse (Lip). Considérons
une suite de v.a. θn , Ft –étagées, qui converge vers θ dans L2 (Ft ). La Proposition 5.2 fournit
l’estimation
2
t,θn t,θ
≤ C E |θn − θ|2
E Yt − Yt
et, d’après la Proposition 5.4, u(t, ·) est Lipschitzienne ce qui implique que
h i
2
E |u(t, θn ) − u(t, θ)| ≤ C E |θn − θ|2 .
Or d’après l’étape précédente, pour tout entier n, u(t, θn ) = Ytt,θn ; on en déduit directement que
u(t, θ) = Ytt,θ , P–p.s.
Dans le cas général, considérons une suite de v.a. θn , Ft –étagées, qui converge vers θ dans
L2p (Ft ). La Proposition 5.2 entraîne toujours que
Yst,θ = u s, Xst,θ .
∀s ∈ [t, T ],
5.3. FORMULE DE FEYNMAN-KAC 55
Démonstration. Fixons (t, θ) ∈ [0, T ] × L2p (Ft ) et prenons s ∈ [t, T ]. On a d’après le théorème
précédent,
s,Xst,θ
P–p.s., Ys = u(s, Xst,θ ).
s,Xst,θ s,Xst,θ
n o
Or Yr , Zr est solution sur [s, T ] de l’EDSR
r
Z T Z T
s,X t,θ s,X t,θ
Yu = g XT s + f r, Xr s , Yr , Zr dr − Zr dWr , s ≤ u ≤ T.
u u
on obtient facilement
s,Xst,θ
P–p.s., ∀r ∈ [s, T ], Xr = Xrt,θ .
s,Xst,θ
P–p.s., = u(s, Xst,θ ). Yst,θ = Ys
Ceci est valable pour tout s ∈ [t, T ] ; comme les deux processus Yst,θ s
et u(s, Xst,θ ) s
sont
continus via la continuité de u, on obtient le résultat.
Remarque. On utilise souvent ce résultat avec θ constante égale à x. Cette propriété de Markov,
Yst,x = u(s, Xst,x ), joue un rôle important lorsque l’on tente de construire la solution d’une EDP à
l’aide d’une EDSR : nous le verrons plus loin.
1
trace σσ ∗ (t, x)D2 h(t, x) + b(t, x) · ∇h(t, x)
Lh(t, x) =
2
n n
1 X ∗
X
= σσ i,j (t, x) ∂xi ,xj h(t, x) + bi (t, x) ∂xi h(t, x).
2 i,j=1 i=1
En ce qui concerne les notations, si h est une fonction de t et x nous notons ∂t h ou h0 la dérivée
∗
partielle en temps, ∇h le gradient en espace (vecteur colonne) et Dh = (∇h) , D2 h la matrice des
dérivées secondes.
Nous supposerons également que le processus Y est réel c’est à dire que k = 1. Z est donc une
ligne de dimension d (celle du brownien). En résumé, f : [0, T ] × Rn × R × R1×d −→ R.
56 CHAPITRE 5. LE CADRE MARKOVIEN
L’objectif de ce paragraphe est d’établir des relations entre {Yrt,x , Zrt,x }0≤r≤T solution de
l’EDSR
Z T Z T
Yrt,x = g XTt,x + f u, Xut,x , Yut,x , Zut,x du − Zut,x dWu ,
0 ≤ r ≤ T, (5.5)
r r
∂t v(t, x) + Lv(t, x) + f (t, x, v(t, x), Dv(t, x)σ(t, x)) = 0, (t, x) ∈]0, T [×Rn ,
v(T, ·) = g. (5.7)
Proposition 5.7. Supposons que l’EDP (5.7) possède une solution v, de classe C 1,2 [0, T ] × Rn ,
telle que pour tout (t, x) ∈ [0, T ] × Rn , |∇v(t, x)| ≤ C (1 + |x|q ).
Alors, pour tout (t, x) ∈ [0, T ] × Rn , la solution de l’EDSR (5.5), {Yrt,x , Zrt,x }t≤r≤T , est donnée
par le couple de processus v r, Xrt,x , Dvσ r, Xrt,x t≤r≤T . En particulier, on obtient la formule,
u(t, x) = Ytt,x = v(t, x).
Démonstration. La condition de croissance sur le gradient de v assure que Dvσ r, Xrt,x r est un
processus de carré intégrable. De plus, comme v est régulière, on obtient en appliquant la formule
d’Itô,
1
dv s, Xst,x = v 0 s, Xst,x ds + ∇v s, Xst,x · dXst,x + trace σσ ∗ s, Xst,x D2 v s, Xst,x ds ;
2
soit encore, utilisant dXst,x pour s ≥ t, et la définition de L,
Le résultat précédent donne une formule de représentation probabiliste pour la solution d’une
EDP parabolique non-linéaire – on dit semi-linéaire car la non-linéarité n’est pas très forte –. Ce
type de formules, connues sous le nom de formule de Feynman-Kac – suite aux travaux de Richard
Feynman et Mark Kac – s’appliquent à l’origine à des problèmes linéaires. Nous l’obtenons comme
corollaire :
Corollaire 5.8. Prenons f (t, x, y, z) = c(t, x)y + h(t, x), où c et h sont deux fonctions continues
bornées. Sous les hypothèses précédentes, pour tout (t, x) ∈ [0, T ] × Rn ,
" Z T Z T Z r #
t,x t,x t,x t,x
v(t, x) = E g XT exp c(r, Xr ) dr + h(r, Xr ) exp c(s, Xs ) ds dr .
t t t
Démonstration. D’après la proposition précédente, nous savons que v(t, x) = Ytt,x . Mais lorsque la
fonction f prend la forme f (t, x, y, z) = c(t, x)y + h(t, x), l’EDSR que l’on doit résoudre est une
EDSR linéaire. On utilise alors la formule vue au cours du Chapitre 2 pour conclure.
5.3. FORMULE DE FEYNMAN-KAC 57
Remarque. Dans les deux derniers énoncés, nous avons supposé l’existence d’une solution classique
v et nous en avons déduit la solution de l’EDSR et la formule v(t, x) = Ytt,x . Si tous les coefficients
sont réguliers, on peut montrer que u qui est définie par u(t, x) = Ytt,x est une fonction régulière
qui est solution de l’EDP (5.7).
La démarche que nous avons eue précédemment consiste à étudier l’EDP, puis en déduire les
solutions de l’EDSR. Mais on peut également étudier l’EDSR et en déduire la construction de la
solution de l’EDP sans supposer les coefficients réguliers. Pour cela nous utiliserons la notion de
solutions de viscosité des EDP dont nous rappelons rapidement la définition. Je vous renvoie au
livre de Guy Barles [Bar94] pour plus de détails.
Définition 5.9. Soit u une fonction continue sur [0, T ] × Rn vérifiant la condition u(T, x) = g(x).
u est une sous-solution (resp.
sursolution) de viscosité de l’EDP (5.7) si, pour toute fonction ϕ,
de classe C 1,2 [0, T ] × Rn , on a, en tout point (t0 , x0 ) ∈]0, T [×Rn de maximum (resp. minimum)
local de u − ϕ :
Démonstration. Remarquons que la fonction u est continue et vérifie de plus u(T, ·) = g. Nous
montrons seulement que u est sous-solution (la démonstration de u sursolution est identique).
Soit donc ϕ une fonction de classe C 1,2 telle que u − ϕ possède en (t0 , x0 ) un maximum local
(0 < t0 < T ). Quitte à remplacer ϕ par ϕ − ϕ(t0 , x0 ) + u(t0 , x0 ) – opération qui n’affecte pas les
dérivées de ϕ, on peut supposer que ϕ(t0 , x0 ) = u(t0 , x0 ). Nous devons montrer que
u − ϕ possède un maximum local en (t0 , x0 ) qui est nul donc par continuité, il existe 0 < α ≤ T − t0
tel que, si t0 ≤ t ≤ t0 + α et |x − x0 | ≤ α,
Considérons le temps d’arrêt τ = inf {u ≥ t0 ; |Xut0 ,x0 − x0 | > α} ∧ t0 + α. Comme X t0 ,x0 est
un processus continu on a |Xτt0 ,x0 − x0 | ≤ α.
La formule d’Itô appliquée à ϕ(r, Xrt0 ,x0 ) donne
dϕ(r, Xrt0 ,x0 ) = ϕ0 (r, Xrt0 ,x0 ) + Lϕ(r, Xrt0 ,x0 ) dr + Dϕσ(r, Xrt0 ,x0 )dWr ,
t0 ,x0
notant, pour t0 ≤ u ≤ t0 + α, Yu0 = ϕ u ∧ τ, Xu∧τ et Zu0 = 1u≤τ Dϕσ r, Xrt0 ,x0 , l’égalité
t0 ,x0
De la même façon, si on pose, pour t0 ≤ u ≤ t0 + α, Yu = Yu∧τ et Zu = 1u≤τ Zut0 ,x0 , on a
Z t0 +α Z t0 +α
r, Xrt0 ,x0 , Yr , Zr
Yu = Yt0 +α + 1r≤τ f dr − Zr dWr , t0 ≤ u ≤ t0 + α.
u u
Or la propriété de Markov – Corollaire 5.6 et la remarque qui le suit – implique que, P–p.s.
pour tout t0 ≤ r ≤ t0 + α, Yrt0 ,x0 = u(r, Xrt0 ,x0 ) d’où l’on déduit que Yt0 +α = Yτt0 ,x0 = u(τ, Xτt0 ,x0 ).
L’égalité précédente devient alors
Z t0 +α Z t0 +α
Yu = u τ, Xτt0 ,x0 + 1r≤τ f r, Xrt0 ,x0 , u r, Xrt0 ,x0 , Zr dr −
Zr dWr , t0 ≤ u ≤ t0 + α.
u u
Nous allons appliquer le théorème de comparaison à (Yu0 ,Zu0 )u et (Yu , Zu )u qui sont solutions
t0 ,x0
d’EDSR. Par définition de τ , on a u τ, Xτ ≤ ϕ τ, Xτt0 ,x0 et
1r≤τ f r, Xrt0 ,x0 , u(r, Xrt0 ,x0 ), Zr0 = 1r≤τ f r, Xrt0 ,x0 , u(r, Xrt0 ,x0 ), Dϕσ(r, Xrt0 ,x0 )
Cette quantité est strictement positive : en effet, δ > 0 et τ > t0 car |Xtt00 ,x0 − x0 | = 0 < α. On
peut donc appliquer la version stricte du théorème de comparaison, voir la remarque à la suite
du Théorème 2.9, pour obtenir u(t0 , x0 ) = Yt0 < Yt00 = ϕ(t0 , x0 ). Ceci est impossible puisque
u(t0 , x0 ) = ϕ(t0 , x0 ). u est donc bien une sous-solution.
Références
[Bar94] G. Barles, Solutions de viscosité des équations de Hamilton-Jacobi, Math. Appl., vol. 17,
Springer-Verlag, Paris, 1994.
[BC00] Ph. Briand and R. Carmona, BSDEs with polynomial growth generators, J. Appl. Math.
Stochastic Anal. 13 (2000), no. 3, 207–238.
[BH98] Ph. Briand and Y. Hu, Stability of BSDEs with random terminal time and homogeni-
zation of semilinear elliptic PDEs, J. Funct. Anal. 155 (1998), no. 2, 455–494.
[Bis73] J.-M. Bismut, Conjugate convex functions in optimal stochastic control, J. Math. Anal.
Appl. 44 (1973), 384–404.
[BQR97] R. Buckdahn, M. Quincampoix, and A. Rascanu, Propriété de viabilité pour des équa-
tions différentielles stochastiques rétrogrades et applications à des équations aux dérivées
partielles, C. R. Acad. Sci. Paris Sér. I Math. 325 (1997), no. 11, 1159–1162.
[DP97] R. W. R. Darling and É. Pardoux, Backwards SDE with random terminal time and
applications to semilinear elliptic PDE, Ann. Probab. 25 (1997), no. 3, 1135–1159.
[EKPQ97] N. El Karoui, S. Peng, and M.-C. Quenez, Backward stochastic differential equations
in finance, Math. Finance 7 (1997), no. 1, 1–71.
[Fri75] A. Friedman, Stochastic differential equations and applications I, Probab. Math. Stat.,
vol. 28, Academic Press, New York, 1975.
[KS91] I. Karatzas and S. E. Shreve, Brownian motion and stochastic calculus, 2nd ed., Grad.
Texts in Math., vol. 113, Springer-Verlag, New York, 1991.
[Kun84] H. Kunita, Stochastic differential equations and stochastic flows of diffeomorphisms,
Ecole d’été de probabilités de Saint-Flour XII—1982 (P.-L. Hennequin, ed.), Lecture
Notes in Math., vol. 1097, Springer-Verlag, Berlin Heidelberg New York, 1984, pp. 143–
303.
[Kun90] , Stochastic flows and stochastic differential equations, Cambridge Stud. Adv.
Math., vol. 24, Cambridge University Press, Cambridge, 1990.
[LL97] D. Lamberton and B. Lapeyre, Introduction au calcul stochastique appliqué à la finance,
second ed., Ellipses Édition Marketing, Paris, 1997.
[Par99] É. Pardoux, BSDEs, weak convergence and homogenization of semilinear PDEs, Non-
linear analysis, differential equations and control (Montreal, QC, 1998), Kluwer Acad.
Publ., Dordrecht, 1999, pp. 503–549.
[Pen91] S. Peng, Probabilistic interpretation for systems of quasilinear parabolic partial diffe-
rential equations, Stochastics Stochastics Rep. 37 (1991), no. 1-2, 61–74.
[Pen92] , Stochastic Hamilton-Jacobi-Bellman equations, SIAM J. Control Optim. 30
(1992), no. 2, 284–304.
[PP90] É. Pardoux and S. Peng, Adapted solution of a backward stochastic differential equation,
Systems Control Lett. 14 (1990), no. 1, 55–61.
59
60 RÉFÉRENCES