Cours de Martingales et Calcul Stochastique
Cours de Martingales et Calcul Stochastique
Références
— Livres :
— Karatzas, Shreves : Brownian motion and stochastic Calculus
— Revuz, Yor : Continuous martingales and Brownian motion
— Borodin, Salminen : Handbook of Brownian motion
— Polys en ligne :
— Peter Tankov, Nizar Touzi : Stochastic Calculus in Finance, Ecole Polytechnique (à
trouver sur la page web de Nizar Touzi)
— Monique Jeanblanc : Cours de calcul stochastique (à trouver sur la page web de
Monique Jeanblanc)
N ⊂ F0
(donc, aussi, pour tout t ≥ 0, N ⊂ Ft ). Ceci implique que, si X et Y sont deux variables aléa-
toires F -mesurables vérifiant X = Y P-presque sûrement, (i.e. P[X = Y ] = 1), alors, si X est
Ft -mesurable, Y l’est aussi (ceci sera notamment utile lorsque nous prendrons des espérances
conditionnelles).
Définition. Un processus stochastique, indexé par IR+ est une famille de variables (Xt )t≥0
sur (Ω, F ) à valeurs dans un même espace IRd (ici principalement à valeurs dans IR). On dit
que le processus (Xt ) est adapté à (Ft ), si, pour tout t ≥ 0, Xt est Ft -mesurable.
On dit qu’un processus est croissant, à variation finie, continue, etc... si, pour P-presque tout
ω ∈ Ω t 7→ Xt (ω) est croissant, à variation finie, continue, etc...
Définition. Soit (Xt ) un processus stochastique sur (Ω, F ). Posons, pour tout t ≥ 0, FtX =
σ{Xs , s ≤ t} ∨ N . On appelle (FtX ) la filtration engendrée par (Xt ), ou filtration naturelle
de (Xt ).
1
Remarque. La filtration (FtX ) est la plus petite filtration qui contient les événements de pro-
babilité nulle et à laquelle est adaptée le processus (Xt ).
Définition. 1. On appelle lois fini-dimensionnelles d’un processus stochastique (Xt ) les
lois des vecteurs aléatoires (Xt1 , . . . , Xtn ), n ∈ IN ∗ , t1 , . . . , tn ≥ 0.
2. Deux processus stochastiques (Xt ) et (Yt ) sont dits égaux en loi si leurs lois fini-
dimensionnelles coïncident.
2 Espérance conditionnelle
2.1 Densité conditionnelle et espérance sachant une variable aléatoire
Définition. Soient X : Ω −→ IRd et Y : Ω −→ IRd deux variables aléatoires de densités respectives
fX et fY . On note f(X,Y ) la densité du vecteur aléatoire (X, Y ).
1. Pour tout y fixé, l’application
fX|Y =y : Ω −→ R
f(X,Y ) (x, y)
x 7−→ fX|Y =y (x) =
fY (y)
est une densité et s’appelle la densité conditionnelle de X sachant Y = y.
2. L’espérance associée à cette densité notée E (X|Y = y) est définie par
Z
E (X|Y = y) = xfX|Y =y (x)dx.
∀A ∈ B, E (X1A ) = E (Y 1A ) .
On note Y = E (X|B).
Proposition 2.2. Si X est une variable aléatoire intégrable et Y une variable aléatoire B-
mesurable où B est une sous-tribu de F , alors Y = E (X|B) si et seulement si pour toute
variable aléatoire Z, B-mesurable et bornée, on a E (XZ) = E (Y Z).
2
Propriété 2.3. 1. E(X|B) est une v.a. B-mesurable.
2. E E(X|B) = E(X).
En prenant W = 1Ω , on a W est une v.a. B-mesurable de carré intégrable. Donc
E 1Ω E(X|B) = E(X1Ω ).
D’où E E(X|B) = E(X)
3. Pour toute v.a. X B-mesurable, on a E(X|B) = X.
4. E(X|B) + E(Y |B) = E(X + Y |B).
Si Z est B-mesurable de carré intégrable
" # " # " #
E Z E X|B + E Y |B = E Z E X|B + E Z E Y |B
h i
= E(ZX) + E(ZY ) = E Z(X + Y )
E(ZX|B) = ZE(X|B).
3
3 Martingales en temps continu
Soit (Ω, F , P, (Ft )t≥0 ) un espace de probabilité muni d’une filtration.
— Si (Xt ) est une martingale et (At ) un processus croissant, adapté et intégrable, alors
X + A est une sousmartingale : E[Xt + At |Fs ] ≥ Xs + E[As |Fs ] = Xs + As .
Proposition 3.1. Soit (Xt )t≥0 un processus adapté et f : IR −→ IR+ une fonction convexe telle
que E [|f (Xt )|] < ∞, pour tout t ≥ 0.
1. Si (Xt )t≥0 est une martingale alors (f (Xt ))t≥0 est une sous-martingale.
2. Si (Xt )t≥0 est une sous-martingale et si f est croissante alors (f (Xt ))t≥0 est sous-
martingale.
4
Proposition 3.2. Soit (Mt )t≥0 une martingale de carré intégrable. Soit 0 ≤ s < t et soit s =
t0 < t1 < · · · < tp = t une subdivision de l’intervalle [s, t]. Alors,
" p #
2 h i h i
| Fs = E Mt2 − Ms2 | Fs = E (Mt − Ms )2 | Fs .
X
E Mti − Mti−1
i=1
En particulier,
" p #
2 h i h i
= E Mt2 − Ms2 = E (Mt − Ms )2 .
X
E Mti − Mti−1
i=1
Proposition 3.3.
• [Inégalité Maximale] Soit (Xt )t≥0 une sur-martingale à trajectoire continues. Alors pour
tout t > 0 et tout λ > 0, on a
!
λP sup |Xs | > λ ≤ E (|X0 |) + 2E (|Xt |) .
0≤s≤t
• [Inégalité de Doob dans Lp ] Soit (Xt )t≥0 une martingale à trajectoires continues. Alors
pour tout t > 0 et pour tout p > 1,
! p
p
p
E sup |Xs | ≤ E (|Xt |p ) .
0≤s≤t p−1
Démonstration. Pour une preuve de cette proposition, nous renvoyons le lecteur à la Proposition
3.15 de [1] (page 53).
Exercice 1
1. Soit (Xn )n∈N une martingale en temps discret et (tn ) une suite de temps strictement
croissante. Montrer que le processus (Xt )t≥0 défini par Xt = Xn si t ∈ [tn , tn+1 [ est une
martingale pour sa filtration naturelle.
2. Soit (Nt )t≥0 un processus de Poisson d’intensité λ. Montrer que les processus suivants
sont des martingales.
a) Xt = Nt − λt ;
b) Yt = (Nt − λt)2 − λt ;
c) Zt = exp θNt − λt eθ − 1 .
5
Rappel : On rappelle qu’une fonction f est à variation finie, si, pour tout T > 0, on a
N
X −1
sup |f (ti+1 ) − f (ti )| < ∞, où le supremum est pris sur toutes les subdivisions
i=0
0= t0 < t 1 < . . . < tN = T de [0, T ].
4 Le mouvement brownien
Le mouvement brownien doit son nom au biologiste anglais Robert Brown, qui, en 1827, décrit
le mouvement chaotique de graines de pollen sur une surface d’eau. On le retrouve en 1901
dans la thèse de doctorat de Louis Bachelier, dans la modélisation d’actifs financiers. Jugée peu
convaincants à l’époque, les travaux de Bachelier ont été oubliés rapidement, puis redécouverts
seulement à partir des années 1980, quand les mathématiques financières se sont définitive-
ment emparées du calcul stochastique. Entre temps, en 1905, Albert Einstein et Paul Langevin
étudient le mouvement brownien comme mouvement de particules. La définition rigoureuse ma-
thématique remonte à 1923 par Nobert Wiener.
Pour plus d’informations sur l’histoire du mouvement Brownien consulter https://perso.
univ-rennes1.fr/jean-christophe.breton/Fichiers/processus_M2.pdf (page 29).
On se place toujours sur un espace probabilisé (Ω, F , P), et (Ft )t≥0 est une filtration sur cet
espace.
normale.
Définition. Un mouvement brownien réel standard (abrégé m.b.) est un processus (Bt )t≥0
vérifiant
1. (Bt ) est un processus continu (i.e. P[t 7→ Bt continu] = 1),
2. B0 = 0, P-p.s.,
3. pour tout n ∈ IN ∗ et tous 0 ≤ t0 < t1 < . . . < tn , les variables Bt1 − Bt0 , Bt2 − Bt1 , . . . , Btn −
Btn−1 sont indépendantes,
4. pour tous t, h ≥ 0, les variables Bt+h − Bt et Bh ont même loi N (0, h).
Dans le cas où (Ω, F ) est muni d’une filtration (Ft ), on dit que le processus (Bt ) est (Ft )-
mouvement brownien s’il satisfait les conditions supplémentaires
5. (Bt ) est (Ft )-adapté,
6. pour tout t, h ≥ 0, Bt+h − Bt est indépendant de Ft .
Définition. — On appelle mouvement brownien issu de X, avec X variable aléatoire
réelle, le processus BtX = X + Bt , où (Bt ) est un mouvement brownien standard indépen-
dant de X.
— On dit qu’un processus (Bt1 , . . . , Btn ) à valeurs dans IRn est un mouvement brownien
multidimensionnel si (Bt1 ), . . . , (Btn ) sont tous des mouvement browniens indépendants.
Voici quelques propriétés qui découlent immédiatement de la définition :
6
x2
Propriétés 4.1. 1. Pour tout t > 0 Bt est une variable de densité √ 1 e− 2t , d’espérance
2πt
a2 t
E[Bt ] = 0, de variance Var(Bt ) = t et vérifie E[eaBt ] = e 2 pour tout a ∈ IR.
2. Pour tout n ∈ IN ∗ et 0 < t0 < . . . , < tn (Bt0 , . . . , Btn ) est un vecteur gaussien.
3. Pour tout 0 < s ≤ t, Cov(Bt , Bs ) = s.
4. Tout mouvement brownien (Bt ) est un (FtB )-mouvement brownien.
5. Pour tout T temps d’arrêt, BtT = BT +t − BT est un mouvement brownien.
Définition (Processus de Markov). • Un processus (Xt )t≥0 à valeurs dans un ensemble E est
appelé processus markovien de sauts (ou processus de Markov en temps continu) si pour
tout 0 < s < t, la loi conditionnelle de la variable Xt sachant {Xu , 0 ≤ u ≤ s} ne dépend que de
Xs , i.e. si pour tout n ∈ N, t0 ≤ t1 < · · · < tn = s), x0 , x1 , · · · , xn , x, y ∈ E
• On dira que le processus markovien (Xt )t≥0 est homogène si la quantité P [Xt = y|Xs = x]
ne dépend que de la différence t − s.
• La matrice P sur E × E définie par Pxy (t − s) := P [Xt = y|Xs = x] est appelée densité de
transition du processus (Xt )t≥0 .
t 7→ E[Xt ] et t, s 7→ Cov(Xs , Xt ).
Proposition 4.2. Un mouvement brownien est un processus gaussien continu tel que, pour tout
t ≥ 0 E[Bt ] = 0 et, pour tout s, t ≥ 0, Cov(Bs , Bt ) = min{s, t}.
7
Exercice 2
Montrer que la probabilité que Bt appartienne à un petit intervalle [x, x + dx] est donc donnée
par la densité gaussienne centrée de variance t
1
P (Bt ∈ [x, x + dx]) = √ exp −x2 /2t dx.
2πt
Proposition 4.5. Soit f : R → IR une fonction borélienne, bornée et posons, pour tout t ≥ 0 et
x ∈ IR, u(t, x) = E[f (Bt + x)]. La fonction u vérifie l’équation aux dérivées partielles suivante,
appelée équation de la chaleur
∂ 1 ∂2
∂t u(t, x) − 2 ∂x2 u(t, x) = 0, t > 0, x ∈ IR,
(1)
u(0, x) = f (x), x ∈ IR.
De plus, si f est deux fois dérivable, alors on a la formule
Z t
1
E[f (Bt + x)] = f (x) + E f 00 (Bs + x)ds .
2 0
8
Démonstration. Remarquons d’abord, que, par un calcul simple de dérivation, on aboutit à
l’équation différentielle
∂ 1 ∂2 1 ∂2
q(t, x, y) = q(t, x, y) = q(t, x, y). (2)
∂t 2 ∂x2 2 ∂y 2
∂ 1 ∂2 1 ∂2
Z
u(t, x) = f (y) q(t, x, y)dy = u(t, x).
∂t IR 2 ∂x2 2 ∂x2
La deuxième partie de la proposition découle par une intégration par partie.
Démonstration. A faire en TD
9
5 L’intégrale d’Itô
Dans ce chapitre, on considère un mouvement brownien (Bt ) sur un espace probabilisé (Ω, F , P)
muni d’une filtration (Ft ). On se fixe un horizon de temps fini T > 0.
Notation. On note L2T = L2 ([0, T ] × Ω) l’ensemble de tous les processus stochastiques (Ft )-
adaptés (Ht ), tels que E[ 0T Hs2 ds] < ∞. On munit L2T de la norme kHk22,T = E[ 0T Hs2 ds].
R R
Démonstration. Il est simple à voir que S ⊂ L2T . La démonstration de sa densité est admise,
mais peut être lue dans le livre de Karatzas & Shreve p.132.
Pour construire une intégrale stochastique par rapport au mouvement bownien, nous commen-
çons par intégrer ces processus simples :
Soit (Ht ) ∈ S. On pose
Z T N
X −1
Hs dBs := ξi (Bti+1 − Bti ),
0 i=1
10
Proposition 5.2.
Rt
1. H 7→ ( 0 Hs dBs )t∈[0,T ] est une application linéaire.
2. Pour tout H ∈ S, ( 0t Hs dBs )t∈[0,T ] vérifie les propriétés suivantes :
R
(c) ( 0t Hs dBs ) est une martingale : pour tout 0 ≤ s ≤ t, E[ 0t Hr dBr |Fs ] = 0s Hr dBr .
R R
Démonstration. 1. En exercice.
2. (a) Pour tout i, ξi (Bti+1 ∧t − Bti ∧t ) est Ft -adapté, donc la somme aussi.
(b) est clair.
(c) Remarquons d’abord que, pour tout 0 ≤ s < t ≤ T fixés et toute subdivision (tn ), quitte à
intercaler s et t on peut supposer que, pour certains 0 ≤ k ≤ l ≤ N , s = tk et t = tl . On a donc
Z t l−1
X
Hr dBr = ξi (Bti+1 − Bti )
0 i=0
et
Z t k−1
X l−1
X
E[ Hr dBr |Fs ] = E[ξi (Bti+1 − Bti )|Ftk ] + E[ξi (Bti+1 − Bti )|Ftk ].
0 i=0 i=k
Les variables intervenant dans la première somme sont toutes Ftk -mesurables. On a donc
k−1
X k−1
X Z s
E[ξi (Bti+1 − Bti )|Ftk ] = ξi (Bti+1 − Bti ) = Hr dBr .
i=0 i=0 0
D’où le résultat.
Rt
Proposition 5.3. (suite) Pour tout H ∈ S, ( Hs dBs )t∈[0,T ] vérifie les propriétés suivantes :
Z t Z t 0
(d) pour tout t ≥ 0, E[( Hs dBs )2 ] = E[ Hs2 ds],
0 Z t 0 Z t Z s
2
(e) pour tous 0 ≤ s ≤ t, E[( Hr dBr ) |Fs ] = E[ Hr2 dr|Fs ] + ( Hr dBr )2 . (a rendre)
s s 0
On en déduit que
Z T !2 N −1
X X
Hs dBs =2 ξi ξj (Bti+1 − Bti )(Btj+1 − Btj ) + ξi2 (Bti+1 − Bti )2 .
0 i<j i=0
11
Pour tout 0 ≤ i < j ≤ N − 1, on a
E[ξi (Bti+1 − Bti )ξj (Btj+1 − Btj )|Ftj ] = ξi (Bti+1 − Bti )ξj E[Btj+1 − Btj ] = 0.
donc E[(ξi (Bti+1 − Bti ))2 ] = E[ξi2 (ti+1 − ti )]. Revenons à la somme :
N
X −1 N
X −1 Z T
ξi2 (ti+1 − ti ) = Ht2i (ti+1 − ti ) = Hs2 ds.
i=0 i=0 0
Le résultat en découle.
(e) se montre en combinant la décomposition du (c) de la Proposition 5.2 et le calcul du (d).
Corollaire 5.4. Pour tout H ∈ S et tout t ∈ [0, T ], on peut calculer l’espérance et la variance
de la variable 0t Hs dBs :
R
hR i
t
E 0Hs dBs =
0,
hR i
t t 2 Rt
E Hs2 ds.
R
Var 0 Hs dBs =E 0 Hs ds = 0
Rt
Démonstration. Sachant que ( 0 Hs dBs ) est une martingale, on a
Z t Z t Z 0
E Hs dBs = E E Hs dBs |F0 =E Hs dBs .
0 0 0
Rt Rt Rt
Hs dBs )2 ] = E Hs2 ds.
On en déduit que var( 0 Hs dBs ) = E[( 0 0
"Z
t Z t 2 # Z t 2
E Hs(n) dBs − Hs(m) dBs =E Hs(n) − Hs(m) ds ,
0 0 0
(n)
on obtient que, pour tout t ∈ [0, T ], ( 0t Hs dBs )n est une suite de Cauchy dans L2 (Ω). L2 (Ω)
R
étant complet, elle admet une limite. De plus on peut montrer que cette limite ne dépend pas
(n)
de la suite approximante choisie : si limn→∞ H (n) = limn→∞ H̄ (n) , alors limn→∞ 0t Hs dBs =
R
R t (n) Rt
limn→∞ 0 H̄s dBs . C’est cette limite unique que l’on notera encore 0 Hs dBs . En résumé,
Z t Z t
Hs dBs := lim Hs(n) dBs , (3)
0 n→∞ 0
(n)
pour (Ht )n∈IN convergeant vers (Ht ) dans L2 ([0, T ] × Ω) et où la limite dans (3) est au sens
L2 (Ω).
Rt
Définition. On appelle 0 Hs dBs une intégrale stochastique de H par rapport à (Bt ).
12
Z t
Proposition 5.5. 1. L’application (Ht ) → ( Hs dBs ) est linéaire.
0
2. Pour tout H ∈ L2T , on a
Rt
(a) ( 0 Hs dBs ) est (Ft )-adapté et continue.
Z t
(b) ( Hr dBr ) est une (Ft )-martingale :
0 Z t Z s
pour tous 0 ≤ s ≤ t ≤ T , E[ Hr dBr |Fs ] = Hr dBr P-p.s..
0 0
Z t Z t
2
(c) pour tout t ∈ [0, T ], E[( Hs dBs ) ] = E[ Hs2 ds],
0 0
!
Z t 2 Z t
(d) Le processus Hs dBs − Hs2 ds est une martingale. (a rendre)
0 0
Démonstration. On montre que les propriétés établies dans la proposition 5.2 passent bien à la
limite.
Proposition 5.6. Pour tous processus (Ht ) et (Kt ) dans L2T , on a la formule
Z t Z t Z t
E Hs dBs Ks dBs = E Hs Ks ds .
0 0 0
Démonstration. On a
"Z
t 2 # Z t
E (Hr − Kr )dBr =E (Hr − Kr )2 dr .
0 0
Rt Rt Rt
Développons les deux côtés de cette égalité : sachant que 0 (Hr −Kr )dBr = 0 Hr dBr − 0 Kr dBr ,
on a
"Z
t 2 # Z t Z t Z t Z t
2 2
E (Hr − Kr )dBr =E ( Hs dBs ) +E ( Ks dBs ) − 2E Hs dBs Ks dBs .
0 0 0 0 0
De même,
Z t Z t Z t Z t
2
E (Hr − Kr ) dr = E Hr2 dr +E Kr2 dr − 2E Hr Kr dr .
0 0 0 0
13
6 Calcul d’Itô
6.1 Variation quadratique
Définition. Soit (Xt ) un processus stochastique. Pour tout t ≥ 0, posons
X
hX, Xit = sup (Xtk+1 − Xtk )2 ,
(tk )∈Σt k
où ΣT est l’ensemble de toutes les subdivisions finies 0 = t0 < . . . < tn = T de [0, T ]. Le processus
(hX, Xit ) (à valeurs éventuellement infinies) est appelé variation quadratique ou crochet de
(Xt ).
Le crochet hX, Xit peut aussi s’écrire de façon équivalente
X
hX, Xit = lim sup (Xtk+1 − Xtk )2 ,
sup |tk+1 −tk |→0 k
où t0 < . . . < tn = t et la limsup est prise sur toutes les subdivisions finies possibles.
Notons M2T l’ensemble de toutes les (Ft )-martingales continues sur [0, T ], de carré intgérables,
i.e. les martingales (Mt ) telles que, pour tout t ∈ [0, T ], E[Mt2 ] < ∞.
Proposition 6.1. 1. Si (Xt ) est un processus continu à variation finie, alors hX, Xit = 0.
2
2. Si (Xt ) ∈ MT , alors (hX, Xit ) est un processus à valeurs finies, adapté, continu, croissant.
où supk |Xtk − Xtk−1 | → 0 quand supk |tk − tk−1 | → 0 car (Xt ) est continu,
et k |Xtk − Xtk−1 | est borné, car (Xt ) est à variation finie.
P
2. admis.
Proposition 6.2. Pour tout M ∈ M2T , (Mt2 − hM, M it ) est une martingale.
Démonstration. Nous ne donnons ici qu’une idée de preuve : pour toute subdivision t0 = s <
. . . < tn = t, on peut écrire
n−1
X
Mt2 − Ms2 = (Mt2k+1 − Mt2k ),
k=0
et d’après la proposition 3.2, pour tout k,
E[Mt2k+1 − Mt2k |Fs ] = E[(Mtk+1 − Mtk )2 |Fs ],
donc
n−1
X
E[Mt2 − Ms2 |Fs ] = E[ (Mtk+1 − Mtk )2 |Fs ].
k=0
Ceci étant vrai pour toutes les subdivision de [s, t], on obtient également
E[Mt2 − Ms2 |Fs ] = E[hM, M it − hM, M is |Fs ].
On en déduit le résultat.
14
En corollaire, on retrouve un résultat montré en exercice :
Corollaire 6.3. Toute martingale M ∈ M2T à variation finie est constante.
Théorème 6.4. Pour tout (Mt ) ∈ M2T , le crochet (hM, M it ) est l’unique processus croissant,
nul en zéro, tel que (Mt2 − hM, M it ) soit une martingale.
Démonstration. Nous avons déjà vu que (hM, M it ) est croissant, que (Mt2 − hM, M it ) est une
martingale, et il est clair que hM, M i0 = 0. Montrons qu’il est le seul processus à vérifier ces
trois propriétés. Pour cela supposons qu’il y en ait un autre (At ).
Sachant (Mt2 − hM, M it ) et (Mt2 − At ) sont tous les deux des martingales, leur différence (At −
hM, M it ) en est une aussi. La différence de deux processus croissants étant à variation finie, celle-
ci est constante. Et comme, par hypothèse, A0 = hM, M i0 = 0, on obtient At = hM, M it .
Alors, pour tout Xt = 0t Hs ds, avec H ∈ L1T , (Xt ) est de variation quadratique nulle.
Démonstration. 1. découle de la proposition 4.3, où il a été montré que (Bt2 − t) est une martin-
gale.
2. Cela découle de la proposition 5.5 (d).
Z t Z t
3. La variation de ( Hs ds) vaut |Hs |ds. C’est donc un processus à variation finie. D’après
0 0
la Proposition 6.11., sa variation quadratique est donc nulle.
hX + Y, X + Y iT < ∞ et hX − Y, X − Y iT < ∞.
On pose alors
1
hX, Y it = (hX + Y, X + Y it − hX − Y, X − Y it ) .
4
Remarque. On vérifie bien que la formule coïncide avec celle de la variation quadratique lorsque
X =Y.
Proposition 6.6. 1. On a, pour tout t, si la limite existe,
X
hX, Y it = lim (Xtk+1 − Xtk )(Ytk+1 − Ytk ).
sup |tk+1 −tk |→0
k
2. On a toujours
1 1
| hX, Y it | ≤ hX, Xi 2 hY, Y i 2 .
15
3. Si N et M sont deux (Ft )-martingales continues, alors (Mt Nt − hM, N it ) est une (Ft )-
martingale.
Rt Rt
4. Pour H, H 0 ∈ L2T , posons Xt = 0 Hs dBs et Yt = 0 Hs0 dBs . Alors
Z t
hX, Y it = Hs Hs0 ds.
0
5. Soient (Xt ) et (Yt ) deux processus tels que hX, Xit < ∞ etR (Yt ) est à variation finie. Alors
hX, Y iT = 0. C’est le cas, en particulier, pour tout Xt = 0t Hs dBs , Yt = 0t Ks ds.
R
Démonstration. 1. De la formule
Or hY, Y it = 0.
Démonstration. ( a rendre)
16
Proposition 6.8. Tout processus d’Itô (Xt ) se décompose de façon unique en Xt = X +Mt +Vt ,
R 0
avec M martingale et V à variation finie, nuls en zéro : Mt = 0t Hs dBs et Vt = 0t Ks ds,
R
où unique veut dire que, si Xt = X00 + Mt0 + Vt0 , alors X00 = X0 et, pour tout t ≥ 0, P-presque
sûrement, Mt = Mt0 et Vt = Vt0 .
Démonstration. On sait déjà que (Mt ) est une martingale et (Vt ) à variation finie. Reste à
montrer l’unicité. Supposons donc qu’il existe deux décompositions :
Démonstration. Cela se démontre facilement avec le lemme et les formules que nous connaissons
déjà : en remarquant que Yt := Xt − X0 , on peut supposer que X0 = 0. Par bilinéarité et symétrie,
on a alors
R R R R R R
hX, Xit = h HdB, HdBit + h Kds, Kdsit + 2 h HdB, Kdsit
R R
= h HdB, HdBit + 0 + 0
Rt
= 0 Hs2 ds.
dXt = Kt dt + Ht dBt , X0 = x0 .
Définition. Soit X ∈ I et H ∈ L2T , K ∈ L1T vérifiant (5). Pour tout processus H 0 tel que (Ht0 Ht ) ∈
L2T et (Ht0 Kt ) ∈ L1T , on définit l’intégrale stochastique par rapport à X par
Z t Z t Z t
Hs0 dXs = Hs0 Hs dBs + Hs0 Ks ds.
0 0 0
Remarque. Le processus ( 0t Hs0RdXs ) est encore un processus d’Itô. Et si (Xt ) est une martingale
R
(resp. à variation finie), alors ( 0t Hs0 dXs ) est encore une martingale (resp. à variation finie).
17
6.3 La formule d’Itô
Dans ce qui suit, nous supposerons toujours que toutes les conditions sont satisfaites pour que
les intégrales (ordinaires ou stochastiques) soient bien définies. Dans un cadre plus général, on
peut établir les formules et résultats pour des processus duments arrêtés (Xt∧Tn ), avec (Tn ) % ∞
suite de temps d’arrêt, i.e. raisonner en termes de martingales locales.
Théorème 6.10. Soit (Xt ) un processus d’Itô et f une fonction C 2 de IR dans IR, Alors
Z t Z t
0 1
f (Xt ) = f (X0 ) + f (Xs )dXs + f 00 (Xs )d hX, Xis (6)
0 2 0
Idée de la preuve : pour tout t et toute subdivision (tn ) de [0, t], on peut écrire
X
f (Xt ) − f (X0 ) = f (Xtk+1 ) − f (Xtk )
k
et f (Xtk+1 ) − f (Xtk ) = f 0 (Xtk )(Xtk+1 − Xtk ) + 12 f 00 (Xtk )(Xtk+1 − Xtk )2 + o(Xtk+1 − Xtk )2 ,
puis on passe à la limite.
18
6.4 Exponentielle de Doléans-Dade, théorème de représentation des martin-
gales et caractérisation de Lévy
Lemme 6.13. Soit f une fonction C 2 de IR+ × IR vers IR ou C et qui vérifie
∂f 1 ∂ 2 f
+ = 0.
∂t 2 ∂x2
Soit (Xt ) ∈ I une martingale. Alors, sous les bonnes conditions d’intégrabilité, le processus
(f (hX, Xit , Xt )) est encore martingale vérifiant
Z t
∂f
f (hX, Xit , Xt ) = f (0, X0 ) + (hX, Xis , Xs ) dXs .
0 ∂x
On en déduit le résultat.
1
RT
Hs2 ds
Théorème 6.14. Soit Xt = 0t Hs dBs , où (Ht ) ∈ L2 vérifie la condition de Novikov : E[e 2
R
0 ]<
∞. Alors, pour tout λ ∈ C, le processus suivant est une martingale :
( ) ( Z )
λ2 t λ2
Z t
E λ (X)t := exp λXt − hX, Xit = exp λ Hs dBs − Hs2 ds .
2 0 2 0
λ2
Démonstration. Il suffit d’appliquer le lemme précédent à la fonction f (x, t) = eλx− 2
t
.
7 Théorème de Girsanov
On se donne toujours un espace probabilisé (Ω, F , P), muni d’une filtration (Ft ) et d’un (Ft )-
mouvement brownien (Bt ) et un horizon de temps fini T > 0. Pour simplifier, on supposera ici
que F = FT .
Définition. Soit Q une probabilité sur (Ω, F , P). On dit que Q est absolument continue par
rapport à P, noté Q P, si, pour tout A ∈ F , P[A] = 0 ⇒ Q[A] = 0.
Si Q P et P Q, on dit que P et Q sont équivalentes, noté Q ∼ P.
Nous admettrons le
19
Théorème 7.1. Q P si et seulement si il existe une variable Z telle que P[Z ≥ 0] = 1 et, pour
tout A ∈ F , Z
Q[A] = Z(ω)dP(ω),
A
ou, de façon équivalente, pour tout A ∈ F ,
EQ [X] = EP [XZ].
Démonstration. Posons Z 0 = dP
dQ . Alors, pour tout Y variable P-intégrable,
EP [Y ] = EQ [Y Z 0 ] = EP [Y ZZ 0 ].
Cette formule étant vraie pour tout Y , cela implique que P[ZZ 0 = 1] = 1. D’où le résultat.
Notation. Pour Z variable aléatoire telle que P[Z ≥ 0] = 1 et EP [Z] = 1, on note P(Z) la pro-
(Z)
babilité sur F telle que dPdP = Z.
Fixons maintenant (θt ), un processus adapté, vérifiant la condition de Novikov
1
RT
θs2 ds
EP [e 2 0 ] < +∞. (8)
Posons Z T Z T !
1
L = exp θs dBs − θs2 ds .
0 2 0
Démonstration. On sait déjà que (Lt ) est une martingale, avec Lt = EP [L|Ft ] et EP [Lt ] = 1 pour
tout t ∈ [0, T ].
Par définition, pour tout A ∈ Ft ,
= EP [1lA Lt ]
= P(Lt ) [A].
20
Lemme 7.4. Soit X une variable aléatoire intégrable. Alors, pour tout s ∈ [0, T ], son espérance
conditionnelle sachant Fs sous P(L) est donnée par
EP [LX|Fs ]
E(L) [X|Fs ] = .
Ls
Si, de plus pour t ∈ [s, T ], X est Ft -mesurable, on a
EP [Lt X|Fs ]
E(L) [X|Fs ] = .
Ls
Théorème 7.5 ( Théorème de Girsanov). Soit (θt ) un processus adapté, mesurable, vérifiant
la condition de Novikov (8).
Posons Z T Z T !
1
L = exp θs dBs − θs2 ds .
0 2 0
Z t
Alors le processus Wt = Bt − θs ds est un (Ft )-mouvement brownien sous P(L) ; où Bt est un
0
mouvement Brownien sous P.
Démonstration. Nous allons montrer ce résultat dans le cas particulier où θt = a ∈ IR est constant :
1 2
Wt = Bt −at et Lt = eaBt − 2 a t . Le cas général est admis.
Une façon de montrer qu’un processus est un mouvement brownien sous P(L) est de montrer
que, pour tout 0 ≤ s ≤ t et tout u ∈ IR,
u2
E(L) [eiu(Wt −Ws ) |Fs ] = e− 2
(t−s)
.
Pour cela, nous allons combiner les deux lemmes précédents et d’appliquer le résultat au mou-
vement brownien :
1 2
h i
E(L) [eiu(Wt −Ws ) |Fs ] =EP ea(Bt −Bs )− 2 a (t−s)
eiu(Bt −Bs )−aiu(t−s) |Fs
1
h i 2 +2aiu)(t−s)
=EP e(a+iu)(Bt −Bs ) e− 2 (a
(a+iu)2 1 2 +2aiu)(t−s)
=e 2
(t−s)
e− 2 (a
u2
=e− 2
(t−s)
.
21
8 Équations différentielles stochastiques
On se place comme toujours sur l’espace filtré (Ω, F , P, (Ft )), on se donne un (Ft )-mouvement
brownien (Bt ) et on fixe un horizon de temps fini T > 0.
Soient b : [0, T ] × IRd → IRd et σ : [0, T ] × IRd → IRd×n deux fonctions mesurables. Soit (Bt ) un
mouvement brownien dans IRn sur un espace de probabilité filtré (Ω, F , P, (Ft )). Soit X0 une
variable aléatoire F0 -mesurable.
Définition. — On appelle équation différentielle stochastique (EDS) une équation du
type Z t Z t
Xt = Z + b(s, Xs )ds + σ(s, Xs )dBs , t ∈ [0, T ], (9)
0 0
qu’on écrira sous forme infinitésimale
— On appelle solution (forte) de l’EDS (10) tout processus d’Itô (Xt ) vérifiant (9).
Exemple. Soient µ, σ ∈ IR. L’équation
v = 0.
Démonstration. du théorème 8.1. Pour simplifier l’écriture, nous montrons le résultat pour d =
n = 1, mais la démonstration est la même en dimension supérieure.
Unicité : soient X et X 0 deux solutions de (11). Posons βs = b(s, Xs ) − b(s, Xs0 ) et αs = σ(s, Xs ) −
22
σ(s, Xs0 ). Alors
2
t Rt
E[|Xt − Xt0 |2 ] = E
R
β
0 s ds + α
0 s dBs
2 2
R t R t
≤ 2E β
0 s ds + 2E α
0 s dB s
h R i hR i
t 2 t 2
≤ 2E t 0 βs ds h+ 2E 0 αs ds (inégalité de Schwartz)
i
2
R t 0 2
≤ 2(T + 1)D E 0 |Xs − Xs | ds (Lipschitz)
= 2(T + 1)D2 0t E[|Xs − Xs0 |2 ]ds (Fubini).
R
D’où l’unicité.
Existence : posons
(0)
Yt = Z, t ∈ [0, T ],
et, pour tout k ∈ IN ,
Z t Z t
(k+1)
Yt =Z+ b(s, Ys(k) )ds + σ(s, Ys(k) )dBs , t ∈ [0, T ].
0 0
Le même calcul que ci-dessus montre que, pour tout k ≥ 1 et tout t ∈ [0, T ],
Z t
(k+1) (k) 2
E[|Yt − Yt | ] ≤ 2(1 + T )D2 E[|Ys(k) − Ysk−1) |2 ]ds.
0
Puis
"Z
t 2 # "Z
t 2 #
(1) (0)
E[|Yt − Yt |] =2E b(s, Z)ds + 2E σ(s, Z)dBs
0 0
Z t Z t
≤2tE[ b2 (s, Z)ds] + 2E[ σ(s, Z)2 ds]
0 0
Z t
≤2(T + 1)E[ (1 + C)2 Z 2 ds]
0
=2(T + 1)(1 + C)2 T E[Z 2 ] := A.
23
Cela donne, pour tous n, m ∈ IN ,
Z T Z T m−1
(m) X (k+1) (k) 2
E[|Yt − Y (n) |2 dt = E[| (Yt − Yt )| ]
0 0 k=n
m−1
XZ T
(k+1) (k) 2
≤ E[|Yt − Yt | ]dt
k=n 0
m−1
XZ T tk+1
≤ Ak+1 dt
k=n 0
(k + 1)!
m−1
X
k+1 T k+2
= A .
k=n
(k + 2)!
(k)
Ce dernier terme tend vers 0 lorsque n, m → ∞. La suite de processus stochastiques (Yt ) est
donc une suite de Cauchy dans L2 (λ × P). Il existe donc un processus (Xt ) tel que Y (n) → X
dans L2 (λ × P).
Il reste à vérifier que
"Z
t Z t 2 #
E b(s, Ys(n) )ds − b(s, Xs )ds →n→∞ 0
0 0
et "Z 2 #
t Z t
E σ(s, Ys(n) )dBs − σ(s, Xs )dBs →n→∞ 0
0 0
Références
[1] Le Gall, J. F. (2016). Brownian motion, martingales, and stochastic calculus. springer publi-
cation.
24