0% ont trouvé ce document utile (0 vote)
106 vues24 pages

Cours de Martingales et Calcul Stochastique

Le document présente un cours sur les martingales dans le cadre du Master 1 à l'Université de Bretagne Occidentale pour l'année 2023-2024. Il couvre des concepts fondamentaux tels que les filtrations, les processus stochastiques, l'espérance conditionnelle, et les martingales, avec des définitions, propriétés et exemples. Des références bibliographiques et des exercices pratiques sont également inclus pour approfondir la compréhension des sujets abordés.

Transféré par

hdqpftygdt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
106 vues24 pages

Cours de Martingales et Calcul Stochastique

Le document présente un cours sur les martingales dans le cadre du Master 1 à l'Université de Bretagne Occidentale pour l'année 2023-2024. Il couvre des concepts fondamentaux tels que les filtrations, les processus stochastiques, l'espérance conditionnelle, et les martingales, avec des définitions, propriétés et exemples. Des références bibliographiques et des exercices pratiques sont également inclus pour approfondir la compréhension des sujets abordés.

Transféré par

hdqpftygdt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UNIVERSITE DE BRETAGNE OCCIDENTALE Année 2023 - 2024

UFR des Sciences et Techniques Martingales


EURIA - Master 1
Cours

Références
— Livres :
— Karatzas, Shreves : Brownian motion and stochastic Calculus
— Revuz, Yor : Continuous martingales and Brownian motion
— Borodin, Salminen : Handbook of Brownian motion
— Polys en ligne :
— Peter Tankov, Nizar Touzi : Stochastic Calculus in Finance, Ecole Polytechnique (à
trouver sur la page web de Nizar Touzi)
— Monique Jeanblanc : Cours de calcul stochastique (à trouver sur la page web de
Monique Jeanblanc)

1 Rappels, préliminaires : Filtrations et processus stochastiques


Soit (Ω, F , P) un espace probabilisé, i.e.
— Ω est un espace fondamental,
— F une tribu sur Ω,
— P une mesure de probabilité sur (Ω, F ).
Soit N := {A ⊂ Ω, ∃B ∈ F , A ⊂ B, P[B] = 0}. On suppose que N ∈ F (et on dira que l’espace
de probabilité est complet).
Soit (Ft )t≥0 une filtration sur (Ω, F ) : c’est une famille de tribus vérifiant
— pour tout t ≥ 0, Ft ⊂ F ,
— pour tous 0 ≤ s ≤ t, Fs ⊂ Ft .
On supposera toujours dans la suite que

N ⊂ F0

(donc, aussi, pour tout t ≥ 0, N ⊂ Ft ). Ceci implique que, si X et Y sont deux variables aléa-
toires F -mesurables vérifiant X = Y P-presque sûrement, (i.e. P[X = Y ] = 1), alors, si X est
Ft -mesurable, Y l’est aussi (ceci sera notamment utile lorsque nous prendrons des espérances
conditionnelles).

Définition. Un processus stochastique, indexé par IR+ est une famille de variables (Xt )t≥0
sur (Ω, F ) à valeurs dans un même espace IRd (ici principalement à valeurs dans IR). On dit
que le processus (Xt ) est adapté à (Ft ), si, pour tout t ≥ 0, Xt est Ft -mesurable.
On dit qu’un processus est croissant, à variation finie, continue, etc... si, pour P-presque tout
ω ∈ Ω t 7→ Xt (ω) est croissant, à variation finie, continue, etc...
Définition. Soit (Xt ) un processus stochastique sur (Ω, F ). Posons, pour tout t ≥ 0, FtX =
σ{Xs , s ≤ t} ∨ N . On appelle (FtX ) la filtration engendrée par (Xt ), ou filtration naturelle
de (Xt ).

1
Remarque. La filtration (FtX ) est la plus petite filtration qui contient les événements de pro-
babilité nulle et à laquelle est adaptée le processus (Xt ).
Définition. 1. On appelle lois fini-dimensionnelles d’un processus stochastique (Xt ) les
lois des vecteurs aléatoires (Xt1 , . . . , Xtn ), n ∈ IN ∗ , t1 , . . . , tn ≥ 0.
2. Deux processus stochastiques (Xt ) et (Yt ) sont dits égaux en loi si leurs lois fini-
dimensionnelles coïncident.

2 Espérance conditionnelle
2.1 Densité conditionnelle et espérance sachant une variable aléatoire
Définition. Soient X : Ω −→ IRd et Y : Ω −→ IRd deux variables aléatoires de densités respectives
fX et fY . On note f(X,Y ) la densité du vecteur aléatoire (X, Y ).
1. Pour tout y fixé, l’application

fX|Y =y : Ω −→ R
f(X,Y ) (x, y)
x 7−→ fX|Y =y (x) =
fY (y)
est une densité et s’appelle la densité conditionnelle de X sachant Y = y.
2. L’espérance associée à cette densité notée E (X|Y = y) est définie par
Z
E (X|Y = y) = xfX|Y =y (x)dx.

3. Soit h : y −→ E (X|Y = y). La quantité h(Y ) = E (X|Y ) s’appelle l’espérance condition-


nelle de X sachant Y .
Propriété 2.1. Soient X, Y et Z trois variables aléatoires. On a :
 
1. E E (X|Y ) = E (X).
2. Si X est σ(Y )-mesurable alors E (X|Y ) = X.
3. E (X|Y ) + E (Z|Y ) = E (X + Z|Y ) .
4. Si Z est σ(Y )-mesurable alors E (XZ|Y ) = ZE (X|Y ).

5. Pour toute v.a. U σ(Y )-mesurable et bornée, on a E U E (X|Y ) = E (U X).
6. E (X|Y ) est une variable aléatoire σ(Y )-mesurable .

2.2 Espérance conditionnelle sachant une tribu


Définition. Soient (Ω, F , P) un espace probabilisé et X une variable aléatoire réelle F -mesurable,
P-intégrable et B une sous tribu de F . L’espérance conditionnelle de X sachant B est l’unique
variable aléatoire réelle intégrable Y et B-mesurable telle

∀A ∈ B, E (X1A ) = E (Y 1A ) .

On note Y = E (X|B).
Proposition 2.2. Si X est une variable aléatoire intégrable et Y une variable aléatoire B-
mesurable où B est une sous-tribu de F , alors Y = E (X|B) si et seulement si pour toute
variable aléatoire Z, B-mesurable et bornée, on a E (XZ) = E (Y Z).

2
Propriété 2.3. 1. E(X|B) est une v.a. B-mesurable.
 
2. E E(X|B) = E(X).
En prenant W = 1Ω , on a W est une v.a. B-mesurable de carré intégrable. Donc
 
E 1Ω E(X|B) = E(X1Ω ).
 
D’où E E(X|B) = E(X)
3. Pour toute v.a. X B-mesurable, on a E(X|B) = X.
4. E(X|B) + E(Y |B) = E(X + Y |B).
Si Z est B-mesurable de carré intégrable
" # " # " #
      
E Z E X|B + E Y |B = E Z E X|B + E Z E Y |B
h i
= E(ZX) + E(ZY ) = E Z(X + Y )

5. Si Z est B-mesurable de carré intégrable, alors

E(ZX|B) = ZE(X|B).

ZE(X|B) est B-mesurable. Soit W une v.a. B-mesurable de carré intégrable.


   
E W ZE(X|B) = E W ZX

car W Z est B-mesurable.


 
6. ∀α ∈ IR, E αX|B = αE X|B .
7. Si B1 et B2 sont deux sous tribus de F telles que B1 ⊂ B2 , alors
h i
E(X|B1 ) = E E(X|B1 )|B2
h i
= E E(X|B2 )|B1 .

3
3 Martingales en temps continu
Soit (Ω, F , P, (Ft )t≥0 ) un espace de probabilité muni d’une filtration.

3.1 Définition et premières propriétés


Définition. On dit qu’un processus stochastique (Xt ) est une martingale par rapport à la
filtration (Ft ) si
i) (Xt ) est (Ft )-adapté,
ii) pour tout t ≥ 0, E (|Xt |) < ∞ (i.e. la variable Xt est intégrable),
iii) pour tous 0 ≤ s ≤ t, E (Xt |Fs ) = Xs .
On dit que (Xt ) est une martingale, si c’est une martingale pour sa filtration propre.
Définition. Un processus stochastique (Xt ) est une sur-martingale (resp. sous-martingale
par rapport à la filtration (Ft ), si
i) (Xt ) est (Ft )-adapté,
ii) pour tout t ≥ 0, Xt est intégrable,
iii) pour tous 0 ≤ s ≤ t, E (Xt |Fs ) ≤ Xs (resp. E (Xt |Fs ) ≥ Xs ).
Remarques. 1. Si (Xt ) est une (Ft )-martignale, c’est une ((FtX )-)martingale.
2. Très souvent la tribu initiale sur IR+ est triviale F0 = {Ω, ∅}.
3. Si (Xt ) est une martingale, alors, pour tout t ≥ 0, E[Xt ] = E[X0 ]. Si X0 est déterministe
(en particulier si F0 est triviale), on a donc E[Xt ] = X0 .
4. Si (Xt )t∈[0,T ] est une martingale sur un intervalle de temps bornée [0, T ], alors elle est
entièrement déterminée par sa valeur terminale XT , dans le sens où, pour tout t ∈ [0, T ],
Xt = E[XT |Ft ].
5. Inversement, si Y est une variable intégrable FT -mesurable, alors Xt := E[Y |Ft ] est une
martingale.
Définition. Un processus (Nt )t≥0 est appelé processus de Poisson d’intensité λ > 0 s’il
vérifie les conditions suivantes :
1. pour tout s ≥ 0, t ≥ 0, Nt+s − Ns est indépendant de σ(Nu , u ≤ s) ;
2. pour tout s ≥ 0, t ≥ 0, Nt+s − Ns a la même loi que Nt ;
3. pour tout t ≥ 0, Nt suit la loi de Poisson de paramètre λt.
Exemples (de sur- et sous-martingales).
— Si (Xt ) est une martingale de carré intégrable (i.e. E[Xt2 ] < ∞ pour tout t ≥ 0), alors
(Xt2 ) est une sousmartingale :
 2
E[Xt2 |Fs ] ≥ E[Xt |Fs ] = Xs2 .

— Si (Xt ) est une martingale et (At ) un processus croissant, adapté et intégrable, alors
X + A est une sousmartingale : E[Xt + At |Fs ] ≥ Xs + E[As |Fs ] = Xs + As .
Proposition 3.1. Soit (Xt )t≥0 un processus adapté et f : IR −→ IR+ une fonction convexe telle
que E [|f (Xt )|] < ∞, pour tout t ≥ 0.
1. Si (Xt )t≥0 est une martingale alors (f (Xt ))t≥0 est une sous-martingale.
2. Si (Xt )t≥0 est une sous-martingale et si f est croissante alors (f (Xt ))t≥0 est sous-
martingale.

4
Proposition 3.2. Soit (Mt )t≥0 une martingale de carré intégrable. Soit 0 ≤ s < t et soit s =
t0 < t1 < · · · < tp = t une subdivision de l’intervalle [s, t]. Alors,
" p #
2 h i h i
| Fs = E Mt2 − Ms2 | Fs = E (Mt − Ms )2 | Fs .
X
E Mti − Mti−1
i=1

En particulier,
" p #
2 h i h i
= E Mt2 − Ms2 = E (Mt − Ms )2 .
X
E Mti − Mti−1
i=1

Démonstration. Pour tout i ∈ {1, . . . , p}, on a


h 2 i h h 2 i i
E Mti − Mti−1 | Fs = E E Mti − Mti−1 | Fti−1 | Fs
h h i i
= E E Mt2i | Fti−1 − 2Mti−1 E Mti | Fti−1 + Mt2i−1 | Fs
 
h h i i
= E E Mt2i | Fti−1 − Mt2i−1 | Fs
h i
= E Mt2i − Mt2i−1 | FS .

Par suite, en sommant sur i on obtient le résultat désiré.

Proposition 3.3.
• [Inégalité Maximale] Soit (Xt )t≥0 une sur-martingale à trajectoire continues. Alors pour
tout t > 0 et tout λ > 0, on a
!
λP sup |Xs | > λ ≤ E (|X0 |) + 2E (|Xt |) .
0≤s≤t

• [Inégalité de Doob dans Lp ] Soit (Xt )t≥0 une martingale à trajectoires continues. Alors
pour tout t > 0 et pour tout p > 1,
! p
p

p
E sup |Xs | ≤ E (|Xt |p ) .
0≤s≤t p−1

Démonstration. Pour une preuve de cette proposition, nous renvoyons le lecteur à la Proposition
3.15 de [1] (page 53).

Exercice 1

1. Soit (Xn )n∈N une martingale en temps discret et (tn ) une suite de temps strictement
croissante. Montrer que le processus (Xt )t≥0 défini par Xt = Xn si t ∈ [tn , tn+1 [ est une
martingale pour sa filtration naturelle.
2. Soit (Nt )t≥0 un processus de Poisson d’intensité λ. Montrer que les processus suivants
sont des martingales.
a) Xt = Nt − λt ;
b) Yt = (Nt − λt)2 − λt ;
  
c) Zt = exp θNt − λt eθ − 1 .

5
Rappel : On rappelle qu’une fonction f est à variation finie, si, pour tout T > 0, on a
N
X −1
sup |f (ti+1 ) − f (ti )| < ∞, où le supremum est pris sur toutes les subdivisions
i=0
0= t0 < t 1 < . . . < tN = T de [0, T ].

4 Le mouvement brownien
Le mouvement brownien doit son nom au biologiste anglais Robert Brown, qui, en 1827, décrit
le mouvement chaotique de graines de pollen sur une surface d’eau. On le retrouve en 1901
dans la thèse de doctorat de Louis Bachelier, dans la modélisation d’actifs financiers. Jugée peu
convaincants à l’époque, les travaux de Bachelier ont été oubliés rapidement, puis redécouverts
seulement à partir des années 1980, quand les mathématiques financières se sont définitive-
ment emparées du calcul stochastique. Entre temps, en 1905, Albert Einstein et Paul Langevin
étudient le mouvement brownien comme mouvement de particules. La définition rigoureuse ma-
thématique remonte à 1923 par Nobert Wiener.
Pour plus d’informations sur l’histoire du mouvement Brownien consulter https://perso.
univ-rennes1.fr/jean-christophe.breton/Fichiers/processus_M2.pdf (page 29).
On se place toujours sur un espace probabilisé (Ω, F , P), et (Ft )t≥0 est une filtration sur cet
espace.

4.1 Définition et premières propriétés


Définition (Processus gaussien). Un processus (Xt )t≥0 est dit gaussien si pour n ∈ N∗ , pour
tout (t1 , t2 · · · , tn ) ∈ (IR+ )n et pour tout (a1 , a2 · · · , an ) ∈ IRn , la variable nk=1 ak Xtk suit une loi
P

normale.
Définition. Un mouvement brownien réel standard (abrégé m.b.) est un processus (Bt )t≥0
vérifiant
1. (Bt ) est un processus continu (i.e. P[t 7→ Bt continu] = 1),
2. B0 = 0, P-p.s.,
3. pour tout n ∈ IN ∗ et tous 0 ≤ t0 < t1 < . . . < tn , les variables Bt1 − Bt0 , Bt2 − Bt1 , . . . , Btn −
Btn−1 sont indépendantes,
4. pour tous t, h ≥ 0, les variables Bt+h − Bt et Bh ont même loi N (0, h).
Dans le cas où (Ω, F ) est muni d’une filtration (Ft ), on dit que le processus (Bt ) est (Ft )-
mouvement brownien s’il satisfait les conditions supplémentaires
5. (Bt ) est (Ft )-adapté,
6. pour tout t, h ≥ 0, Bt+h − Bt est indépendant de Ft .
Définition. — On appelle mouvement brownien issu de X, avec X variable aléatoire
réelle, le processus BtX = X + Bt , où (Bt ) est un mouvement brownien standard indépen-
dant de X.
— On dit qu’un processus (Bt1 , . . . , Btn ) à valeurs dans IRn est un mouvement brownien
multidimensionnel si (Bt1 ), . . . , (Btn ) sont tous des mouvement browniens indépendants.
Voici quelques propriétés qui découlent immédiatement de la définition :

6
x2
Propriétés 4.1. 1. Pour tout t > 0 Bt est une variable de densité √ 1 e− 2t , d’espérance
2πt
a2 t
E[Bt ] = 0, de variance Var(Bt ) = t et vérifie E[eaBt ] = e 2 pour tout a ∈ IR.
2. Pour tout n ∈ IN ∗ et 0 < t0 < . . . , < tn (Bt0 , . . . , Btn ) est un vecteur gaussien.
3. Pour tout 0 < s ≤ t, Cov(Bt , Bs ) = s.
4. Tout mouvement brownien (Bt ) est un (FtB )-mouvement brownien.
5. Pour tout T temps d’arrêt, BtT = BT +t − BT est un mouvement brownien.

Démonstration. 1. découle du point 4. de la définition, avec t = 0.


2. Le vecteur aléatoire V := (Bt0 , Bt1 − Bt0 , . . . , Btn − Btn−1 ) est un n-uplet de variables gaus-
siennes indépendantes, donc un vecteur gaussien. Il en résulte que (Bt0 , . . . , Btn ), trans-
formation linéaire de V l’est aussi.
3. Cov(Bs , Bt ) = E[Bs (Bt − Bs )] + E[Bs2 ] = 0 + s.
4. Par définition de (FtB ), Bt est FtB -mesurable. De plus, pour tout 0 ≤ t0 < . . . tn < t
et h >, Bt+h − Bt est indépendant de Bt0 , Bt1 − Bt0 , . . . , Btn − Btn−1 et donc aussi de
Bt0 , Bt1 , . . . , Btn , donc de FtB .
5. Pour T déterministe, cela découle de la définition. Pour T temps d’arrêt, le résultat est
accepté.

Définition (Processus de Markov). • Un processus (Xt )t≥0 à valeurs dans un ensemble E est
appelé processus markovien de sauts (ou processus de Markov en temps continu) si pour
tout 0 < s < t, la loi conditionnelle de la variable Xt sachant {Xu , 0 ≤ u ≤ s} ne dépend que de
Xs , i.e. si pour tout n ∈ N, t0 ≤ t1 < · · · < tn = s), x0 , x1 , · · · , xn , x, y ∈ E

P [Xt = y|Xt0 = x0 , Xt1 = x1 , · · · , Xtn = xn , Xs = x] = P [Xt = y|Xs = x] .

• On dira que le processus markovien (Xt )t≥0 est homogène si la quantité P [Xt = y|Xs = x]
ne dépend que de la différence t − s.
• La matrice P sur E × E définie par Pxy (t − s) := P [Xt = y|Xs = x] est appelée densité de
transition du processus (Xt )t≥0 .

4.2 Le mouvement brownien en tant que processus gaussien


Les propriétés précédentes appellent à définir le mouvement brownien comme processus gaussien.
Définition. Un processus stochastique (Xt ) est un processus gaussien si, pour tout n ∈ IN ∗
et tout 0 ≤ t1 , . . . , tn , le n-uplet (Xt1 , . . . , Xtn ) est un vecteur gaussien. La loi d’un processus
gaussien est entièrement caractérisée par la donnée des deux fonctions

t 7→ E[Xt ] et t, s 7→ Cov(Xs , Xt ).

Proposition 4.2. Un mouvement brownien est un processus gaussien continu tel que, pour tout
t ≥ 0 E[Bt ] = 0 et, pour tout s, t ≥ 0, Cov(Bs , Bt ) = min{s, t}.

7
Exercice 2

Montrer que la probabilité que Bt appartienne à un petit intervalle [x, x + dx] est donc donnée
par la densité gaussienne centrée de variance t
1  
P (Bt ∈ [x, x + dx]) = √ exp −x2 /2t dx.
2πt

4.3 Le mouvement brownien comme martingale


Proposition 4.3. Soit (Bt ) un (Ft )-mouvement brownien. Alors sont des (Ft )-martingales les
processus suivants :
1. (Bt ),
2. (Bt2 − t),
1 2
3. (eσBt − 2 σ t ), pour tout σ ∈ IR.

Démonstration. On montre facilement les conditions de mesurabilité et d’intégrabilité. Reste


donc à montrer iii) dans chacun des trois cas. Fixons donc 0 ≤ s ≤ t. On a
1. E[Bt − Bs |Fs ] = E[Bt − Bs ] = 0. Donc E[Bt |Fs ] = Bs .
2. Bt2 = (Bs + Bt − Bs )2 = Bs2 + 2Bs (Bt − Bs ) + (Bt − Bs )2 . Donc
E[Bt2 − t|Fs ] = Bs2 + 0 + t − s − t.
1 2 1 2 (t−s) 1 2 1 2
3. E[eσBt − 2 σ t ] = E[eσ(Bt −Bs )− 2 σ eσBs − 2 σ s |Fs ] = eσBs − 2 σ s .

4.4 Le mouvement brownien comme processus de Markov et l’équation de


la chaleur
Pour t > 0 etx, y ∈ IR, posons
1 − (y−x)2
q(t, x, y) = √ e 2t .
2πt

Proposition 4.4. Un mouvement brownien est un processus de Markov continu, homogène, de


densité de transition q(t, x, y) : pour tous 0 ≤ s ≤ t et x, y ∈ IR,
P[Bt ∈ [y, y + dy]|Bs = x] = q(t − s, x, y)dy.

Proposition 4.5. Soit f : R → IR une fonction borélienne, bornée et posons, pour tout t ≥ 0 et
x ∈ IR, u(t, x) = E[f (Bt + x)]. La fonction u vérifie l’équation aux dérivées partielles suivante,
appelée équation de la chaleur

∂ 1 ∂2
 ∂t u(t, x) − 2 ∂x2 u(t, x) = 0, t > 0, x ∈ IR,

(1)


u(0, x) = f (x), x ∈ IR.
De plus, si f est deux fois dérivable, alors on a la formule
Z t
1

E[f (Bt + x)] = f (x) + E f 00 (Bs + x)ds .
2 0

8
Démonstration. Remarquons d’abord, que, par un calcul simple de dérivation, on aboutit à
l’équation différentielle

∂ 1 ∂2 1 ∂2
q(t, x, y) = q(t, x, y) = q(t, x, y). (2)
∂t 2 ∂x2 2 ∂y 2

Écrivons maintenant u(t, x) en fonction du noyau q :


Z
u(t, x) = f (y)q(t, x, y)dy.
IR

On obtient bien, en dérivant et en utilisant (2),

∂ 1 ∂2 1 ∂2
Z
u(t, x) = f (y) q(t, x, y)dy = u(t, x).
∂t IR 2 ∂x2 2 ∂x2
La deuxième partie de la proposition découle par une intégration par partie.

Proposition 4.6 (Principe de réflexion du mouvement Brownien). Pour tout t > 0,


" #
P sup Bs ≥ a = 2P (Bt ≥ a) = P (|Bt | ≥ a) .
0≤s≤t

Démonstration. A faire en TD

9
5 L’intégrale d’Itô
Dans ce chapitre, on considère un mouvement brownien (Bt ) sur un espace probabilisé (Ω, F , P)
muni d’une filtration (Ft ). On se fixe un horizon de temps fini T > 0.

Notation. On note L2T = L2 ([0, T ] × Ω) l’ensemble de tous les processus stochastiques (Ft )-
adaptés (Ht ), tels que E[ 0T Hs2 ds] < ∞. On munit L2T de la norme kHk22,T = E[ 0T Hs2 ds].
R R

Définition. Un processus (Ht ) ∈ L2T est dit simple, s’il s’écrit


(
H0 = ξ0 ,
P −1
Ht = N n=0 ξn 1l]tn ,tn+1 ] (t), t ∈]0, T ],

où N ∈ IN ∗ , 0 = t0 < . . . < tN = T et ξ0 , . . . , ξN −1 une suite de variables aléatoires telles que, pour


tout n, ξn est Ftn -mesurable et E[ξn2 ] < ∞.
On note S l’ensemble des processus simples.
Proposition 5.1. L’ensemble S des processus simples est dense dans l’ensemble L2T , i.e., pour
(n)
tout (Ht ) ∈ L2T , il existe une suite de processus (Ht )n∈IN dans S telle que
"Z #
T
(n)
kH − Hk22,T := E (Hs(n) − Hs )2 ds →n→∞ 0.
0

Démonstration. Il est simple à voir que S ⊂ L2T . La démonstration de sa densité est admise,
mais peut être lue dans le livre de Karatzas & Shreve p.132.

Pour construire une intégrale stochastique par rapport au mouvement bownien, nous commen-
çons par intégrer ces processus simples :
Soit (Ht ) ∈ S. On pose
Z T N
X −1
Hs dBs := ξi (Bti+1 − Bti ),
0 i=1

et, pour tout t ∈ [0, T ],


Z t n−1
X
Hs dBs = ξi (Bti+1 − Bti ) + ξn (Bt − Btn ), si tn ≤ t ≤ tn+1 .
0 i=1

Ceci s’écrit aussi


Z t N
X −1
Hs dBs = ξi (Bti+1 ∧t − Bti ∧t ).
0 i=0
Rt
Remarquons qu’il découle de cette formulation que t 7→ 0 Hs dBs est continu.

10
Proposition 5.2.
Rt
1. H 7→ ( 0 Hs dBs )t∈[0,T ] est une application linéaire.
2. Pour tout H ∈ S, ( 0t Hs dBs )t∈[0,T ] vérifie les propriétés suivantes :
R

(a) Le processus ( 0t Hs dBs )t∈[0,T ] est (Ft )-adapté,


R

(b) R00 Hs dBs = 0,


R

(c) ( 0t Hs dBs ) est une martingale : pour tout 0 ≤ s ≤ t, E[ 0t Hr dBr |Fs ] = 0s Hr dBr .
R R

Démonstration. 1. En exercice.
2. (a) Pour tout i, ξi (Bti+1 ∧t − Bti ∧t ) est Ft -adapté, donc la somme aussi.
(b) est clair.
(c) Remarquons d’abord que, pour tout 0 ≤ s < t ≤ T fixés et toute subdivision (tn ), quitte à
intercaler s et t on peut supposer que, pour certains 0 ≤ k ≤ l ≤ N , s = tk et t = tl . On a donc
Z t l−1
X
Hr dBr = ξi (Bti+1 − Bti )
0 i=0

et
Z t k−1
X l−1
X
E[ Hr dBr |Fs ] = E[ξi (Bti+1 − Bti )|Ftk ] + E[ξi (Bti+1 − Bti )|Ftk ].
0 i=0 i=k
Les variables intervenant dans la première somme sont toutes Ftk -mesurables. On a donc
k−1
X k−1
X Z s
E[ξi (Bti+1 − Bti )|Ftk ] = ξi (Bti+1 − Bti ) = Hr dBr .
i=0 i=0 0

Pour la seconde remarquons d’abord que, pour tout i ∈ {0, . . . , N − 1}, on a

E[ξi (Bti+1 − Bti )|Fti ] = ξi E[Bti+1 − Bti ] = 0,

donc E[ξi (Bti+1 − Bti )|Ftk ] = 0 pour tout i ≥ k.


Par conditionnement intermédiaire, on obtient alors

E[ξi (Bti+1 − Bti )|Ftk ] = E[E[ξi (Bti+1 − Bti )|Fti ]|Ftk ] = 0.

D’où le résultat.
Rt
Proposition 5.3. (suite) Pour tout H ∈ S, ( Hs dBs )t∈[0,T ] vérifie les propriétés suivantes :
Z t Z t 0
(d) pour tout t ≥ 0, E[( Hs dBs )2 ] = E[ Hs2 ds],
0 Z t 0 Z t Z s
2
(e) pour tous 0 ≤ s ≤ t, E[( Hr dBr ) |Fs ] = E[ Hr2 dr|Fs ] + ( Hr dBr )2 . (a rendre)
s s 0

Démonstration. (d) Montrons le résultat pour t = T . Pour cela, partons de la définition


Z T N
X −1
Hs dBs = ξi (Bti+1 − Bti ).
0 i=0

On en déduit que
Z T !2 N −1
X X
Hs dBs =2 ξi ξj (Bti+1 − Bti )(Btj+1 − Btj ) + ξi2 (Bti+1 − Bti )2 .
0 i<j i=0

11
Pour tout 0 ≤ i < j ≤ N − 1, on a

E[ξi (Bti+1 − Bti )ξj (Btj+1 − Btj )|Ftj ] = ξi (Bti+1 − Bti )ξj E[Btj+1 − Btj ] = 0.

Donc E[ξi (Bti+1 − Bti )ξj (Btj+1 − Btj )] = 0.


Et, pour tout i ∈ {0, . . . , N − 1},

E[(ξi (Bti+1 − Bti ))2 |Fti ] = ξi2 E[(Bti+1 − Bti )2 ] = ξ 2 (ti+1 − ti ),

donc E[(ξi (Bti+1 − Bti ))2 ] = E[ξi2 (ti+1 − ti )]. Revenons à la somme :
N
X −1 N
X −1 Z T
ξi2 (ti+1 − ti ) = Ht2i (ti+1 − ti ) = Hs2 ds.
i=0 i=0 0

Le résultat en découle.
(e) se montre en combinant la décomposition du (c) de la Proposition 5.2 et le calcul du (d).

Corollaire 5.4. Pour tout H ∈ S et tout t ∈ [0, T ], on peut calculer l’espérance et la variance
de la variable 0t Hs dBs :
R

hR i
t
E 0Hs dBs =
0,
hR i
t t 2 Rt
E Hs2 ds.
R  
Var 0 Hs dBs =E 0 Hs ds = 0

Rt
Démonstration. Sachant que ( 0 Hs dBs ) est une martingale, on a
Z t   Z t  Z 0 
E Hs dBs = E E Hs dBs |F0 =E Hs dBs .
0 0 0
Rt Rt Rt
Hs dBs )2 ] = E Hs2 ds.
 
On en déduit que var( 0 Hs dBs ) = E[( 0 0

Nous allons maintenant étendre la notion d’intégrale stochastique à tout L2T .


Soit donc H ∈ L2T et prenons (H (n) )n ∈ S une suite de processus simples convergeant vers H
(n)
dans L2T : E[ 0t (Hs − Hs )2 ds] → 0. Ecrivant, pour tous n, m ∈ IN ,
R

"Z
t Z t 2 # Z t  2 
E Hs(n) dBs − Hs(m) dBs =E Hs(n) − Hs(m) ds ,
0 0 0

(n)
on obtient que, pour tout t ∈ [0, T ], ( 0t Hs dBs )n est une suite de Cauchy dans L2 (Ω). L2 (Ω)
R

étant complet, elle admet une limite. De plus on peut montrer que cette limite ne dépend pas
(n)
de la suite approximante choisie : si limn→∞ H (n) = limn→∞ H̄ (n) , alors limn→∞ 0t Hs dBs =
R
R t (n) Rt
limn→∞ 0 H̄s dBs . C’est cette limite unique que l’on notera encore 0 Hs dBs . En résumé,
Z t Z t
Hs dBs := lim Hs(n) dBs , (3)
0 n→∞ 0

(n)
pour (Ht )n∈IN convergeant vers (Ht ) dans L2 ([0, T ] × Ω) et où la limite dans (3) est au sens
L2 (Ω).
Rt
Définition. On appelle 0 Hs dBs une intégrale stochastique de H par rapport à (Bt ).

12
Z t
Proposition 5.5. 1. L’application (Ht ) → ( Hs dBs ) est linéaire.
0
2. Pour tout H ∈ L2T , on a
Rt
(a) ( 0 Hs dBs ) est (Ft )-adapté et continue.
Z t
(b) ( Hr dBr ) est une (Ft )-martingale :
0 Z t Z s
pour tous 0 ≤ s ≤ t ≤ T , E[ Hr dBr |Fs ] = Hr dBr P-p.s..
0 0
Z t Z t
2
(c) pour tout t ∈ [0, T ], E[( Hs dBs ) ] = E[ Hs2 ds],
0 0
!
Z t 2 Z t
(d) Le processus Hs dBs − Hs2 ds est une martingale. (a rendre)
0 0

Démonstration. On montre que les propriétés établies dans la proposition 5.2 passent bien à la
limite.

Proposition 5.6. Pour tous processus (Ht ) et (Kt ) dans L2T , on a la formule
Z t Z t  Z t 
E Hs dBs Ks dBs = E Hs Ks ds .
0 0 0

Démonstration. On a
"Z
t 2 # Z t 
E (Hr − Kr )dBr =E (Hr − Kr )2 dr .
0 0

Rt Rt Rt
Développons les deux côtés de cette égalité : sachant que 0 (Hr −Kr )dBr = 0 Hr dBr − 0 Kr dBr ,
on a
"Z
t 2 #  Z t   Z t  Z t Z t 
2 2
E (Hr − Kr )dBr =E ( Hs dBs ) +E ( Ks dBs ) − 2E Hs dBs Ks dBs .
0 0 0 0 0

De même,
Z t  Z t  Z t  Z t 
2
E (Hr − Kr ) dr = E Hr2 dr +E Kr2 dr − 2E Hr Kr dr .
0 0 0 0

Le résultat s’en suit.

13
6 Calcul d’Itô
6.1 Variation quadratique
Définition. Soit (Xt ) un processus stochastique. Pour tout t ≥ 0, posons
X
hX, Xit = sup (Xtk+1 − Xtk )2 ,
(tk )∈Σt k

où ΣT est l’ensemble de toutes les subdivisions finies 0 = t0 < . . . < tn = T de [0, T ]. Le processus
(hX, Xit ) (à valeurs éventuellement infinies) est appelé variation quadratique ou crochet de
(Xt ).
Le crochet hX, Xit peut aussi s’écrire de façon équivalente
X
hX, Xit = lim sup (Xtk+1 − Xtk )2 ,
sup |tk+1 −tk |→0 k

où t0 < . . . < tn = t et la limsup est prise sur toutes les subdivisions finies possibles.
Notons M2T l’ensemble de toutes les (Ft )-martingales continues sur [0, T ], de carré intgérables,
i.e. les martingales (Mt ) telles que, pour tout t ∈ [0, T ], E[Mt2 ] < ∞.
Proposition 6.1. 1. Si (Xt ) est un processus continu à variation finie, alors hX, Xit = 0.
2
2. Si (Xt ) ∈ MT , alors (hX, Xit ) est un processus à valeurs finies, adapté, continu, croissant.

Démonstration. 1. Pour tout subdivision (tk ) ∈ Σt , on a


n−1
X X
(Xtk − Xtk−1 )2 ≤ sup |Xtk − Xtk−1 | |Xtk − Xtk−1 |,
k=0 k k

où supk |Xtk − Xtk−1 | → 0 quand supk |tk − tk−1 | → 0 car (Xt ) est continu,
et k |Xtk − Xtk−1 | est borné, car (Xt ) est à variation finie.
P

2. admis.

Proposition 6.2. Pour tout M ∈ M2T , (Mt2 − hM, M it ) est une martingale.

Démonstration. Nous ne donnons ici qu’une idée de preuve : pour toute subdivision t0 = s <
. . . < tn = t, on peut écrire
n−1
X
Mt2 − Ms2 = (Mt2k+1 − Mt2k ),
k=0
et d’après la proposition 3.2, pour tout k,
E[Mt2k+1 − Mt2k |Fs ] = E[(Mtk+1 − Mtk )2 |Fs ],
donc
n−1
X
E[Mt2 − Ms2 |Fs ] = E[ (Mtk+1 − Mtk )2 |Fs ].
k=0
Ceci étant vrai pour toutes les subdivision de [s, t], on obtient également
E[Mt2 − Ms2 |Fs ] = E[hM, M it − hM, M is |Fs ].
On en déduit le résultat.

14
En corollaire, on retrouve un résultat montré en exercice :
Corollaire 6.3. Toute martingale M ∈ M2T à variation finie est constante.

Démonstration. En posant Mt0 = Mt − M0 , on peut se ramener à des martingales nulles en zéro.


Si (Mt ) est à variation finie, alors (Mt2 ) est une martingale. En particulier E[Mt2 ] = 0. On en
déduit que Mt = 0 P-presque sûrement.

Théorème 6.4. Pour tout (Mt ) ∈ M2T , le crochet (hM, M it ) est l’unique processus croissant,
nul en zéro, tel que (Mt2 − hM, M it ) soit une martingale.

Démonstration. Nous avons déjà vu que (hM, M it ) est croissant, que (Mt2 − hM, M it ) est une
martingale, et il est clair que hM, M i0 = 0. Montrons qu’il est le seul processus à vérifier ces
trois propriétés. Pour cela supposons qu’il y en ait un autre (At ).
Sachant (Mt2 − hM, M it ) et (Mt2 − At ) sont tous les deux des martingales, leur différence (At −
hM, M it ) en est une aussi. La différence de deux processus croissants étant à variation finie, celle-
ci est constante. Et comme, par hypothèse, A0 = hM, M i0 = 0, on obtient At = hM, M it .

Proposition 6.5. 1. hB, Bit = t,


2. pour tout H ∈ L2T , h 0· Hr dBr ,
R· Rt
Hr2 dr.
R
0 Hr dBr it = 0
3. Notons L1T l’ensemble Rde tous les processus K (Ft )-adaptés tels que E[ 0T |Ks |ds] < ∞.
R

Alors, pour tout Xt = 0t Hs ds, avec H ∈ L1T , (Xt ) est de variation quadratique nulle.

Démonstration. 1. découle de la proposition 4.3, où il a été montré que (Bt2 − t) est une martin-
gale.
2. Cela découle de la proposition 5.5 (d).
Z t Z t
3. La variation de ( Hs ds) vaut |Hs |ds. C’est donc un processus à variation finie. D’après
0 0
la Proposition 6.11., sa variation quadratique est donc nulle.

Définition. Variation quadratique croisée :


Soient (Xt ) et (Yt ) deux processus stochastiques tels que

hX + Y, X + Y iT < ∞ et hX − Y, X − Y iT < ∞.

On pose alors
1
hX, Y it = (hX + Y, X + Y it − hX − Y, X − Y it ) .
4

Remarque. On vérifie bien que la formule coïncide avec celle de la variation quadratique lorsque
X =Y.
Proposition 6.6. 1. On a, pour tout t, si la limite existe,
X
hX, Y it = lim (Xtk+1 − Xtk )(Ytk+1 − Ytk ).
sup |tk+1 −tk |→0
k

2. On a toujours
1 1
| hX, Y it | ≤ hX, Xi 2 hY, Y i 2 .

15
3. Si N et M sont deux (Ft )-martingales continues, alors (Mt Nt − hM, N it ) est une (Ft )-
martingale.
Rt Rt
4. Pour H, H 0 ∈ L2T , posons Xt = 0 Hs dBs et Yt = 0 Hs0 dBs . Alors
Z t
hX, Y it = Hs Hs0 ds.
0

5. Soient (Xt ) et (Yt ) deux processus tels que hX, Xit < ∞ etR (Yt ) est à variation finie. Alors
hX, Y iT = 0. C’est le cas, en particulier, pour tout Xt = 0t Hs dBs , Yt = 0t Ks ds.
R

Démonstration. 1. De la formule

(a + b)2 − (a − b)2 = 4ab, (4)

vraie pour tous a, b ∈ IR, on déduit que


2 2
(Xtk+1 + Ytk+1 ) − (Xtk + Ytk ) − (Xtk+1 − Ytk+1 ) − (Xtk − Ytk ) = 4(Xtk+1 − Xtk )(Ytk+1 − Ytk ).

Puis on conclut en somment sur tous les k et en passant à la limite.


2. Cela découle de l’inégalité de Cauchy-Schwarz :
X X X
| (Xtk+1 − Xtk )(Ytk+1 − Ytk )| ≤ ( (Xtk+1 − Xt2k ))1/2 ( (Ytk+1 − Ytk )2 )1/2 .
k k k

3. En exercice, en utilisant encore la formule (4) et de la définition de hM, N it .


4. On a, en développant les carrés,
R 
hX, Y it = 41 0t (Hs + Ks )2 ds −
Rt 2
0 (Hs − Ks ) ds
= 0t Hs Ks ds.
R

5.Cela découle de l’inégalité de Cauchy-Schwarz :


1/2 1/2
|hX, Y it | ≤ hX, Xit hY, Y it .

Or hY, Y it = 0.

Corollaire 6.7. L’application (X, Y ) → hX, Y i est bilinéaire et symétrique. En particulier

hX + Y, X + Y it = hX, Xit + hY, Y it + 2 hX, Y it .

Démonstration. ( a rendre)

6.2 Processus d’Itô


Définition. On appelle processus d’Itô tout processus (Xt ) de la forme
Z t Z t
Xt = X0 + Ks ds + Hs dBs , t ∈ [0, T ], (5)
0 0

où X0 est F0 -mesurable, K ∈ L1T , H ∈ L2T . On note I l’ensemble des processus d’Itô.


Z t Z t
Exemple. Xt = x0 + µt + σBt = x0 + µds + σdBs .
0 0

16
Proposition 6.8. Tout processus d’Itô (Xt ) se décompose de façon unique en Xt = X +Mt +Vt ,
R 0
avec M martingale et V à variation finie, nuls en zéro : Mt = 0t Hs dBs et Vt = 0t Ks ds,
R

où unique veut dire que, si Xt = X00 + Mt0 + Vt0 , alors X00 = X0 et, pour tout t ≥ 0, P-presque
sûrement, Mt = Mt0 et Vt = Vt0 .

Démonstration. On sait déjà que (Mt ) est une martingale et (Vt ) à variation finie. Reste à
montrer l’unicité. Supposons donc qu’il existe deux décompositions :

Xt = X0 + Mt + Vt = X00 + Mt0 + Vt0 .

Alors, de M0 = M00 = V0 = V00 = 0 on déduit que X00 = X0 . Et de Mt − Mt0 = Vt0 − Vt , on déduit


que (M − M 0 ), martingale issue de zéro, à variation finie, est nulle. Il en résulte que Vt = Vt0 .
Rt Rt
Proposition 6.9. Pour tout X ∈ I avec Xt = X0 + 0 Hs dBs + 0 Ks ds, la variation quadratique
est Z t
hX, Xit = Hs2 ds.
0

Démonstration. Cela se démontre facilement avec le lemme et les formules que nous connaissons
déjà : en remarquant que Yt := Xt − X0 , on peut supposer que X0 = 0. Par bilinéarité et symétrie,
on a alors
R R R R R R
hX, Xit = h HdB, HdBit + h Kds, Kdsit + 2 h HdB, Kdsit
R R
= h HdB, HdBit + 0 + 0
Rt
= 0 Hs2 ds.

Notation : La formule (5) peut s’écrire de façon infinitésimale :

dXt = Kt dt + Ht dBt , X0 = x0 .

Définition. Soit X ∈ I et H ∈ L2T , K ∈ L1T vérifiant (5). Pour tout processus H 0 tel que (Ht0 Ht ) ∈
L2T et (Ht0 Kt ) ∈ L1T , on définit l’intégrale stochastique par rapport à X par
Z t Z t Z t
Hs0 dXs = Hs0 Hs dBs + Hs0 Ks ds.
0 0 0

ou, de façon équivalente,


Ht0 dXt = Ht0 Kt dt + Ht0 Ht dBt .

Remarque. Le processus ( 0t Hs0RdXs ) est encore un processus d’Itô. Et si (Xt ) est une martingale
R

(resp. à variation finie), alors ( 0t Hs0 dXs ) est encore une martingale (resp. à variation finie).

17
6.3 La formule d’Itô
Dans ce qui suit, nous supposerons toujours que toutes les conditions sont satisfaites pour que
les intégrales (ordinaires ou stochastiques) soient bien définies. Dans un cadre plus général, on
peut établir les formules et résultats pour des processus duments arrêtés (Xt∧Tn ), avec (Tn ) % ∞
suite de temps d’arrêt, i.e. raisonner en termes de martingales locales.
Théorème 6.10. Soit (Xt ) un processus d’Itô et f une fonction C 2 de IR dans IR, Alors
Z t Z t
0 1
f (Xt ) = f (X0 ) + f (Xs )dXs + f 00 (Xs )d hX, Xis (6)
0 2 0

Idée de la preuve : pour tout t et toute subdivision (tn ) de [0, t], on peut écrire
X 
f (Xt ) − f (X0 ) = f (Xtk+1 ) − f (Xtk )
k

et f (Xtk+1 ) − f (Xtk ) = f 0 (Xtk )(Xtk+1 − Xtk ) + 12 f 00 (Xtk )(Xtk+1 − Xtk )2 + o(Xtk+1 − Xtk )2 ,
puis on passe à la limite.

En écriture infinitésimale, cela donne


1
df (Xt ) = f 0 (Xt )dXt + f 00 (Xt )d hX, Xit ,
2
et, en remplaçant Xt par sa décomposition dXt = Ht dBt + Kt dt,
1
 
df (Xt ) = f (Xt )Kt + f 00 (Xt )Ht2 dt + f 0 (Xt )Ht dBt .
0
2
Rt
Exemple. Pour Xt = Bt et f (x) = x2 , on obtient la formule Bt2 = 2 0 Bs dBs + t.
Dans la suite, nous aurons aussi besoin d’une formule d’Itô multidimensionnelle :
Théorème 6.11. Soient (Xt1 ), . . . , (Xtn ) ∈ I et f ∈ C 2 (IRn , IR). Alors, pour tout t ≥ 0,
n Z t
X ∂f
f (Xt1 , . . . , Xtn ) = f (X01 , . . . , X0n ) + (Xs1 , . . . , Xsn )dXsi
i=1 0
∂xi
(7)
∂2f
Z t
1X D E
+ (Xs1 , . . . , Xsn )d X i , X j .
2 i,j 0 ∂xi ∂xj s

Une application directe en est la formule du produit :


Corollaire 6.12. Soient (Xt ) et (Yt ) deux processus d’Itô. On a alors
Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + hX, Y it .
0 0

Démonstration. Pour (Xt1 , Xt2 ) = (Xt , Yt ) et f (x, y) = xy, on a


∂f ∂f
(x, y) = y et (x, y) = x
∂x ∂y
et toutes les dérivées d’ordre deux sont nulles. La formule découle alors de (7).

18
6.4 Exponentielle de Doléans-Dade, théorème de représentation des martin-
gales et caractérisation de Lévy
Lemme 6.13. Soit f une fonction C 2 de IR+ × IR vers IR ou C et qui vérifie

∂f 1 ∂ 2 f
+ = 0.
∂t 2 ∂x2
Soit (Xt ) ∈ I une martingale. Alors, sous les bonnes conditions d’intégrabilité, le processus
(f (hX, Xit , Xt )) est encore martingale vérifiant
Z t
∂f
f (hX, Xit , Xt ) = f (0, X0 ) + (hX, Xis , Xs ) dXs .
0 ∂x

Démonstration. La formule d’Itô multidimensionnelle (7) appliquée au couple (hX, Xit , Xt )


donne
R t ∂f
f (hX, Xit , Xt ) − f (0, X0 ) = 0 ∂x (hX, Xis , Xs )dXs
1 R t ∂2f
+ 0t ∂f
R
R t ∂f ∂t (hX, Xis , Xs )d hX, Xis + 2 0 ∂x2 (hX, Xis , Xs )d hX, Xis
= 0 ∂x (hX, Xis , Xs )dXs + 0.

On en déduit le résultat.
1
RT
Hs2 ds
Théorème 6.14. Soit Xt = 0t Hs dBs , où (Ht ) ∈ L2 vérifie la condition de Novikov : E[e 2
R
0 ]<
∞. Alors, pour tout λ ∈ C, le processus suivant est une martingale :
( ) ( Z )
λ2 t λ2
Z t
E λ (X)t := exp λXt − hX, Xit = exp λ Hs dBs − Hs2 ds .
2 0 2 0

Elle est solution de l’équation différentielle stochastique

dZt = λZt dXt , Z0 = 1.

Pour λ = 1, on la note simplement E(X)t . C’est l’exponentielle de Doléans-Dade de X.

λ2
Démonstration. Il suffit d’appliquer le lemme précédent à la fonction f (x, t) = eλx− 2
t
.

Voici deux applications du théorème 6.14.

7 Théorème de Girsanov
On se donne toujours un espace probabilisé (Ω, F , P), muni d’une filtration (Ft ) et d’un (Ft )-
mouvement brownien (Bt ) et un horizon de temps fini T > 0. Pour simplifier, on supposera ici
que F = FT .
Définition. Soit Q une probabilité sur (Ω, F , P). On dit que Q est absolument continue par
rapport à P, noté Q  P, si, pour tout A ∈ F , P[A] = 0 ⇒ Q[A] = 0.
Si Q  P et P  Q, on dit que P et Q sont équivalentes, noté Q ∼ P.
Nous admettrons le

19
Théorème 7.1. Q  P si et seulement si il existe une variable Z telle que P[Z ≥ 0] = 1 et, pour
tout A ∈ F , Z
Q[A] = Z(ω)dP(ω),
A
ou, de façon équivalente, pour tout A ∈ F ,

Q[A] = EP [1lA Z],

ou encore, pour tout X variable aléatoire Q-intégrable,

EQ [X] = EP [XZ].

La variable Z est appelée la densité de Radon-Nikodym de Q par rapport à P, notée Z := dQ


dP .

Proposition 7.2. Si Q ∼ P, alors P[Z > 0] = 1 et dP


dQ = 1/ dQ
dP .

Démonstration. Posons Z 0 = dP
dQ . Alors, pour tout Y variable P-intégrable,

EP [Y ] = EQ [Y Z 0 ] = EP [Y ZZ 0 ].

Cette formule étant vraie pour tout Y , cela implique que P[ZZ 0 = 1] = 1. D’où le résultat.

Notation. Pour Z variable aléatoire telle que P[Z ≥ 0] = 1 et EP [Z] = 1, on note P(Z) la pro-
(Z)
babilité sur F telle que dPdP = Z.
Fixons maintenant (θt ), un processus adapté, vérifiant la condition de Novikov
1
RT
θs2 ds
EP [e 2 0 ] < +∞. (8)

Posons Z T Z T !
1
L = exp θs dBs − θs2 ds .
0 2 0

Lemme 7.3. Posons, pour tout t ≥ 0,


Z t Z t
1

Lt = exp θs dBs − θs2 ds .
0 2 0

Alors, pour tout t ∈ [0, T ], on a P(L) |Ft = P(Lt ) |Ft .

Démonstration. On sait déjà que (Lt ) est une martingale, avec Lt = EP [L|Ft ] et EP [Lt ] = 1 pour
tout t ∈ [0, T ].
Par définition, pour tout A ∈ Ft ,

P(L) [A] = EP [1lA LT ]

= EP [1lA EP [LT |Ft ]]

= EP [1lA Lt ]

= P(Lt ) [A].

20
Lemme 7.4. Soit X une variable aléatoire intégrable. Alors, pour tout s ∈ [0, T ], son espérance
conditionnelle sachant Fs sous P(L) est donnée par
EP [LX|Fs ]
E(L) [X|Fs ] = .
Ls
Si, de plus pour t ∈ [s, T ], X est Ft -mesurable, on a
EP [Lt X|Fs ]
E(L) [X|Fs ] = .
Ls

Démonstration. On a, pour tout A ∈ Fs ,


E(L) [X1lA ] =EP [X1lA L]
=EP [EP [XL|Fs ]1lA ]
EP [LX|Fs ]
 
=E(Ls ) 1lA
Ls
(L) EP [LX|Fs ]
 
=E 1lA .
Ls
où EP [LX|F
Ls
s]
est une variable Fs -mesurable. On en déduit le premier résultat.
Si X est Ft mesurable, on a, d’après le lemme précédent,
E(L) [X1lA ] = E(Lt ) [X1lA ],
et le résultat découle pareil.

Théorème 7.5 ( Théorème de Girsanov). Soit (θt ) un processus adapté, mesurable, vérifiant
la condition de Novikov (8).
Posons Z T Z T !
1
L = exp θs dBs − θs2 ds .
0 2 0
Z t
Alors le processus Wt = Bt − θs ds est un (Ft )-mouvement brownien sous P(L) ; où Bt est un
0
mouvement Brownien sous P.

Démonstration. Nous allons montrer ce résultat dans le cas particulier où θt = a ∈ IR est constant :
1 2
Wt = Bt −at et Lt = eaBt − 2 a t . Le cas général est admis.
Une façon de montrer qu’un processus est un mouvement brownien sous P(L) est de montrer
que, pour tout 0 ≤ s ≤ t et tout u ∈ IR,
u2
E(L) [eiu(Wt −Ws ) |Fs ] = e− 2
(t−s)
.
Pour cela, nous allons combiner les deux lemmes précédents et d’appliquer le résultat au mou-
vement brownien :
1 2
h i
E(L) [eiu(Wt −Ws ) |Fs ] =EP ea(Bt −Bs )− 2 a (t−s)
eiu(Bt −Bs )−aiu(t−s) |Fs
1
h i 2 +2aiu)(t−s)
=EP e(a+iu)(Bt −Bs ) e− 2 (a
(a+iu)2 1 2 +2aiu)(t−s)
=e 2
(t−s)
e− 2 (a
u2
=e− 2
(t−s)
.

21
8 Équations différentielles stochastiques
On se place comme toujours sur l’espace filtré (Ω, F , P, (Ft )), on se donne un (Ft )-mouvement
brownien (Bt ) et on fixe un horizon de temps fini T > 0.
Soient b : [0, T ] × IRd → IRd et σ : [0, T ] × IRd → IRd×n deux fonctions mesurables. Soit (Bt ) un
mouvement brownien dans IRn sur un espace de probabilité filtré (Ω, F , P, (Ft )). Soit X0 une
variable aléatoire F0 -mesurable.
Définition. — On appelle équation différentielle stochastique (EDS) une équation du
type Z t Z t
Xt = Z + b(s, Xs )ds + σ(s, Xs )dBs , t ∈ [0, T ], (9)
0 0
qu’on écrira sous forme infinitésimale

dXt = b(t, Xt )dt + σ(t, Xt )dBt , t ∈ [0, T ], X0 = Z. (10)

— On appelle solution (forte) de l’EDS (10) tout processus d’Itô (Xt ) vérifiant (9).
Exemple. Soient µ, σ ∈ IR. L’équation

dXt = µXt dt + σXt dBt = Xt (µdt + σdBt )

est une EDS.


Théorème 8.1. Soit T > 0 et b : [0, T ] × IRd → IRd et σ : [0, T ] × IRd → IRd×n deux fonctions
mesurables vérifiant,
— pour tout x ∈ IRd et t ∈ [0, T ], |b(t, x)| + |σ(t, x)| ≤ C(1 + |x|),
— pour tous x, y ∈ IRd et t ∈ [0, T ], |b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ D|x − y|,
pour C, D > 0 donnés (i.e b et σ sont à croissance au plus linéaire et Lipschitz en x uniformément
en t).
Soit (Bt ) un (Ft )-mouvement brownien n-dimensionnel et Z une variable aléatoire F0 -mesurable
telle que E[Z 2 ] < ∞. Alors l’EDS

dXt = b(t, Xt )dt + σ(t, Xr )dBt , X0 = Z, (11)


RT
a une unique solution forte (Xt ) telle que E 0 |Xs |2 ds] < ∞.
La démonstration du théorème s’appuie sur le lemme classique suivant, que nous admettrons.
Lemme 8.2 (Lemme de Grönwall). Soit v une fonction continue de [0, T ] vers IR telle que,
pour tout t ∈ [0, T ], v(t) ≤ a + b 0t v(s)ds, alors v(t) ≤ aebt . En particulier, si v ≥ 0 et a = 0, alors
R

v = 0.

Démonstration. du théorème 8.1. Pour simplifier l’écriture, nous montrons le résultat pour d =
n = 1, mais la démonstration est la même en dimension supérieure.
Unicité : soient X et X 0 deux solutions de (11). Posons βs = b(s, Xs ) − b(s, Xs0 ) et αs = σ(s, Xs ) −

22
σ(s, Xs0 ). Alors
 2 
t Rt
E[|Xt − Xt0 |2 ] = E
R
β
0 s ds + α
0 s dBs
 2   2 
R t R t
≤ 2E β
0 s ds + 2E α
0 s dB s
h R i hR i
t 2 t 2
≤ 2E t 0 βs ds h+ 2E 0 αs ds (inégalité de Schwartz)
i
2
R t 0 2
≤ 2(T + 1)D E 0 |Xs − Xs | ds (Lipschitz)
= 2(T + 1)D2 0t E[|Xs − Xs0 |2 ]ds (Fubini).
R

On peut alors appliquer le lemme de Gronwall à v(t) = E[|Xt − Xt0 |2 ] :


Z t
v(t) ≤ 0 + b v(s)ds ⇒ v(t) = 0.
0

D’où l’unicité.

Existence : posons
(0)
Yt = Z, t ∈ [0, T ],
et, pour tout k ∈ IN ,
Z t Z t
(k+1)
Yt =Z+ b(s, Ys(k) )ds + σ(s, Ys(k) )dBs , t ∈ [0, T ].
0 0

Le même calcul que ci-dessus montre que, pour tout k ≥ 1 et tout t ∈ [0, T ],
Z t
(k+1) (k) 2
E[|Yt − Yt | ] ≤ 2(1 + T )D2 E[|Ys(k) − Ysk−1) |2 ]ds.
0

Puis
"Z
t 2 # "Z
t 2 #
(1) (0)
E[|Yt − Yt |] =2E b(s, Z)ds + 2E σ(s, Z)dBs
0 0
Z t Z t
≤2tE[ b2 (s, Z)ds] + 2E[ σ(s, Z)2 ds]
0 0
Z t
≤2(T + 1)E[ (1 + C)2 Z 2 ds]
0
=2(T + 1)(1 + C)2 T E[Z 2 ] := A.

Nous obtenons donc par récurrence


h
(k+1) (k) 2
i tk+1
E |Yt − Yt | ≤ Ak+1 .
(k + 1)!

23
Cela donne, pour tous n, m ∈ IN ,
Z T Z T m−1
(m) X (k+1) (k) 2
E[|Yt − Y (n) |2 dt = E[| (Yt − Yt )| ]
0 0 k=n
m−1
XZ T
(k+1) (k) 2
≤ E[|Yt − Yt | ]dt
k=n 0
m−1
XZ T tk+1
≤ Ak+1 dt
k=n 0
(k + 1)!
m−1
X
k+1 T k+2
= A .
k=n
(k + 2)!

(k)
Ce dernier terme tend vers 0 lorsque n, m → ∞. La suite de processus stochastiques (Yt ) est
donc une suite de Cauchy dans L2 (λ × P). Il existe donc un processus (Xt ) tel que Y (n) → X
dans L2 (λ × P).
Il reste à vérifier que
"Z
t Z t 2 #
E b(s, Ys(n) )ds − b(s, Xs )ds →n→∞ 0
0 0

et "Z 2 #
t Z t
E σ(s, Ys(n) )dBs − σ(s, Xs )dBs →n→∞ 0
0 0

ce qui se montre aisément en utilisant l’hypothèse de Lipschitzianité de b et σ.

Références
[1] Le Gall, J. F. (2016). Brownian motion, martingales, and stochastic calculus. springer publi-
cation.

24

Vous aimerez peut-être aussi