0% ont trouvé ce document utile (0 vote)
269 vues20 pages

Introduction aux Processus Stochastiques

Le document décrit les notions de base des processus stochastiques comme les tribus, les variables aléatoires, les processus aléatoires, le mouvement brownien et la filtration. Il introduit également les concepts d'intégrale stochastique et d'équations stochastiques.

Transféré par

Badre Mhiouah
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
269 vues20 pages

Introduction aux Processus Stochastiques

Le document décrit les notions de base des processus stochastiques comme les tribus, les variables aléatoires, les processus aléatoires, le mouvement brownien et la filtration. Il introduit également les concepts d'intégrale stochastique et d'équations stochastiques.

Transféré par

Badre Mhiouah
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Processus Stochastiques

Rizwan Nato
Contents

1 Introduction 1
1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Variable Aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
3 Processus Aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
4 Mouvement brownien standard, processus de Wiener . . . . . . . . . . . . . . . . . . . 3
5 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
6 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
7 Retour au mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
8 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
9 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Intégrale Stochastique 11
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Intégrale stochastique par rapport au processus de Wiener . . . . . . . . . . . . . . . . 11
3 Semi-Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3 Équations Stochastiques 17

i
Chapter 1

Introduction

1 Tribu
Si n = card(Ω) < ∞, il y a 2n évènements.

Exemple: Si Ω = {1, 2, ..., 6} correspondant à un lancé de dé. Supposons que l’on s’intéresse à la
variable X:
ω X(ω)
1 0
2 0
3 5
4 5
5 10
6 10
Dans cet exemple, les évènements qui nous intéressent sont ceux qui déterminent la loi de X.
{X = 0} = {ω ∈ Ω : X(ω) = 0} = {1, 2}
{X = 0} = {3, 4}
{X = 0} = {5, 6}

Les propriétés d’une mesure de probabilité font en sorte que si on connaît la probabilité de
l’évènement A, alors on connaît celle de son complémentaire.
Nous sommes capable de déterminer la probabilité associés à l’union d’un certain nombre d’évènements
grâce à la propriété:

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Définition Tribu:
Une tribu F sur Ω est un ensemble d’évènements tel que: i) Ω ∈ F
ii) Si A ∈ F, alors Ac ∈ F S
iii) Si A1 , A2 , ... ∈ F, alors i≥1 Ai ∈ F

Définition Partition finie:


Une famille P = {A1 , ..., An } d’évènements de Ω est appelée une partition finie de Ω si:
i) ∀i ∈ [[1, n]], Ai 6= ∅
ii) ∀i,
Snj ∈ [[1, n]] tels que i 6= j, Ai ∩ Aj = ∅
iii) i=1 Ai = Ω

Définition Tribu engendrée:


Une tribu F est dite engendrée par la partition finie P de Ω si elle est la plus petite tribu contenant
les éléments de P. On la note σ(P). Les éléments de P sont appelés les atomes de F

2 Variable Aléatoire
Définition Variable Aléatoire:
Une variable aléatoire X construite sur l’espace probabilisable (Ω, F) est une fonction à valeurs réelles

1
2 CHAPTER 1. INTRODUCTION

X : Ω → R telle que: ∀x ∈ R, {ω ∈ Ω : X(ω) ≤ x} ∈ F

Si card(Ω) < ∞, alors la condition est équivalente à: ∀x ∈ R : {X = x} ∈ F

Pour bien exprimer que la tribu F contient les évènements caractérisant la loi de X, on dit que X
est F mesurable

Exemple:
Ω = {1, .., 6} et F = {{1, 3, 5}, {2, 4, 6}, Ω, ∅}
La fonction X : Ω ∈ R qui
 vaut 1 si le résultat est parie et 0 sinon est une v.a sur (Ω, F)
 {1, 3, 5} ∈ F si x = 0
{ω ∈ Ω : X(ω) = w} = {2, 4, 6} ∈ F si x = 1
∅ sinon

Définition Tribu engendrée:


Soit X : Ω → R. La plus petite tribu F qui fait en sorte que X soit une variable aléatoire sur (Ω, F)
est appelée la tribu engendrée par X. Elle est notée σ(X)

Si card(Ω) < ∞ alors X prends un nombre fini de valeurs {X1 , ..., Xn }. Pour tout i ∈ [[1, n]].
Posons Ai = {ω ∈ Ω : X(ω) = xi Alors P = {A1 , ..., An } est une partition finie de Ω et σ(P) = σ(X )

3 Processus Aléatoire
Une fonction aléatoire est une fonction qui pour chaque valeur de son argument est une variable aléa-
toire.
Une fonction aléatoire est alors un ensemble de v.a construites toutes sur le même espace mesurable
(Ω, F)
Nous allons considérer que les fonction aléatoires d’un argument scalaire réel t ∈ T ⊂ R. De telles
fonctions aléatoires sont appelées aléatoires ou stochastiques.

Définitions: Processus version/indistinguables

1/ Soient X et Y deux processus indexés par le même ensemble T et définis sur le même espace
de probabilité (Ω, F, P). Ils sont dit une modification ou encore version l’un de l’autre si ∀t ∈ T fixé
xt = yt P presque sûrement

2/ Les processus X et Y sont dit indistinguables si pour P presque tout ω ∈ Ω on a:


xt (ω) = yt (ω), ∀t ∈ T
Chaque fois que l’on trouve l’expression: il existe un processus unique possédant la propriété P, cela
signifie que tous les processus possédant P sont indistinguables les uns des autres.

Il est bien clair que le concept de deux processus indistinguables est plus fort que celui de deux
processus modifications l’un de l’autre.

Exemple:
Soit T une v.a positive non nulle. Soit (Xt = 0) et (yt , t ≥ 0) définit par yt (ω) = 1T =t (ω). Alors Y
est une modification de X:
{ω ∈ Ω : xt (ω) 6= yt (ω)} = {w ∈ Ω : T (ω) = t} car P(T = t) = 0
Cela signifie que ∀t ∈ R+ , xt = yt P-presque sûrement.
X et Y ne sont pas indistinguables P (xt = yt , ∀t ≥ 0) = 0

Proposition
Soit Y une modification de X et supposons que les trajectoires de X et Y sont continues à droite.
Alors X et Y sont indistinguables.

Preuve: La continuité à droite permet d’écrire


St = yt , ∀t ∈ Q+ } car Q+ est dense dans R+
{xt = yt , ∀t ∈ R+ } = {x
{xt = yt , ∀t ∈ Q+ }c = t∈Q+ {xt 6= yt } ∈ F car l’union est dénombrable. On peut donc P mesurer.
P
0 ≤ P(xt 6= yt ) ≤ t∈Q+ P(xy 6= yt ) = 0
4. MOUVEMENT BROWNIEN STANDARD, PROCESSUS DE WIENER 3

Ainsi P(xt = yt , ∀t ∈ R+ ) = 1

4 Mouvement brownien standard, processus de Wiener


Mouvement brownien standard monodimensionel

Nous définissons un mouvement brownien standard monodimensionel démarrant à l’origine comme


un processus (Bt , t ≤ 0) à valeur dans R qui possède les propriétés suivantes:

i) Si t0 < .. < tn alors B(t0 ), B(t1 )−B(t0 ), ..., B(tn )−B(tn −1) sont indépendants: Accroissement indépendant
−x2
ii) Si t, s > 0 alors P{B(s + t) − B(s) ∈ A} = A √2πt 1
exp 2t dx : Accroissement stationnaire
R

iii) Avec probabilité 1, B0 = 0, t → Bt est continue.

Mouvement brownien standard d-dimensionnel

Nous définissons un mouvement brownien standard démarrant en un point arbitraire d-dimensionnel


d ≥ 1:
i) Invariance par translation. Le processus B̃ = (B̃t , t ≥ 0). B̃t = Bt − B0 est un mouvement
brownien standard démarrant à l’origine. Le processus B̃ est indépendant de la v.a B0
ii) Indépendance des coordonnées: Si B0 = 0, alors (Bt1 , t ≥ 0), (Bt2 , t ≥ 0), ..., (Btd , t ≥ 0) sont des
mouvements browniens standards mono-dimensionnels démarrant à l’origine et indépendants.

5 Filtration
Définition: Filtration
Une collection d’une tribu F = (Ft , t ∈ T ) est dite filtration si Fs ⊂ Ft pour tout s ≤ t

Un processus indexé dans T est dit adapté à la filtration si pour chaque t ∈ T , la v.a Xt est Ft
mesurable
La filtration est un formalisme mathématique qui décrit l’information dont on dispose. La définition
traduit le fait que l’information augmente dans le temps.
On dit voir un processus adapté comme un processus qui ne voit pas le futur.
Soit X un processus stochastique, la filtration générée par X notée Fx = (Ftx , t ∈ T ) où Ftx =
σ(xs , s ≤ t). C’est la filtration naturelle de X

Exemple:
Ω = {ω1 , ω2 , ω3 , ω4 } Soit le processus X = (Xt , t ∈ {0, 1, 2, 3}) qui modélise l’évolution d’un prix.

ω X0 (ω) X1 (ω) X2 (ω) X3 (ω)


ω1 1 0.5 1 0.5
ω2 1 0.5 1 0.5
ω3 1 2 1 1
ω4 1 2 2 2

Quelle est la filtration naturelle de ce processus?


F0x = σ(X0 ) = {Ω, ∅}: à t=0 on connaît de façon certaine le prix.
F1x = σ(X0 , X1 ) = σ({{ω2 , ω2 }, {ω3 , ω4 }})
F2x = σ(X0 , X1 , X2 ) = σ({{ω2 , ω2 }, {ω3 }, {ω4 }})
F3x = σ(X0 , X1 , X2 , X3 ) = σ({{ω2 , ω2 }, {ω3 }, {ω4 }})

Pour T = R+

On définit la tribu Ft+ =


T T
s∈R+ ,s>t Fs = n∈N,n>0 Ft+ n1

C’est la tribu Ft augmentée par les évènements qui se produisent immédiatement après t.
(Ft+ , t ∈ R+ ) est une filtration. On dit que la filtration F est continue à droite si pour chaque t
on a Ft+ = Ft
Il est Ssouvent admis que la tribu F0 contient les évènements de probabilité nulle de la tribu.
F∞ = σ( t≥0 Ft )
4 CHAPTER 1. INTRODUCTION

- De cette façon si une v.a X est Ft mesurable et que Y=X P p.s, alors Y est aussi Ft mesurable
- On dit que la filtration F est P complète

6 Temps d’arrêt
L’échantillonnage aléatoire non anticipatif comporte:
i) Stopping time
ii) Optional time

Définition: Stopping time


i) Une variable aléatoire T à valeur dans [0; +∞] définie sur un espace mesurable (Ω, F) est "stopping
time" par rapport à la filtration de travail F = (Ft , t ∈ T ) si pour chaque t ∈ T {ω ∈ Ω : τ (ω) ≤ t} ∈ Ft
{τ ≤ t} ∈ Ft

Exemples
• Le premier instant où l’on obtient pile dans un jeu de pile ou face est-il un temps d’arrêt? Oui
• Le dernier instant sur dix parties où l’on a obtenu pile est il un temps d’arrêt? Non
Exemple en temps discret Reprenons le même processus X = (Xt , t ∈ {0, 1, 2, 3}) qui modélise
l’évolution d’un prix
ω X0 (ω) X1 (ω) X2 (ω) X3 (ω)
ω1 1 0.5 1 0.5
ω2 1 0.5 1 0.5
ω3 1 2 1 1
ω4 1 2 2 2
Nous avons déterminé la filtration naturelle de X.
• Considérons l’instant aléatoire τ modélisant la situation suivante: Nous ne vendons pas au
présent (t=0) mais aussitôt que le prix sera supérieur ou égal à 1
τ (ω1 ) = 2
τ (ω2 ) = 2
τ (ω3 ) = 1
τ (ω4 ) = 1
{ω ∈ Ω : τ (ω) = 0} =6 ∅ ∈ F0
{τ = 1} = {ω3 , ω3 } ∈ F1X
{τ = 2} = {ω1 , ω2 } ∈ F2X
{τ = 3} = ∅ ∈ F3X
τ est bien un stopping time par rapport à FX
• Considérons la situation suivante: On achète aussitôt qu’on sera en mesure de réaliser un profit
plus tard. La v.a τ̃
τ̃ (ω1 ) = 1
τ̃ (ω2 ) = 1
τ̃ (ω3 ) = 0
τ̃ (ω4 ) = 0
τ̃ n’est pas un temps d’arrêt par rapport à FX

T = R+
Définition: Optional time
Une variable aléatoire dans [0, ∞] est une "optional time" par rapport à la filtration F si pour chaque
instant t ∈ T {τ < t} ∈ Ft

On donne l’acronyme càdlàg à un processus dont les trajectoires sont à droite sur [0, ∞[ et ont une
limite à gauche finie en tout point de ]0, ∞[
S est un instant de saut d’un processus càdlàg X
Xs 6= Xs− sur {S < ∞}
∀ω ∈ {S < ∞} X(S(ω), ω) 6= limu↑S(ω) X(u, ω)
On note ∆Xt = Xt − Xt− ∀t ∈ R+
7. RETOUR AU MOUVEMENT BROWNIEN 5

7 Retour au mouvement brownien


Définition
Un mouvement brownien standard mono dimensionnel est un processus adapté continu B = {Bt , Ft ; 0 ≤
t < ∞} défini sur un certain espace de probabilité (Ω, F, P) avec les propriétés:
B0 = 0 p.s et pour s < t l’accroissement de Xt est Ft -mesurable et est indépendant de la tribu Fs et
suit une loi normale de moyenne 0 et de variance t − s

• La filtration {Ft } est une part de la définition

• Si on nous donne {Bt , 0 ≤ t < ∞} sans filtration et si nous savons que B est à accroissements
indépendants et stationnaires et que Bt = Bt − B0 ∼ N (0, t), alors {Bt , FtB ; ≤ t < ∞} est un
mouvement brownien.

• Si {Ft } est une filtration plus large au sens que FtB ⊂ Ft ∀t ≥ 0 et si Bt − Bs est indépendant
de Fs pour tous s < t alors {Bt , Ft ; 0 ≤ t < ∞} est un mouvement brownien

8 Espérance conditionnelle
Cas particuliers

Définition 1
On considère un espace de probabilité (Ω, F, P) avec card(Ω) < ∞ et une partition finie de Ω.
P = {A1 , ..., An } telle que P(Ai ) > 0 ∀i ∈ {1, ..., , }
Soit B ⊂ F la tribu engendrée par P et X une v.a sur (Ω, F, P)P
n
L’espérence conditionnelle de X sachant B notée E[X|B](ω) = i=1 1(ω)Ai P(A1
P
i) ω̃∈Ai X(ω̃)P{ω̃}

Définition 2
On considère un espace de probabilité (Ω, F, P) et une partition finie de Ω, P = {A1 , ..., An }, telle
que P(Ai ) > 0 ∀i = 1, .., n. Soit B ⊂ F la tribu engendrée par P et X avec une v.a sur (Ω, F, P).
L’espérence conditionnelle
Pn de XR sachant B notée E[X|B] est définie par:
1
E[X|B](ω) = i=1 1Ai (ω) P(A i) Ai
XdP
{E[X|B] = xi } = Ai ∈ B
Donc tous les évènements qui caractérisent la v.a E[X|B] sont dans B i.e E[X|B] est B-mesurable.
L’espérence conditionnelle s’exprime à l’aide des probabilités conditionnelles:
Pn Pn
E[X|B](ω) = i=1 1Ai (ω) ω̃∈Ai X(ω̃) P({X(ω̃})∩A i)
P P
P(Ai ) = i=1 1Ai (ω) ω̃∈Ai X(ω̃)P({ω̃}|Ai )

Exemple
Ω = (ω1 , ω2 , ω3 , ω4 ) Soit X = (Xt , t ∈ {0, 1, 2, 3}) définie sur (ω, F) modélisant un prix, et une mesure
de probabilité sur (Ω, F):

ω X0 (ω) X1 (ω) X2 (ω) X3 (ω)


ω1 1 0.5 1 0.5
ω2 1 0.5 1 0.5
ω3 1 2 1 1
ω4 1 2 2 2

Nous avons déterminé la filtration naturelle de X: considérons la sous-tribu F1X ⊂ F


F1X = σ{{ω1 , ω2 }, {ω3 , ω4 }}
F1X est engendrée par la partition finie P = {A1 , A2 } où A1 = {ω1 , ω2 } et A2 = {ω3 , ω4 } et nous
aurons P(A1 ) = 3/8 > 0 et P(A2 ) = 5/8 > 0
Calculons E[X3 |F1X ](ω) = 1{ω1 ,ω2} (ω) ω̃∈{ω1 ,ω2 } X3 (ω̃) P{ωP{ω̃} P{ω̃}
P P
1 ,ω2})
+1{ω3 ,ω4} (ω) ω̃∈{ω3 ,ω4 } X3 (ω̃) P{ω3 ,ω4 })

= 21 1{ω1 ,ω2 } (ω) + 57 1{ω3 ,ω4 } (ω)

Théorème
Soit (Ω, F, P) un espace de probabilité et B une sous tribu. Soit X une v.a.r de carré intégrable. Il
existe une v.a.r Y de carré intégrable et B-mesurable telle que:
6 CHAPTER 1. INTRODUCTION

Pour toutes v.a.r de carré intégrable et B-mesurable Z on a:


E[XY ] = E[Y Z] (1)

Soit Y’ est une v.a.r de carré intégrable et B-mesurable vérifiant (1) alors Y’=Y P-p.s
La classe d’équivalence des v.a.r de carré intégrables, B-mesurable et vérifiant (1) s’appelle espérance
conditionnelle de X sachant B notée E[X|B]

Théorème
Soit X une v.a.r intégrable (resp positive) défini sur (Ω, F, P), et B une sous-tribu de F. Il existe une
v.a.r Y intégrable (resp positive) et B-mesurable unique telle que:
∀B ∈ B, B Y dP = B XdP (2)
R R

Y est appelée espérance conditionnelle de X sachant B noté E[X|B]

Proposition

• Soit X une v.a.r intégrable. Alors Y = E[X|B] vérifie:


E[XZ] = E[Y Z], ∀Z ∈ bB
On note bB l’ensemble des v.a.r B-mesurables bornées)
• Soit X une v.a.r positive. Alors E[X|B] vérifie
E[XZ] = E[Y Z], ∀Z ∈ B +
On note B + l’ensemble des v.a.r B-mesurables positives.

Proposition

• E[1|B] = 1
• Si B = {Ω, ∅} alors E[X|B] = E[X]
• E[λ1 X1 + λ2 X2 |B] = λ1 E[X1 |B] + λ2 E[X2 |B]
• Si X ≤ Y alors E[X|B] ≤ E[Y |B]
• E[E[X|B]] = E[X]
• Si X est B-mesurable alors E[XY |B] = XE[Y |B]
• Si φ est une sous tribu de B alors E[E[X|B]|φ] = E[X|φ] et
E[E[X|φ]|B] = E[X|φ]
• Convergence monotone:
Soit 0 ≤ X1 ≤ .. ≤ Xn ≤ ... une suite croissante de v.a positives (les inégalités sont vérifiées
∀ω ∈ Ω. Il existe
X(ω) = limn→∞ Xn (ω) (possiblement infinie pour certains ω)
Alors E[Xn |B] →n→∞ E[X|B] p.s
• Convergence dominée
Si |Xn | < Y avec Y une v.a.r intégrable et si Xn →n→∞ X p.s
Alors E[Xn |B] →n→∞ E[X|B] p.s

9 Martingale
Une martingale est un processus qui ne contient pas de partie prévisible relativement à l’information
dont on dispose.

Martingale à temps discret

Définition
Sur l’espace (Ω, F, P, F) où F = (Ft , t ∈ {0, 1, .., })
Le processus M = (Mt , t ∈ {0, 1...}) à valeur réelles et adapté est une martingale M:
i) E[|Mt |] < ∞ ∀t ∈ {0, 1, .., 2}
ii) E[Mt |Fs ] = Ms ∀s < t
9. MARTINGALE 7

Lemme
Dans la définition d’une martingale la condition
(ii) E[Mt |Fs ] = Ms ∀s < t est équivalente à
(ii bis) E[Mt |Ft−1 ] = Mt−1

Exemple

ω ζ1 ζ2 ζ3 P Q
ω1 -1 -1 -1 1/8 1/2
ω2 -1 -1 1 1/8 1/14
ω3 -1 1 -1 1/8 1/14
ω4 -1 1 1 1/8 1/14
ω5 1 -1 -1 1/8 1/14
ω6 1 -1 1 1/8 1/14
ω7 1 1 -1 1/8 1/14
ω8 1 1 1 1/8 1/14
F =ensemble des parties de Ω. Nous utilisons la filtration composée :
F0 = {∅, Ω}
F1 = σ(ζ1 )
F2 = σ(ζ1 , ζ2 )
F3 = σ(ζ1 , ζ2 , ζ3 )
F = {F0 , F1 , F2 , F3 , }
Le process M défini par : M0 = 0, M1 = ζ1 , M2 = ζ1 + ζ2 et M3 = ζ1 + ζ2 + ζ3
M est-il martingale sur (Ω, F, F, P)?

Oui pour P :
∀t ∈ {0, 1, 2, 3}, E[|Mt |] ≤ 3
E(M1 |F0 ) = E(M1 ) = M0 car F0 = {Ω, ∅)
F1 est engendrée par la partition P 1 = {{w1 , ...w4 }, {w5 , ..w8 }} = {A11 , A12 } et donc
1/8 1/8
E(M2 |F1 ) = 1A21 (−2 ∗ 1/2 ∗ 2) + 1A22 (2 ∗ 1/2 ∗ 2) = M1
E(M 3|F2 ) = .... = M2

Non pour Q
∀t ∈ {0, 1, 2, 3}, E[|Mt |] ≤ 3
E(M1 |F0 ) = E(M1 ) = −6/14 6= M0

Le fait qu’un processur soit une martingale dépend de la filtration et de la mesure de probabilité.
C’est pourquoi on note: (F, P)-martingale.

Martingale à temps continu

Définition
Un processus stochastique M = (Mt , ∀t ∈ R+ ) à valeurs dans R, adapté à la filtration F = (Ft , ∀t ∈
R+ ) et défini sur l’espace de probabilité filtré (Ω, F, F, P) est dite martingale si:
i) E[|Mt |] < ∞ ∀t ∈ {0, 1, .., 2}
ii) E[Mt |Fs ] = Ms ∀s < t

Si la condition (ii) est vérifié avec ≥, alors M est appelée sous-martingale (respectivement sur-
martingale si ≤)

Exemples
Le mouvement brownien génère plusieurs exemple de martingales.
Le mouvement brownien avec dérive linéaire (µt + Wt , t ∈ R+ ) est:
• Sous-martingale si la dérive est croissante (µ ≥ 0)
• Sur-martingale si la dérive est décroissante (µ ≤ 0)
8 CHAPTER 1. INTRODUCTION

Exercice
Montrer que les processus suivants sont des martingales:
i) Wt
ii) Wt2 − t
2
iii) exp(a ∗ Wt − a2 t)

• i) Wt est adapté par construction.


Wt ∼ N (0, t) donc on a E[|Wt |] = E[Z] avec Z une v.a dont la densité est donné par
2
z
pZ (z) = √2πt exp( −z
2t )
R∞
0
z ∗ pZ (z)dz = √2t2πt
<∞
Donc Wt est intégrable et pour s < t:
E[Wt |Fs ] = Ws ⇐⇒ E[Wt − Ws |Fs ] = 0 ⇐⇒ E[Wt − Ws ] = 0 ce qui est le cas. Donc Wt est
martingale

• ii) E[|Wt2 − t|] ≤ E[Wt2 ] + t ≤ 2t ≤ ∞


∀s ≤ t E[Wt2 − t|Fs ] = Ws2 − s ⇐⇒ E[Wt2 − Ws2 |Fs ] = t − s
E[Wt2 − Ws2 |Fs ] = E[(Wt − Ws )2 + 2Wt Ws − 2Ws2 | Fs ] = E[(Wt − Ws )2 | Fs ] + E[2Wt Ws −
2Ws2 | Fs ] = E[(Wt − Ws )2 | Fs ] = t − s

Soit X une martingale à temps continu. La fonction t → E[Xt ] est continue ) droite ssi il existe
une modification Y de X qui est càdlàg.

Théorème de Doob: Échantillonnage aléatoire non anticipatif des martingales

Le théorème d’arrêt de Doob traduit le fait que si un jeu est équilibré (ou au contraire favorable à
l’une des parties), cette propriété reste vraie si l’on échantillonne le processus à des instants aléatoires
pourvu que ces instants aléatoires soient choisis de façon non anticipative.

Définition: Processus arrêté

Soient un processus X et un temps d’arrêt τ construit sur le même espace probable flitré (Ω, F, F).
Le processus X τ défini par:
Xtτ (ω) = Xinf (t,τ (ω)) (ω)
est dit processus arrêté par τ

Théorème: martingale arrêté

Si la martingale M et le temps d’arrêt τ sont construits sur le même espace de probabilité filtré
(Ω, F, F, P) alors le processus arrêté M τ est lui aussi une martingale sur cet espace.

Preuve
M0τ = M0 Donc M0τ est F0 -mesurable.
Pt−1
Mtτ = k=0 (1{τ =k} Mk ) + 1{τ ≥k} Mt
∀t ∈ {1, 2...}, 1{τ =k} est Fk mesurable car {τ = k} ∈ Fk et Mk est Fk mesurable car M est adapté.
Or Fk ⊂ Ft . Donc ils sont aussi Ft -mesurables.
{τ ≥ t} = {τ = t} ∪ {τ ≤ t}c ∈ Ft
Donc 1{τ ≥t} est Ft mesurable.
Aussi ∀t ∈ N Mtτ est Ft mesurable.

Vérification de la première condition:


E[|M0τ |] = P
E[M0 ] < ∞
t
E[|Mtτ |] ≤ k=0 −1E[|Mk |] + E[|Mt |] < ∞ car M est intégrable.

Vérification de la deuxième condition:


∀t ∈ {1, 2..} Mtτ − Mt−1
τ
= 1{τ =t−1} Mt−1 + 1{τ ≥t} Mt − 1{τ ≥t−1} Mt−1 = 1{τ ≥t} (Mt − Mt−1 )
On peut donc calculerE[Mtτ − Mt−1 τ
|Ft−1 ] = E[1{τ ≥t} (Mt − Mt−1 ) |Ft−1 ]
9. MARTINGALE 9

{τ ≤ t − 1}c ∈ Ft−1 et donc 1{τ ≥t} est Ft−1 -mesurable.


Donc, E[1{τ ≥t} (Mt − Mt−1 ) = 1{τ ≥t} E[(Mt − Mt−1 ) |Ft−1 ] = 0 car M est martingale.

Théorème: Optional sampling theorem

Soit X = (Xt , t ∈ {0, 1, 2...}) un processus construit sur l’espace de probabilité filtré (Ω, F, F, P)
avec card(Ω) < ∞. Supposons que X est F-adapté et qu’il est intégrable. X est une martingale ssi
E[Xτ ] = E[X0 ] pour tout temps d’arrêt borné τ .

τ est dit borné s’il existe une constante b telle que:


0 ≤ τ (ω) ≤ b ∀w ∈ Ω

Preuve
Première partie: Supposons que X est une martingale et montrons que E[Xτ ] = E[X0 ] pour tout le
temps d’arrêt
Pbborné. Pb
E[Xτ ] = E[ k=0 1{τ =k} Xk ] = E[ k=0 (1{τ ≥k} − 1{τ ≥k+1} )Xk ]
Pb Pb
Or k=0 1{τ ≥k} Xk = X0 + k=1 1{τ ≥k}
Pb Pb−1 Pb
et k=0 1{τ ≥k+1} = k=0 1{τ ≥k+1} Xk = k0 =1 1{τ ≥k0 } Xk0 −1
Pb
Donc E[Xτ ] = E[X0 ] + k=1 E[1{τ ≥k} (Xk − Xk−1 )]
De plus, on a E[E[1{τ ≥k} (Xk − Xk−1 )|Fk−1 ]] = 0 car X est une martingale.
Et E[E[1{τ ≥k} (Xk − Xk−1 )|Fk−1 ]] = E[1{τ ≥k} E[Xk − Xk−1 |Fk−1 ]
Donc on a bien E[Xτ ] = E[X0 ]

Deuxième partie:
Supposons que pour tout temps d’arrêt τ borné, E[Xτ ] = E[X0 ] et montrons que le processus adapté
et intégrable X est une martingale. Fixons s, t ∈ {0, 1, 2, ...}s < t Notons P = {A1 , A2 ...} la partition
finir de Ω qui engendre Fs .
s si ω ∈ Ai

Pour tout i ∈ {1, .., n} on construit Si =
t sinon
{Si = s} = Ai ∈ Fs
{Si = t} = Aci ∈ Fs ⊂ Ft
Donc Si est un temps d’arrêt borné E[XSi ] = E[X0 ]
la v.a τ (ω) = t est un temps d’arrêt borné.
Donc E[Xt ] = E[X0 ]
Alors ∀i ∈ {1, 2, .., n} E[Xt − XSi ] = 0
0P= E[(Xt − XSi )1Ai + (Xt − XSi )1Aci ] = E[(Xt − Xs )1Ai + (Xt − Xt )1Aci ] = E[(Xt − XSi )1Ai ] =
ω∈Ai (Xt (ω) − Xs (ω))P{ω} P
Nous venons de montrer que ω∈Ai (Xt (ω))P{ω} = ω∈Ai (Xs (ω))P{ω}
P
Pn 1
P P n 1
P
E[Xt |Fs ](ω) = i=1 1Ai P(A i) ω̃∈Ai Xt (ω̃)P(ω̃) = i=1 1Ai P(Ai ) ω̃∈Ai Xs (ω̃)P(ω̃) = E[Xs |Fs ] =
Xs
La condition (ii) d’une martingale est vérifié.
10 CHAPTER 1. INTRODUCTION
Chapter 2

Intégrale Stochastique

1 Introduction
Question: La dérivée dW dt existe-elle?
t

La dérivée est définie par limh→0 W (t+h)−Wh


(t)
(1)
Une limite finie i.e, une v.a réelle.
Nous avons trois types de limites pour les variables aléatoires: en probabilité, en moyenne quadratique
(L2), presque sûrement.
W (t+h)−W (t)
h a une limite en probabilité infinie quand h → 0
Nous disons que limh→0 (P) W (t+h)−Wh
(t)
= ∞ si pour toute constante c > 0 on a
W (t+h)−W (t)
P{| h | ≥ c} →h→0 1
Pour h 6= 0, W (t + h) − W (t) ∼ N (0, |h|), alors W (t+h)−W
h
(t)
∼ N (0, |h|−1 )
Pour c une constante positive on a: q
Rc x2 |h|
P{| W (t+h)−W
h
(t)
| ≤ c} = −c
√ 1
−1
exp(− 2|h|−1 )dx ≤ 2π 2c
2π|h|

Pour l’évènement At = {w ∈ Ω : une limite finie limh→0 W (t+h)−W


h
(t)
existe}. On a P (At ) = 0

2 Intégrale stochastique par rapport au processus de Wiener


Rb
Question: comment est définie l’intégrale stochastique a
f (t, w)dWt d’une fonction aléatoire f (t, w)

Première étape
Pour une fonction aléatoire en escalier:
f (t, w) = Y1 (w)1[t0 ,t1 [ + Y2 (w)1[t1 ,t2 [ + ... + Yn 1[tn−1 ,tn ]
Rb Pn
(Y1 , ...Yn ) nous posons a f (t, w)dWt = i=1 Yi (Wti − Wti−1 )(2)
Rb
L’intégrale stochastique (2) est linéaire par rapport à l’intégrande: pour une constante c on a a
cf (t, w)dWt =
Rb
c a f (t, w)dWt
Rb Rb Rb
et a f1 (t, w) + f2 (t, w)dWt = a f1 (t, w)dWt + a f2 (t, w)dWt

Deuxième étape
Comme dans l’intégrale de Riemann nous approximons l’intégrale aléatoire par des fonctions aléa-
toires en escalier et nous prenons comme définition de l’intégrale stochastique la limite des intégrales
stochastiques des fonctions approximantes.
Question: Quelle est la classe des fonctions aléatoires que nous allons intégrer?

Définition
Nous disons qu’une fonction aléatoire f (t, w), t ∈ [a, b] est déterminée par le passé du processus de
Wiener (ou encore non anticipatif) si pour chaque t ∈ [a, b] la v.a f (t, w) peut être représentée comme
fonctionnelle des valeurs Ws du processus de Wiener aux instants précédant t:
f (t, w) = fct (t; Ws (w), s ≤ t)
Pour une fonction aléatoire en escalier f (t, w) = Yi (w) pour t ∈ ]ti−1 , ti ] doit être représentée comme

11
12 CHAPTER 2. INTÉGRALE STOCHASTIQUE

fonctionnelle de Ws pour s inférieur à tout instant dans ]ti−1 , ti ]. Il suffit que Yi soit fonctionnelle de
Ws s ≤ ti−1

Yi (w) = fct (Ws (w), s ≤ ti−1 ) (3)

Proposition
Pour une fonction aléatoire en escalier vérifiant (3), si les espérances E[Yi2 ] < ∞, alors:
Rb
E[ a f (t, w)dWt ] = 0 (4)
Rb Rb
E[( a f (t, w)dWt )2 ] = a E[f (t, w)2 ]dt (5)

Preuve Pn
OnPveut montrer que E[ i=1 PYni (Wti − Wti−1 )] = 0
n
E[ i=1 Yi (Wti − Wti−1 )] = i=1 E[Yi (Wti − Wti−1 )]
EtPpuisque Yi = fct (Ws , s ≤Pti−1 ) alors Yi est indépendante de l’accroissement Wti − Wti−1 Donc,
n n
E[ i=1 Yi (Wti − Wti−1 )] = i=1 E[Yi ]E[(Wti − Wti−1 )] = 0
Pn Pn
On veutPmontrer que si E[Yi2 ] < ∞ alors E[( i=1 Yi (Wti P − Wti−1 ))2 ] = i=1 E[Yi2 ](ti − ti−1 )
n n n
On a ( i=1 Yi (Wti − Wti−1 ))2 = i=1 Yi (Wti − Wti−1 ) ∗ j=1 Yj (Wtj − Wtj−1 )
P
Pn
= i=1 Yi2 (Wti − Wti−1 )2 + 2 1≤i<j≤n Yi (Wti − Wti−1 )Yj (Wtj − Wtj−1 )
P

L’espérance du ime terme de la première somme est égale à E[Yi2 ](ti − ti−1 ). Puisque les espérances
du i ème et du j ème terme de la première somme sont finies, alors l’espérance du (i,j) ème terme de
la deuxième somme est finie (Cauchy Schwarts)
E[Yi (Wti − Wti−1 )Yj (Wtj − Wtj−1 )]:
Yi = fct (Ws , s ≤ ti−1 et Yj = fct (Ws , s ≤ tj−1 avec ti < tj
Yi , Wti − Wti−1 et Yj snt indépendants de Wtj − Wtj−1 donc:
E[Yi (Wti − Wti−1 )Yj (Wtj − Wtj−1 )] = E[Yi (Wti − Wti−1 )Yj ]E[Wtj − Wtj−1 ]
Or E[Wtj − Wtj−1 ] = 0

La deuxième étape dans la définition de l’intégrale stochastique est un passage à la limite. Soit
f (t, w), a ≤ t ≤ b une fonction aléatoire déterminée par le passé du processus de Wiener. Pour une
partition T de l’intervalle [a, b], a = t0 < t1 .. < tn = b. Introduisons la fonction en escalier:
fT (t, w) = f (t0 , w)1[t0 ,t1 ] + ... + f (ti−1 , w)1]ti−1 ,ti ] + .. + f (tn−1 , w)1]tn−1 ,ti ]

Théorème
Si f (t, w), a ≤ t ≤ b est une fonction aléatoire non anticipative de carré intégrable et uniformément
continue m.q (moyenne quadratique) sur [a, b]. Alors la limite en moyenne quadratique:
Rb
l.i.mmax1≤i≤n (ti −ti−1 )→0 a fT (t, w) existe. Cette limite est prise comme définition de l’intégrale
Rb
stochastique de f : a f (t, w)dWt

Annexe: Principe de Cauchy de convergence en moyenne quadratique

La limite en m.q l.i.mn→∞ Xn existe ssi l.i.mn,m→∞ Xn − Xm = 0


Le principe de Cauchy en m.q est aussi vrai pour toutes les autres variétés de limites en m.q. En
particulier si on a une fonction aléatoire YT d’une partition T de l’intervalle [a, b]
l.i.mmax1≤i≤n (ti −ti−1 )→0 YT existe ssi
l.i.mmax1≤i≤n (ti −ti−1 )→0max1≤j≤n0 (t0j −t0j−1 )→0 YT − YT 0

Preuve
Rb
Pour prouver l’existence de la limite en m.q de a fT (t, w)dWt nous devons vérifier que pour:
Rb
YT = a fT (t, w)dWt que
l.i.m YT − YT 0 = 0
max1≤i≤n (ti − ti−1 ) → 0
max1≤j≤n0 (tj − tj−1 ) → 0
Rb Rb
⇐⇒ limE[( a fT (t, w)dWt − a fT 0 (t, w)dWt )2 ] = 0
D’après (5) vérifiée par les fonctions en escalier aléatoire:
2. INTÉGRALE STOCHASTIQUE PAR RAPPORT AU PROCESSUS DE WIENER 13

Rb Rb
E[( a (fT (t, w) − fT 0 (t, w))dW t)2 ] = a E[(fT (t, w) − fT 0 (t, w))2 ]dt
On doit prouver que cette intégrale tend vers 0 quand les deux partitions T et T 0 deviennent suffisam-
ment finies.
f (t, w) est uniformément continue sur [a, b]. Soit  ≥ 0 correspondant: pour s, t ∈ [a, b]

|s − t| <  → E[(f (s, w) − f (t, w))2 ] < b−a
Pour chaque t ∈ [a, b] notons ti−1 et tj−1 les extrémités gauches des intervalles qui contiennent t des
0

partition T et T 0 respectivement:
|ti−1 − t0j−1 | < δ → E[(f (ti−1 , w) − f (t0j−1 , w))2 ] = E[(fT (t, w) − fT 0 (t, w))2 ] < b−a

Rb
D’où a E[(fT (t, w) − fT 0 (t, w))2 ]dt < 

Deux remarques sur l’intégrale stochastique par rapport aux processus de Wiener.

Les intégrales stochastiques de fonction aléatoires sont linéaires par rapport à l’intégrande:

Rb Rb
• a
cf (t, w)dWt = c f (t, w)dWt
a
Rb Rb Rb
• a f1 (t, w) + f2 (t, w)dWt = a f1 (t, w)dWt + a f2 (t, w)dWt
Mais contrairement aux fonctions aléatoires en escalier par lesquelles ces égalités sont satisfaites pour
tout w ∈ Ω, dans le cas général elles le sont uniquement presque sûrement.

C’est par passage à la limite des formules (4) et (5) pour les fonctions aléatoires en escalier que
nous
R b obtenons:
E[ a f (t, w)dWt ] = 0
Rb Rb
E[( a f (t, w)dWt )2 ] = a E[f (t, w)2 ]dt
car la convergence dans L2 implique la convergence du moment d’ordre 1 et du mouvement d’ordre 2.

Exercice
Montrer que si E[X 2 ] < ∞, alors E[(E[X|yt , t ∈ T ])2 ] < ∞ et ||E[X|yt , t ∈ T ]|| < ||X||
1/ Par définition pour une v.a X de carré intégrale et g une sous tribu de F, il existe une v.a y réelle

de carré intégrale et g-mesurable unique vérifiant: ∀Z ∈ L2 (Ω, g, P) E[ZX] = E[ZY ]


Elle est appelée espérance conditionnelle de X sachant g, notée E[X|g]. Dans ce cas particulier on a
g = σ(yt , t ∈ T )
E[X 2 ] = E[(X − E[X|yt , t ∈ T ] + E[X|yt , t ∈ T ])2 ]

= E[E[X|yt , t ∈ T ]2 ] + 2 ∗ E[E[X|yt , t ∈ T ]2 ∗ (X − E[X|yt , t ∈ T ]2 ])] + E[(X − E[X|yt , t ∈ T ]2 ])2 ]


Le premier terme du second membre est égal à ||E[X|yt , t ∈ T ]||2 et le troisième terme est positif ou
nul.
Formule des espérances totale:
E[E[X|yt , t ∈ T ]2 ∗ (X − E[X|yt , t ∈ T ]2 ])] = E[E[..|yt , t ∈ T ]]
= 0 car E[(X − E[X|yt , t ∈ T ]|yt , t ∈ T ] = 0
E[X|yt , t ∈ T ] = E[E[X|yt , t ∈ T ]|yt , t ∈ T ] = 0

Proposition
Rt
L’intégrale stochastique Xt = 0 f (t, w)dWt du processus de Wiener est une martingale.

Preuve
Pour une v.a A, posons A+ = max(0, A), A− = max(0, −A). On a A = A+ + A−
A admet une espérance si E[A+ ] < ∞ ou E[A− ] < ∞
A est intégrable si E[A+ ] < ∞ et E[A− ] < ∞
Or, E[Xt ] = 0 X est intégrable
Rappel: C.S |E[XY ]| ≤ E[X 2 ]E[Y 2 ] et donc E[|Xt |] ≤ E[Xt2 ]
p p
Rt
Or E[Xt2 ] = 0 E[f (t0 , w)2 ]dt < ∞
Nous voulons montrer que t0 ≤ t < s:
Rs Rt
E[ t0 f (u, w)dWu − t0 f (u, w)dWu |Wu , u ≤ t] = 0
14 CHAPTER 2. INTÉGRALE STOCHASTIQUE

Pn
Considérons d’abord les fonctions aléatoires en escalier f (s, w) = i=1 Yi (Wu , u ≤ ti−1 1]ti−1 ,ti ] sans
perde de généralité:
t = tm < tm−1 < ... < tn = s Pn
DansPnce cas nous devons montrer que E[ P i=m+1 Yi (Wti − Wti−1 )|Wu , u ≤ t] = 0
n
E[ i=m+1 Yi (Wti − Wti−1 )|Wu , u ≤ t] = i=m+1 E[Yi (Wti − Wti−1 )|Wu , u ≤ t]
E[E[Yi (Wti − Wti−1 )|Wu , u ≤ ti−1 ]||Wu , u ≤ t]
= E[Yi E[Wti − Wti−1 |Wu , u ≤ ti−1 ]|Wu , u ≤ t]
= E[Yi E[Wti − Wti−1 ]|Wu , u ≤ t] = 0 car E[Wti − Wti−1 ] = 0
L’ingégrale stochastique d’une fonction aléatoire abritraire est définie comme la limite en m.q d’ingégrales
stochasqitques
Rs de fonctions en escalier: R
t
f
t R
(u, w)dW u = l.i.mmax1≤i≤n (ti −ti−1 )→0 s fT (u, w)dWu
s Rs Rs Rs
||E[ t fT (u, w)|Wu , u ≤ t]−E[ t f (u, w)dWu |Wu , u ≤ t]|| = ||E[ t fT (u, w)dWu − t f (u, w)dWu |Wu , u ≤
t]|| R
s Rs
≤ || t fT (u, w)dWu − t f (u, w)dWu || → 0
Quand le pasde la partition tends versR 0.
t Rs
On déduit l.i.mmax1≤i≤n (ti −ti−1 )→0 E[ s fT (u, w)dWu |Wu , u ≤ t] = E[ t f (u, w)dWu |Wu , u ≤ t]
Rs
D’ou E[ t f (u, w)dWu |Wu , u ≤ t] = 0

3 Semi-Martingale
Définition
Un processus X adapté et càdlàg est une semi-martingale s’il a une représentation de la forme:
X = X0 + M + A
avec M une martingale locale càdlàg et A un processus à variation finie, les deux étant nuls à t = 0
Si X est continue, alors M et A peuvent être choisis continues.

Processus à variation finie


Un processus est dit croissant si ses trajectoires sont des fonctions continues à droite, positives et
croissantes.
Un processus est dit à variation finie s’il est la différence de deux processus croissants.
Un processus à variation Pfinie est càdlàg, et il est à variation bornée sur tout intervalle fini: Pour
n
a = t0 < t1 < ... < tn = b i=1 |Ati − Ati−1 | ≤ c

Martingale locale
Un processus X sur un espace de probabilité filtré (Ω, F, F, P) est une martingale locale s’il existe une
suite de temps d’arrêt {Tn } croissant vers +∞ P-p.s et chaque processus arrêté X Tn est une martingale

Martingale localement de carré intégrable.


Un processus X sur un espace de probabilité filtré (Ω, F, F, P) est une martingale de carré intégrable
s’il existe une suite de temps d’arrêt {Tn } croissant vers +∞ P-p.s et chaque processus arrêté X Tn
est une martingale de carré intégrable.

Lemme
Pour toute semi-martingale X il existe une décomposition X = X0 + M + A où M est une martingale
localement de carré intégrable càdlàg et A un processus adapté à variation finie.

4 Variation quadratique
Définition
La covariation quadratique [X, Y ] de deux semi-martingales X et Y est une version càdlàg du proces-
sus suivant:
XY − X0 Y0 R− X − . Y − Y − . X où
t
(X . M )t = 0 Xs dMs
Le processus [X, X] noté [X] est appelé variation quadratique de la semi-martingale X
4. VARIATION QUADRATIQUE 15

Formule d’intégration par parties (6)


[X, Y ] = XY − X0 Y0 − X − . Y − Y − . X

La covariation quadratique est mieux expliquée par le théorème suivant qui peut être considéré
comme une deuxième définition de [X, Y ]

Théorème
Pour toute paire de semi-martingale, pour chaque t et pour toute suite de partition de l’intervalle
[0, t]: 0 = tn0 < tn1 < ... < tnkn = t de pas tendant vers 0 quand n → +∞
Pkn P
i=1 (Xti − Xti−1 )(Yti − Yti−1 ) →n→∞ [X, Y ]t
n n n n

Remarques

• Il est clair d’après le théorème que le processus variation quadratique [X] peut être choisi crois-
sant.
• On montre que: 4[X, Y ] = [X + Y ] − [X − Y ]. Donc le processus covariation quadratique de
deux semi-martingales est un processus à variation finie.

Variation quadratique du mouvement brownien


Rt Rt
Xt = X0 + 0 f (s, w)ds + 0 g(s, w)dWs
dX = f (t, w)dt + g(t, w)dWt
Pktn
i=0 (Bt − Bti−1 ) →n→∞ t d’après la question a) de l’EX 16
n n
2 m.q

La convergence en m.q implique la convergence en probabilité. Donc [B]t = t

Exercice
Soit X un processus continu à variation finie. Calculer la variation quadratique de Y = X + B

Nous voulons montrer que la variation quadratique du mouvement brownien n’est pas altérée en
lui ajoutant un processus continu à variation finie.
(n) (n) (n) (n) (n) (n)
(Yti+1 − Yti )2 = i (Bti+1 − Bti + Xti+1 − Xti )2
P P
iP
2 2
P P
= i Bi + 2 i ∆Bi ∆Xi + i ∆Xi
Le premier terme converge vers t quand n → ∞
Le deuxième terme converge vers 0 quand n → ∞ En effet,
P (n) (n) (n) (n) (n) (n) Pkn −1 (n) (n)
| i (Bti+1 − Bti )(Xti+1 − Xti )| ≤ max0≤i≤kn −1 |Bti+1 − Bti | ∗ i=0 |Xti+1 − Xti |
Le max tends vers 0 presque surement car B est continue
La somme est ≤ à une constante car les trajectoires de X sont à variations bornée sur tout segment
finie.
Idem pour le 3ème terme et converge p.s vers 0 quand n → ∞

Puisque la covariation quadratique [X, Y ]est un processus à variation finie, les intégrales du type:
Rt
Z
0 s
d[X, Y ]s
peuvent être définies comme des intégrales de Lebesgue Stieltjes pour chaque paire de trajectoires
Zs (w) et [X, Y ]s (w)

Lemme
• Pour tout processus Z prévisible localement borné et toute paire semi-martingales X,Y: [Z.X, Y ] =
Z.[X, Y ]
• Soient M,N deux martingales localement de carré intégrable et X,Y deux
R t processus prévisibles
localement bornés alors: [X.M, Y.N ] = XY.[M, N ] i.e [X.M, Y.N ]t = 0 Xs Ys d[M, N ]s

Formule D’Itô pour les processus continus


Soit X = (X 1 , ...X d ) un vecteur de semi-martingales continues. Alors pour toute fonction f : Rd → R
16 CHAPTER 2. INTÉGRALE STOCHASTIQUE

de classe C 2 on a presque
Pd R t sûrement: Pn Rt
f (Xt ) − f (X0 ) = i=1 0 Di f (Xs )dXsi + 12 i,j=1 0 Di,j f (Xs )d[X i , X j ]s
Pd
df (Xt ) = i=1 Di f (Xt )dXti + 21 i,j=1 Di,j f (Xt )d[X i , X j ]
P
Où Di,j f (Xs ) est la dérivée partielle seconde de f par rapport à xi , xj

Remarque
La formule d’intégration par parties est la formule d’Itô pour les polynômes de degré 2:
Xt Yt − X0 Y0 = (X.Y )t + (Y.X)t + [X, Y ]t

Preuve pour d=1


Nous allons établir la formule d’Itô pour tous les polynômes et ensuite généraliser aux fonctions lisses
par approximation.

Supposons que la Rformule d’Itô est vrai pour les fonctions g et g et montrons qu’elle est vraie pour gf
t
f (Xt ) − f (X0 ) = 0 f 0 (Xs )dXs + 12 f 00 (Xs )d[X]s
Rt 0
g(Xt ) − g(X0 ) = 0 g (Xs )dXs + 12 g 00 (Xs )d[X]s
f (Xt ) est une semi-martingale. En effet, soit X = X0 + M + A la décomposition de X. Alors f (X) a
pour décomposition f (X) = f (X0 ) + M̃ + Ã
Rt
M̃t = 0 f 0 (Xs )dMs
Rt 0 Rt
Ãt = 0 f (Xs )dAs + 21 0 f 00 (Xs )d[X]s
Idem pour g(X)
Appliquons la formule d’intégration par parties avec f (X) et g(X) :
f (Xt )g(Xt ) − f (X0 )g(X0 ) = (f (X).g(X))t + (g(X).f (X))t + [f (X), g(X)]t = (1) + (2) + (3)
Rt
(1) = 0 f (Xs )dg(Xs )
dg(Xs ) = g 0 (Xs )dXs + 12 g 00 (Xs )d[X]s
Rt Rt
(1) = 0 f (Xs )g 0 (Xs )dXs + 12 0 f (Xs )g 00 (Xs )d[X]s
Rt Rt
(2) = 0 f (gs )f 0 (Xs )dXs + 12 0 g(Xs )f 00 (Xs )d[X]s
La covariation quadratique [f (X), g(X)] est égale à la covariation quadratique des parties martingales
locales des semi-martingales f (X) et g(X)
[f (X), g(X)] = [f 0 .M, g 0 .M ] = f 0 g 0 .[M ] = f 0 g 0 [X]
En remplaçant les trois termes du membre droit pour leur expressions on obtient:
f (Xt )f (Xt )−f (X0 )f (X0 ) = ((f 0 (X)g(X)+f (X)g 0 (X)).X)t + 12 ((f 00 (X)g(X)+f (X)g 00 (X)+2f 0 (X)g(X)).[X])t =
((f g)0 .X)t + 21 ((f g)00 .[X])t
Ainsi la formule d’Itô est vérifié pour f ∗ g et par suite elle est vérifiée pour tous les polynômes.

Approximation
Il existe une suite de polynômes (fn ) telle que:
fn → f fn0 → f 0 et fn00 → f 00 une fonction lisse générale f
Rt Rt
La formule d’Itô appliquée à fn :fn (Xt ) − fn (X0 ) = 0 fn0 (Xs )dXs + 12 0 fn00 (Xs )d[X]s
fn (X(s, w)), fn0 (X(s, w)), fn00 (X(s, w)) ces trois suites convergent point par point sur R+ xΩ vers
f (X(s, w)), f 0 (X(s, w)), f 00 (X(s, w)). Lorque n → ∞ dans la formule d’Itô les intégrales convergent
en
R t probabilité vers leurs
R t homologues écris avec f à la place de fn .
0 P 0
f (X )dX → f (X )dX
R0t n00 s s n→∞ 0
P
R t 00 s s

0
f n (X s )d[X] s → n→∞ f (Xs )d[X] s
R0t Rt
Ainsi f (Xt ) − f (X0 ) = 0 f 0 (Xs )dXs + 12 0 f 00 (Xs )d[X]s puisque la limite en probabilité est unique
au sens de v.a égale p.s alors l’égalité est vérifié p.s.
Chapter 3

Équations Stochastiques

EDO dX dt = f (t, Xt ) t > t0


t

et Xt0 = x0

EDS (1) dXt = f (t, Xt )dt + g(t, Xt )dWt t > t0


et Xt0 = x0

Preuve d’existence de solutions de l’EDS (1)


Soient f (t, x) et g(t, x), t ≥ t0 , deux fonctions continues et l’EDS (1) accompagnée de la condition
initiale Xt0 = x0 . Le processus Xt est supposé être déterminé par le passé du processus de Wiener et
avoir presque sûrement des trajectoires Xt (x) continues.
Nous allons montrer que si f et g vérifient une condition de Lipchitz |f (t, x) − f (t, y)| ≤ c|x − y| et
|g(t, x) − g(t, y)| ≤ c|x − y|. Alors une solution Xt , t ≥ t0 de (1) existe.

Approximations successives
(0)
Xt = x0
(n) Rt Rt
Xt = x0 + 0 f (s, Xsn−1 )ds + 0 g(s, Xsn−1 )dWs
(n)
On admet que pour tout n, sur tout intervalle fini [t0 , t0 + T ], le Xt

• est déterminé par le passé du processus de Wiener

• est de carré intégrable

• est continu (en t) en moyenne quadratique

• est à trajectoires continues presque sûrement

f (t, 0), g(t, 0) sont continues en t donc sur tout intervalle [t0 , t0 + T ]
|f (t, 0)| ≤ K
|g(t, 0)| ≤ K
|f (t, x)| − |f (t, 0)| ≤ |f (t, x) − f (t, 0)| ≤ c|x|
→ |f (t, x)| ≤ c|x| + K
idem |g(t, x)| ≤ c|x| + K
Nous allons démontrer par récurrence que pour tout n = 1, 2.. et sur tout intervalle fini [t0 , t0 + T ]
n/2
(n)
||Xt − Xtn−1 || ≤ c1 (c2 )n−1 (t−t
√0
)
n!
(2)
n
(n)
E[(Xt − Xtn−1 )2 ] ≤ c21 (c2 )2(n−1) (t−t0)
n! (3)
(2) ⇐⇒ (3)

Pour n = 1 qR
(1) Rt Rt Rt t
||Xt − Xt0 || = || t0 f (s, x0 )ds + t0 g(s, x0 )dWs || ≤ t0 ||f (s, x0 )||ds + t0
E[g(s, x0 )2 ]ds
Rt q Rt
≤ t0 |f (s, x0 )|ds + t0
g(s, x0 )2 ds
p
≤ (K + c|x0 |)(t − t0 ) + (K + c|x0 |)2 (t − t0 )
≤ c1 (t − t0 )1/2 √
avec c1 = (K + c|x0 |)(1 + T )
Aussi (2) et (3) sont vérifiées pour n=1

17
18 CHAPTER 3. ÉQUATIONS STOCHASTIQUES

Supposons que (2) et (3) sont vérifiées pour n-1


(n−1)/2
(n−1)
||Xt − Xtn−2 || ≤ c1 (c2 )n−2 (t−t
√0 ) (2)
(n−1)!
n−1
(n−1) 2(n−2) (t−t0 )
E[(Xt n−2 2 2
− Xt ) ] ≤ c1 (c2 ) (n−1)! (3)
Rt qR
(n) n−1 (n−1) (n−2) t (n−1) (n−2)
||Xt − Xt || ≤ t0 ||f (s, Xs − f (s, Xs ||ds(1) + t0
E[(g(s, Xs − g(s, Xs ))2 ds](2)
La condition de Lipschitz sur f et g implique:
Rt (n−1) (n−2)
(1) ≤ c t0 ||Xs − Xs ||ds
Rt (n−1) (n−2) 2 Rt (n−1) (n−2) 2
t0
E[(g(s, Xs − g(s, Xs )) ds] ≤ c2 t0 E[(Xs − Xs ) ]ds <
Rt 1−2 (n+1)/2
(n−1) (n−2) c2 c2 (t−t0 ) )
Donc t ||Xs − Xs ||ds ≤ √ c n+1
0 (n−1)! 2
2(n−2
Rt (n−1) (n−2) 2 c2 c2 n

t0
E[(Xs − Xs ) ]ds ≤ 1(n−1)! c (t−tn0 )
(n) (n−1) )n/2

||Xt − Xt || ≤ c1 c(c2 )n−2 (t−t
√0 (1 + 2 T )
n! √
On
p peut prendre
√ pour la récurrence c2 = c(1 + 2 T )

(t − t0 ) ≤ T
n!
p
2 ≤ (n − 1)! n+1
(n) Pn 2 (i) (i−1)
Xt = x0 + i=1 Xt − Xt

(n) Pn (i) (i−1)


||Xt || ≤ |x0 | + i=1 ||Xt − Xt ||
Pn i/2
i−1 (t−t0)
≤ |x0 | + i=1 c1 c2 √
i!
(n) (n)
Donc lorsque n → ∞, Xt converge en m.q vers une limite notée, Xt Xt = l.i.mXt
(n)
Lorsque n → ∞ {Xt } converge en m;q vers X uniformément sur l’intervalle [t0 , t0 + T ]
T√i/2
(n) P∞
supt0 ≤t≤t0 +T ||Xt − Xt || ≤ i=n+1 c1 ci−1
2 i!
La somme tends vers 0 quand n → ∞
(n)
• Le processus limite Xt est déterminé par le passé du processus de Wiener comme les Xt

• Xt est de carré intégrable car la convergence en m.Q implique la convergence du moment d’odre
(n)2
2: E[Xt ] → E[Xt2 ]
• La continuité en m.q se conserve par la convergence en m.q uniforme. Donc le processus X est
continu en t en m.q
(n )
• Il existe une sous-suite (Xt i ) , i = 1, 2... qui converge p.s vers Xt uniformément sur [t0 , t0 + T ]
(n )
Xt i →p.s i→∞ Xt
(ni )
Xt →m.q
i→∞ Xt
Donc X a presque sûrement des trajectoires continues car la continuité p.s se conserve par la
lmimte p.S uniforme.
(n ) Rt Rt
Xt i = x0 + t0 f (s, Xsni −1 )ds + t0 g(s, X ni −1 dWs
Rt Rt
QUand i → ∞ t0 f (s, Xsni −1 )ds →P t0 f (s, Xs )ds
Rt Rt
t0
g(s, X ni −1 dWs →P t0 g(s, Xs dWs
Rt Rt
Xt = x0 + t0 f (s, Xs )ds + t0 g(s, Xs )dWs au sens p.s

Vous aimerez peut-être aussi