Introduction aux Processus Stochastiques
Introduction aux Processus Stochastiques
Rizwan Nato
Contents
1 Introduction 1
1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Variable Aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
3 Processus Aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
4 Mouvement brownien standard, processus de Wiener . . . . . . . . . . . . . . . . . . . 3
5 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
6 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
7 Retour au mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
8 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
9 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Intégrale Stochastique 11
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Intégrale stochastique par rapport au processus de Wiener . . . . . . . . . . . . . . . . 11
3 Semi-Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Équations Stochastiques 17
i
Chapter 1
Introduction
1 Tribu
Si n = card(Ω) < ∞, il y a 2n évènements.
Exemple: Si Ω = {1, 2, ..., 6} correspondant à un lancé de dé. Supposons que l’on s’intéresse à la
variable X:
ω X(ω)
1 0
2 0
3 5
4 5
5 10
6 10
Dans cet exemple, les évènements qui nous intéressent sont ceux qui déterminent la loi de X.
{X = 0} = {ω ∈ Ω : X(ω) = 0} = {1, 2}
{X = 0} = {3, 4}
{X = 0} = {5, 6}
Les propriétés d’une mesure de probabilité font en sorte que si on connaît la probabilité de
l’évènement A, alors on connaît celle de son complémentaire.
Nous sommes capable de déterminer la probabilité associés à l’union d’un certain nombre d’évènements
grâce à la propriété:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Définition Tribu:
Une tribu F sur Ω est un ensemble d’évènements tel que: i) Ω ∈ F
ii) Si A ∈ F, alors Ac ∈ F S
iii) Si A1 , A2 , ... ∈ F, alors i≥1 Ai ∈ F
2 Variable Aléatoire
Définition Variable Aléatoire:
Une variable aléatoire X construite sur l’espace probabilisable (Ω, F) est une fonction à valeurs réelles
1
2 CHAPTER 1. INTRODUCTION
Pour bien exprimer que la tribu F contient les évènements caractérisant la loi de X, on dit que X
est F mesurable
Exemple:
Ω = {1, .., 6} et F = {{1, 3, 5}, {2, 4, 6}, Ω, ∅}
La fonction X : Ω ∈ R qui
vaut 1 si le résultat est parie et 0 sinon est une v.a sur (Ω, F)
{1, 3, 5} ∈ F si x = 0
{ω ∈ Ω : X(ω) = w} = {2, 4, 6} ∈ F si x = 1
∅ sinon
Si card(Ω) < ∞ alors X prends un nombre fini de valeurs {X1 , ..., Xn }. Pour tout i ∈ [[1, n]].
Posons Ai = {ω ∈ Ω : X(ω) = xi Alors P = {A1 , ..., An } est une partition finie de Ω et σ(P) = σ(X )
3 Processus Aléatoire
Une fonction aléatoire est une fonction qui pour chaque valeur de son argument est une variable aléa-
toire.
Une fonction aléatoire est alors un ensemble de v.a construites toutes sur le même espace mesurable
(Ω, F)
Nous allons considérer que les fonction aléatoires d’un argument scalaire réel t ∈ T ⊂ R. De telles
fonctions aléatoires sont appelées aléatoires ou stochastiques.
1/ Soient X et Y deux processus indexés par le même ensemble T et définis sur le même espace
de probabilité (Ω, F, P). Ils sont dit une modification ou encore version l’un de l’autre si ∀t ∈ T fixé
xt = yt P presque sûrement
Il est bien clair que le concept de deux processus indistinguables est plus fort que celui de deux
processus modifications l’un de l’autre.
Exemple:
Soit T une v.a positive non nulle. Soit (Xt = 0) et (yt , t ≥ 0) définit par yt (ω) = 1T =t (ω). Alors Y
est une modification de X:
{ω ∈ Ω : xt (ω) 6= yt (ω)} = {w ∈ Ω : T (ω) = t} car P(T = t) = 0
Cela signifie que ∀t ∈ R+ , xt = yt P-presque sûrement.
X et Y ne sont pas indistinguables P (xt = yt , ∀t ≥ 0) = 0
Proposition
Soit Y une modification de X et supposons que les trajectoires de X et Y sont continues à droite.
Alors X et Y sont indistinguables.
Ainsi P(xt = yt , ∀t ∈ R+ ) = 1
i) Si t0 < .. < tn alors B(t0 ), B(t1 )−B(t0 ), ..., B(tn )−B(tn −1) sont indépendants: Accroissement indépendant
−x2
ii) Si t, s > 0 alors P{B(s + t) − B(s) ∈ A} = A √2πt 1
exp 2t dx : Accroissement stationnaire
R
5 Filtration
Définition: Filtration
Une collection d’une tribu F = (Ft , t ∈ T ) est dite filtration si Fs ⊂ Ft pour tout s ≤ t
Un processus indexé dans T est dit adapté à la filtration si pour chaque t ∈ T , la v.a Xt est Ft
mesurable
La filtration est un formalisme mathématique qui décrit l’information dont on dispose. La définition
traduit le fait que l’information augmente dans le temps.
On dit voir un processus adapté comme un processus qui ne voit pas le futur.
Soit X un processus stochastique, la filtration générée par X notée Fx = (Ftx , t ∈ T ) où Ftx =
σ(xs , s ≤ t). C’est la filtration naturelle de X
Exemple:
Ω = {ω1 , ω2 , ω3 , ω4 } Soit le processus X = (Xt , t ∈ {0, 1, 2, 3}) qui modélise l’évolution d’un prix.
Pour T = R+
C’est la tribu Ft augmentée par les évènements qui se produisent immédiatement après t.
(Ft+ , t ∈ R+ ) est une filtration. On dit que la filtration F est continue à droite si pour chaque t
on a Ft+ = Ft
Il est Ssouvent admis que la tribu F0 contient les évènements de probabilité nulle de la tribu.
F∞ = σ( t≥0 Ft )
4 CHAPTER 1. INTRODUCTION
- De cette façon si une v.a X est Ft mesurable et que Y=X P p.s, alors Y est aussi Ft mesurable
- On dit que la filtration F est P complète
6 Temps d’arrêt
L’échantillonnage aléatoire non anticipatif comporte:
i) Stopping time
ii) Optional time
Exemples
• Le premier instant où l’on obtient pile dans un jeu de pile ou face est-il un temps d’arrêt? Oui
• Le dernier instant sur dix parties où l’on a obtenu pile est il un temps d’arrêt? Non
Exemple en temps discret Reprenons le même processus X = (Xt , t ∈ {0, 1, 2, 3}) qui modélise
l’évolution d’un prix
ω X0 (ω) X1 (ω) X2 (ω) X3 (ω)
ω1 1 0.5 1 0.5
ω2 1 0.5 1 0.5
ω3 1 2 1 1
ω4 1 2 2 2
Nous avons déterminé la filtration naturelle de X.
• Considérons l’instant aléatoire τ modélisant la situation suivante: Nous ne vendons pas au
présent (t=0) mais aussitôt que le prix sera supérieur ou égal à 1
τ (ω1 ) = 2
τ (ω2 ) = 2
τ (ω3 ) = 1
τ (ω4 ) = 1
{ω ∈ Ω : τ (ω) = 0} =6 ∅ ∈ F0
{τ = 1} = {ω3 , ω3 } ∈ F1X
{τ = 2} = {ω1 , ω2 } ∈ F2X
{τ = 3} = ∅ ∈ F3X
τ est bien un stopping time par rapport à FX
• Considérons la situation suivante: On achète aussitôt qu’on sera en mesure de réaliser un profit
plus tard. La v.a τ̃
τ̃ (ω1 ) = 1
τ̃ (ω2 ) = 1
τ̃ (ω3 ) = 0
τ̃ (ω4 ) = 0
τ̃ n’est pas un temps d’arrêt par rapport à FX
T = R+
Définition: Optional time
Une variable aléatoire dans [0, ∞] est une "optional time" par rapport à la filtration F si pour chaque
instant t ∈ T {τ < t} ∈ Ft
On donne l’acronyme càdlàg à un processus dont les trajectoires sont à droite sur [0, ∞[ et ont une
limite à gauche finie en tout point de ]0, ∞[
S est un instant de saut d’un processus càdlàg X
Xs 6= Xs− sur {S < ∞}
∀ω ∈ {S < ∞} X(S(ω), ω) 6= limu↑S(ω) X(u, ω)
On note ∆Xt = Xt − Xt− ∀t ∈ R+
7. RETOUR AU MOUVEMENT BROWNIEN 5
• Si on nous donne {Bt , 0 ≤ t < ∞} sans filtration et si nous savons que B est à accroissements
indépendants et stationnaires et que Bt = Bt − B0 ∼ N (0, t), alors {Bt , FtB ; ≤ t < ∞} est un
mouvement brownien.
• Si {Ft } est une filtration plus large au sens que FtB ⊂ Ft ∀t ≥ 0 et si Bt − Bs est indépendant
de Fs pour tous s < t alors {Bt , Ft ; 0 ≤ t < ∞} est un mouvement brownien
8 Espérance conditionnelle
Cas particuliers
Définition 1
On considère un espace de probabilité (Ω, F, P) avec card(Ω) < ∞ et une partition finie de Ω.
P = {A1 , ..., An } telle que P(Ai ) > 0 ∀i ∈ {1, ..., , }
Soit B ⊂ F la tribu engendrée par P et X une v.a sur (Ω, F, P)P
n
L’espérence conditionnelle de X sachant B notée E[X|B](ω) = i=1 1(ω)Ai P(A1
P
i) ω̃∈Ai X(ω̃)P{ω̃}
Définition 2
On considère un espace de probabilité (Ω, F, P) et une partition finie de Ω, P = {A1 , ..., An }, telle
que P(Ai ) > 0 ∀i = 1, .., n. Soit B ⊂ F la tribu engendrée par P et X avec une v.a sur (Ω, F, P).
L’espérence conditionnelle
Pn de XR sachant B notée E[X|B] est définie par:
1
E[X|B](ω) = i=1 1Ai (ω) P(A i) Ai
XdP
{E[X|B] = xi } = Ai ∈ B
Donc tous les évènements qui caractérisent la v.a E[X|B] sont dans B i.e E[X|B] est B-mesurable.
L’espérence conditionnelle s’exprime à l’aide des probabilités conditionnelles:
Pn Pn
E[X|B](ω) = i=1 1Ai (ω) ω̃∈Ai X(ω̃) P({X(ω̃})∩A i)
P P
P(Ai ) = i=1 1Ai (ω) ω̃∈Ai X(ω̃)P({ω̃}|Ai )
Exemple
Ω = (ω1 , ω2 , ω3 , ω4 ) Soit X = (Xt , t ∈ {0, 1, 2, 3}) définie sur (ω, F) modélisant un prix, et une mesure
de probabilité sur (Ω, F):
Théorème
Soit (Ω, F, P) un espace de probabilité et B une sous tribu. Soit X une v.a.r de carré intégrable. Il
existe une v.a.r Y de carré intégrable et B-mesurable telle que:
6 CHAPTER 1. INTRODUCTION
Soit Y’ est une v.a.r de carré intégrable et B-mesurable vérifiant (1) alors Y’=Y P-p.s
La classe d’équivalence des v.a.r de carré intégrables, B-mesurable et vérifiant (1) s’appelle espérance
conditionnelle de X sachant B notée E[X|B]
Théorème
Soit X une v.a.r intégrable (resp positive) défini sur (Ω, F, P), et B une sous-tribu de F. Il existe une
v.a.r Y intégrable (resp positive) et B-mesurable unique telle que:
∀B ∈ B, B Y dP = B XdP (2)
R R
Proposition
Proposition
• E[1|B] = 1
• Si B = {Ω, ∅} alors E[X|B] = E[X]
• E[λ1 X1 + λ2 X2 |B] = λ1 E[X1 |B] + λ2 E[X2 |B]
• Si X ≤ Y alors E[X|B] ≤ E[Y |B]
• E[E[X|B]] = E[X]
• Si X est B-mesurable alors E[XY |B] = XE[Y |B]
• Si φ est une sous tribu de B alors E[E[X|B]|φ] = E[X|φ] et
E[E[X|φ]|B] = E[X|φ]
• Convergence monotone:
Soit 0 ≤ X1 ≤ .. ≤ Xn ≤ ... une suite croissante de v.a positives (les inégalités sont vérifiées
∀ω ∈ Ω. Il existe
X(ω) = limn→∞ Xn (ω) (possiblement infinie pour certains ω)
Alors E[Xn |B] →n→∞ E[X|B] p.s
• Convergence dominée
Si |Xn | < Y avec Y une v.a.r intégrable et si Xn →n→∞ X p.s
Alors E[Xn |B] →n→∞ E[X|B] p.s
9 Martingale
Une martingale est un processus qui ne contient pas de partie prévisible relativement à l’information
dont on dispose.
Définition
Sur l’espace (Ω, F, P, F) où F = (Ft , t ∈ {0, 1, .., })
Le processus M = (Mt , t ∈ {0, 1...}) à valeur réelles et adapté est une martingale M:
i) E[|Mt |] < ∞ ∀t ∈ {0, 1, .., 2}
ii) E[Mt |Fs ] = Ms ∀s < t
9. MARTINGALE 7
Lemme
Dans la définition d’une martingale la condition
(ii) E[Mt |Fs ] = Ms ∀s < t est équivalente à
(ii bis) E[Mt |Ft−1 ] = Mt−1
Exemple
ω ζ1 ζ2 ζ3 P Q
ω1 -1 -1 -1 1/8 1/2
ω2 -1 -1 1 1/8 1/14
ω3 -1 1 -1 1/8 1/14
ω4 -1 1 1 1/8 1/14
ω5 1 -1 -1 1/8 1/14
ω6 1 -1 1 1/8 1/14
ω7 1 1 -1 1/8 1/14
ω8 1 1 1 1/8 1/14
F =ensemble des parties de Ω. Nous utilisons la filtration composée :
F0 = {∅, Ω}
F1 = σ(ζ1 )
F2 = σ(ζ1 , ζ2 )
F3 = σ(ζ1 , ζ2 , ζ3 )
F = {F0 , F1 , F2 , F3 , }
Le process M défini par : M0 = 0, M1 = ζ1 , M2 = ζ1 + ζ2 et M3 = ζ1 + ζ2 + ζ3
M est-il martingale sur (Ω, F, F, P)?
Oui pour P :
∀t ∈ {0, 1, 2, 3}, E[|Mt |] ≤ 3
E(M1 |F0 ) = E(M1 ) = M0 car F0 = {Ω, ∅)
F1 est engendrée par la partition P 1 = {{w1 , ...w4 }, {w5 , ..w8 }} = {A11 , A12 } et donc
1/8 1/8
E(M2 |F1 ) = 1A21 (−2 ∗ 1/2 ∗ 2) + 1A22 (2 ∗ 1/2 ∗ 2) = M1
E(M 3|F2 ) = .... = M2
Non pour Q
∀t ∈ {0, 1, 2, 3}, E[|Mt |] ≤ 3
E(M1 |F0 ) = E(M1 ) = −6/14 6= M0
Le fait qu’un processur soit une martingale dépend de la filtration et de la mesure de probabilité.
C’est pourquoi on note: (F, P)-martingale.
Définition
Un processus stochastique M = (Mt , ∀t ∈ R+ ) à valeurs dans R, adapté à la filtration F = (Ft , ∀t ∈
R+ ) et défini sur l’espace de probabilité filtré (Ω, F, F, P) est dite martingale si:
i) E[|Mt |] < ∞ ∀t ∈ {0, 1, .., 2}
ii) E[Mt |Fs ] = Ms ∀s < t
Si la condition (ii) est vérifié avec ≥, alors M est appelée sous-martingale (respectivement sur-
martingale si ≤)
Exemples
Le mouvement brownien génère plusieurs exemple de martingales.
Le mouvement brownien avec dérive linéaire (µt + Wt , t ∈ R+ ) est:
• Sous-martingale si la dérive est croissante (µ ≥ 0)
• Sur-martingale si la dérive est décroissante (µ ≤ 0)
8 CHAPTER 1. INTRODUCTION
Exercice
Montrer que les processus suivants sont des martingales:
i) Wt
ii) Wt2 − t
2
iii) exp(a ∗ Wt − a2 t)
Soit X une martingale à temps continu. La fonction t → E[Xt ] est continue ) droite ssi il existe
une modification Y de X qui est càdlàg.
Le théorème d’arrêt de Doob traduit le fait que si un jeu est équilibré (ou au contraire favorable à
l’une des parties), cette propriété reste vraie si l’on échantillonne le processus à des instants aléatoires
pourvu que ces instants aléatoires soient choisis de façon non anticipative.
Soient un processus X et un temps d’arrêt τ construit sur le même espace probable flitré (Ω, F, F).
Le processus X τ défini par:
Xtτ (ω) = Xinf (t,τ (ω)) (ω)
est dit processus arrêté par τ
Si la martingale M et le temps d’arrêt τ sont construits sur le même espace de probabilité filtré
(Ω, F, F, P) alors le processus arrêté M τ est lui aussi une martingale sur cet espace.
Preuve
M0τ = M0 Donc M0τ est F0 -mesurable.
Pt−1
Mtτ = k=0 (1{τ =k} Mk ) + 1{τ ≥k} Mt
∀t ∈ {1, 2...}, 1{τ =k} est Fk mesurable car {τ = k} ∈ Fk et Mk est Fk mesurable car M est adapté.
Or Fk ⊂ Ft . Donc ils sont aussi Ft -mesurables.
{τ ≥ t} = {τ = t} ∪ {τ ≤ t}c ∈ Ft
Donc 1{τ ≥t} est Ft mesurable.
Aussi ∀t ∈ N Mtτ est Ft mesurable.
Soit X = (Xt , t ∈ {0, 1, 2...}) un processus construit sur l’espace de probabilité filtré (Ω, F, F, P)
avec card(Ω) < ∞. Supposons que X est F-adapté et qu’il est intégrable. X est une martingale ssi
E[Xτ ] = E[X0 ] pour tout temps d’arrêt borné τ .
Preuve
Première partie: Supposons que X est une martingale et montrons que E[Xτ ] = E[X0 ] pour tout le
temps d’arrêt
Pbborné. Pb
E[Xτ ] = E[ k=0 1{τ =k} Xk ] = E[ k=0 (1{τ ≥k} − 1{τ ≥k+1} )Xk ]
Pb Pb
Or k=0 1{τ ≥k} Xk = X0 + k=1 1{τ ≥k}
Pb Pb−1 Pb
et k=0 1{τ ≥k+1} = k=0 1{τ ≥k+1} Xk = k0 =1 1{τ ≥k0 } Xk0 −1
Pb
Donc E[Xτ ] = E[X0 ] + k=1 E[1{τ ≥k} (Xk − Xk−1 )]
De plus, on a E[E[1{τ ≥k} (Xk − Xk−1 )|Fk−1 ]] = 0 car X est une martingale.
Et E[E[1{τ ≥k} (Xk − Xk−1 )|Fk−1 ]] = E[1{τ ≥k} E[Xk − Xk−1 |Fk−1 ]
Donc on a bien E[Xτ ] = E[X0 ]
Deuxième partie:
Supposons que pour tout temps d’arrêt τ borné, E[Xτ ] = E[X0 ] et montrons que le processus adapté
et intégrable X est une martingale. Fixons s, t ∈ {0, 1, 2, ...}s < t Notons P = {A1 , A2 ...} la partition
finir de Ω qui engendre Fs .
s si ω ∈ Ai
Pour tout i ∈ {1, .., n} on construit Si =
t sinon
{Si = s} = Ai ∈ Fs
{Si = t} = Aci ∈ Fs ⊂ Ft
Donc Si est un temps d’arrêt borné E[XSi ] = E[X0 ]
la v.a τ (ω) = t est un temps d’arrêt borné.
Donc E[Xt ] = E[X0 ]
Alors ∀i ∈ {1, 2, .., n} E[Xt − XSi ] = 0
0P= E[(Xt − XSi )1Ai + (Xt − XSi )1Aci ] = E[(Xt − Xs )1Ai + (Xt − Xt )1Aci ] = E[(Xt − XSi )1Ai ] =
ω∈Ai (Xt (ω) − Xs (ω))P{ω} P
Nous venons de montrer que ω∈Ai (Xt (ω))P{ω} = ω∈Ai (Xs (ω))P{ω}
P
Pn 1
P P n 1
P
E[Xt |Fs ](ω) = i=1 1Ai P(A i) ω̃∈Ai Xt (ω̃)P(ω̃) = i=1 1Ai P(Ai ) ω̃∈Ai Xs (ω̃)P(ω̃) = E[Xs |Fs ] =
Xs
La condition (ii) d’une martingale est vérifié.
10 CHAPTER 1. INTRODUCTION
Chapter 2
Intégrale Stochastique
1 Introduction
Question: La dérivée dW dt existe-elle?
t
Première étape
Pour une fonction aléatoire en escalier:
f (t, w) = Y1 (w)1[t0 ,t1 [ + Y2 (w)1[t1 ,t2 [ + ... + Yn 1[tn−1 ,tn ]
Rb Pn
(Y1 , ...Yn ) nous posons a f (t, w)dWt = i=1 Yi (Wti − Wti−1 )(2)
Rb
L’intégrale stochastique (2) est linéaire par rapport à l’intégrande: pour une constante c on a a
cf (t, w)dWt =
Rb
c a f (t, w)dWt
Rb Rb Rb
et a f1 (t, w) + f2 (t, w)dWt = a f1 (t, w)dWt + a f2 (t, w)dWt
Deuxième étape
Comme dans l’intégrale de Riemann nous approximons l’intégrale aléatoire par des fonctions aléa-
toires en escalier et nous prenons comme définition de l’intégrale stochastique la limite des intégrales
stochastiques des fonctions approximantes.
Question: Quelle est la classe des fonctions aléatoires que nous allons intégrer?
Définition
Nous disons qu’une fonction aléatoire f (t, w), t ∈ [a, b] est déterminée par le passé du processus de
Wiener (ou encore non anticipatif) si pour chaque t ∈ [a, b] la v.a f (t, w) peut être représentée comme
fonctionnelle des valeurs Ws du processus de Wiener aux instants précédant t:
f (t, w) = fct (t; Ws (w), s ≤ t)
Pour une fonction aléatoire en escalier f (t, w) = Yi (w) pour t ∈ ]ti−1 , ti ] doit être représentée comme
11
12 CHAPTER 2. INTÉGRALE STOCHASTIQUE
fonctionnelle de Ws pour s inférieur à tout instant dans ]ti−1 , ti ]. Il suffit que Yi soit fonctionnelle de
Ws s ≤ ti−1
Proposition
Pour une fonction aléatoire en escalier vérifiant (3), si les espérances E[Yi2 ] < ∞, alors:
Rb
E[ a f (t, w)dWt ] = 0 (4)
Rb Rb
E[( a f (t, w)dWt )2 ] = a E[f (t, w)2 ]dt (5)
Preuve Pn
OnPveut montrer que E[ i=1 PYni (Wti − Wti−1 )] = 0
n
E[ i=1 Yi (Wti − Wti−1 )] = i=1 E[Yi (Wti − Wti−1 )]
EtPpuisque Yi = fct (Ws , s ≤Pti−1 ) alors Yi est indépendante de l’accroissement Wti − Wti−1 Donc,
n n
E[ i=1 Yi (Wti − Wti−1 )] = i=1 E[Yi ]E[(Wti − Wti−1 )] = 0
Pn Pn
On veutPmontrer que si E[Yi2 ] < ∞ alors E[( i=1 Yi (Wti P − Wti−1 ))2 ] = i=1 E[Yi2 ](ti − ti−1 )
n n n
On a ( i=1 Yi (Wti − Wti−1 ))2 = i=1 Yi (Wti − Wti−1 ) ∗ j=1 Yj (Wtj − Wtj−1 )
P
Pn
= i=1 Yi2 (Wti − Wti−1 )2 + 2 1≤i<j≤n Yi (Wti − Wti−1 )Yj (Wtj − Wtj−1 )
P
L’espérance du ime terme de la première somme est égale à E[Yi2 ](ti − ti−1 ). Puisque les espérances
du i ème et du j ème terme de la première somme sont finies, alors l’espérance du (i,j) ème terme de
la deuxième somme est finie (Cauchy Schwarts)
E[Yi (Wti − Wti−1 )Yj (Wtj − Wtj−1 )]:
Yi = fct (Ws , s ≤ ti−1 et Yj = fct (Ws , s ≤ tj−1 avec ti < tj
Yi , Wti − Wti−1 et Yj snt indépendants de Wtj − Wtj−1 donc:
E[Yi (Wti − Wti−1 )Yj (Wtj − Wtj−1 )] = E[Yi (Wti − Wti−1 )Yj ]E[Wtj − Wtj−1 ]
Or E[Wtj − Wtj−1 ] = 0
La deuxième étape dans la définition de l’intégrale stochastique est un passage à la limite. Soit
f (t, w), a ≤ t ≤ b une fonction aléatoire déterminée par le passé du processus de Wiener. Pour une
partition T de l’intervalle [a, b], a = t0 < t1 .. < tn = b. Introduisons la fonction en escalier:
fT (t, w) = f (t0 , w)1[t0 ,t1 ] + ... + f (ti−1 , w)1]ti−1 ,ti ] + .. + f (tn−1 , w)1]tn−1 ,ti ]
Théorème
Si f (t, w), a ≤ t ≤ b est une fonction aléatoire non anticipative de carré intégrable et uniformément
continue m.q (moyenne quadratique) sur [a, b]. Alors la limite en moyenne quadratique:
Rb
l.i.mmax1≤i≤n (ti −ti−1 )→0 a fT (t, w) existe. Cette limite est prise comme définition de l’intégrale
Rb
stochastique de f : a f (t, w)dWt
Preuve
Rb
Pour prouver l’existence de la limite en m.q de a fT (t, w)dWt nous devons vérifier que pour:
Rb
YT = a fT (t, w)dWt que
l.i.m YT − YT 0 = 0
max1≤i≤n (ti − ti−1 ) → 0
max1≤j≤n0 (tj − tj−1 ) → 0
Rb Rb
⇐⇒ limE[( a fT (t, w)dWt − a fT 0 (t, w)dWt )2 ] = 0
D’après (5) vérifiée par les fonctions en escalier aléatoire:
2. INTÉGRALE STOCHASTIQUE PAR RAPPORT AU PROCESSUS DE WIENER 13
Rb Rb
E[( a (fT (t, w) − fT 0 (t, w))dW t)2 ] = a E[(fT (t, w) − fT 0 (t, w))2 ]dt
On doit prouver que cette intégrale tend vers 0 quand les deux partitions T et T 0 deviennent suffisam-
ment finies.
f (t, w) est uniformément continue sur [a, b]. Soit ≥ 0 correspondant: pour s, t ∈ [a, b]
|s − t| < → E[(f (s, w) − f (t, w))2 ] < b−a
Pour chaque t ∈ [a, b] notons ti−1 et tj−1 les extrémités gauches des intervalles qui contiennent t des
0
partition T et T 0 respectivement:
|ti−1 − t0j−1 | < δ → E[(f (ti−1 , w) − f (t0j−1 , w))2 ] = E[(fT (t, w) − fT 0 (t, w))2 ] < b−a
Rb
D’où a E[(fT (t, w) − fT 0 (t, w))2 ]dt <
Deux remarques sur l’intégrale stochastique par rapport aux processus de Wiener.
Les intégrales stochastiques de fonction aléatoires sont linéaires par rapport à l’intégrande:
Rb Rb
• a
cf (t, w)dWt = c f (t, w)dWt
a
Rb Rb Rb
• a f1 (t, w) + f2 (t, w)dWt = a f1 (t, w)dWt + a f2 (t, w)dWt
Mais contrairement aux fonctions aléatoires en escalier par lesquelles ces égalités sont satisfaites pour
tout w ∈ Ω, dans le cas général elles le sont uniquement presque sûrement.
C’est par passage à la limite des formules (4) et (5) pour les fonctions aléatoires en escalier que
nous
R b obtenons:
E[ a f (t, w)dWt ] = 0
Rb Rb
E[( a f (t, w)dWt )2 ] = a E[f (t, w)2 ]dt
car la convergence dans L2 implique la convergence du moment d’ordre 1 et du mouvement d’ordre 2.
Exercice
Montrer que si E[X 2 ] < ∞, alors E[(E[X|yt , t ∈ T ])2 ] < ∞ et ||E[X|yt , t ∈ T ]|| < ||X||
1/ Par définition pour une v.a X de carré intégrale et g une sous tribu de F, il existe une v.a y réelle
Proposition
Rt
L’intégrale stochastique Xt = 0 f (t, w)dWt du processus de Wiener est une martingale.
Preuve
Pour une v.a A, posons A+ = max(0, A), A− = max(0, −A). On a A = A+ + A−
A admet une espérance si E[A+ ] < ∞ ou E[A− ] < ∞
A est intégrable si E[A+ ] < ∞ et E[A− ] < ∞
Or, E[Xt ] = 0 X est intégrable
Rappel: C.S |E[XY ]| ≤ E[X 2 ]E[Y 2 ] et donc E[|Xt |] ≤ E[Xt2 ]
p p
Rt
Or E[Xt2 ] = 0 E[f (t0 , w)2 ]dt < ∞
Nous voulons montrer que t0 ≤ t < s:
Rs Rt
E[ t0 f (u, w)dWu − t0 f (u, w)dWu |Wu , u ≤ t] = 0
14 CHAPTER 2. INTÉGRALE STOCHASTIQUE
Pn
Considérons d’abord les fonctions aléatoires en escalier f (s, w) = i=1 Yi (Wu , u ≤ ti−1 1]ti−1 ,ti ] sans
perde de généralité:
t = tm < tm−1 < ... < tn = s Pn
DansPnce cas nous devons montrer que E[ P i=m+1 Yi (Wti − Wti−1 )|Wu , u ≤ t] = 0
n
E[ i=m+1 Yi (Wti − Wti−1 )|Wu , u ≤ t] = i=m+1 E[Yi (Wti − Wti−1 )|Wu , u ≤ t]
E[E[Yi (Wti − Wti−1 )|Wu , u ≤ ti−1 ]||Wu , u ≤ t]
= E[Yi E[Wti − Wti−1 |Wu , u ≤ ti−1 ]|Wu , u ≤ t]
= E[Yi E[Wti − Wti−1 ]|Wu , u ≤ t] = 0 car E[Wti − Wti−1 ] = 0
L’ingégrale stochastique d’une fonction aléatoire abritraire est définie comme la limite en m.q d’ingégrales
stochasqitques
Rs de fonctions en escalier: R
t
f
t R
(u, w)dW u = l.i.mmax1≤i≤n (ti −ti−1 )→0 s fT (u, w)dWu
s Rs Rs Rs
||E[ t fT (u, w)|Wu , u ≤ t]−E[ t f (u, w)dWu |Wu , u ≤ t]|| = ||E[ t fT (u, w)dWu − t f (u, w)dWu |Wu , u ≤
t]|| R
s Rs
≤ || t fT (u, w)dWu − t f (u, w)dWu || → 0
Quand le pasde la partition tends versR 0.
t Rs
On déduit l.i.mmax1≤i≤n (ti −ti−1 )→0 E[ s fT (u, w)dWu |Wu , u ≤ t] = E[ t f (u, w)dWu |Wu , u ≤ t]
Rs
D’ou E[ t f (u, w)dWu |Wu , u ≤ t] = 0
3 Semi-Martingale
Définition
Un processus X adapté et càdlàg est une semi-martingale s’il a une représentation de la forme:
X = X0 + M + A
avec M une martingale locale càdlàg et A un processus à variation finie, les deux étant nuls à t = 0
Si X est continue, alors M et A peuvent être choisis continues.
Martingale locale
Un processus X sur un espace de probabilité filtré (Ω, F, F, P) est une martingale locale s’il existe une
suite de temps d’arrêt {Tn } croissant vers +∞ P-p.s et chaque processus arrêté X Tn est une martingale
Lemme
Pour toute semi-martingale X il existe une décomposition X = X0 + M + A où M est une martingale
localement de carré intégrable càdlàg et A un processus adapté à variation finie.
4 Variation quadratique
Définition
La covariation quadratique [X, Y ] de deux semi-martingales X et Y est une version càdlàg du proces-
sus suivant:
XY − X0 Y0 R− X − . Y − Y − . X où
t
(X . M )t = 0 Xs dMs
Le processus [X, X] noté [X] est appelé variation quadratique de la semi-martingale X
4. VARIATION QUADRATIQUE 15
La covariation quadratique est mieux expliquée par le théorème suivant qui peut être considéré
comme une deuxième définition de [X, Y ]
Théorème
Pour toute paire de semi-martingale, pour chaque t et pour toute suite de partition de l’intervalle
[0, t]: 0 = tn0 < tn1 < ... < tnkn = t de pas tendant vers 0 quand n → +∞
Pkn P
i=1 (Xti − Xti−1 )(Yti − Yti−1 ) →n→∞ [X, Y ]t
n n n n
Remarques
• Il est clair d’après le théorème que le processus variation quadratique [X] peut être choisi crois-
sant.
• On montre que: 4[X, Y ] = [X + Y ] − [X − Y ]. Donc le processus covariation quadratique de
deux semi-martingales est un processus à variation finie.
Exercice
Soit X un processus continu à variation finie. Calculer la variation quadratique de Y = X + B
Nous voulons montrer que la variation quadratique du mouvement brownien n’est pas altérée en
lui ajoutant un processus continu à variation finie.
(n) (n) (n) (n) (n) (n)
(Yti+1 − Yti )2 = i (Bti+1 − Bti + Xti+1 − Xti )2
P P
iP
2 2
P P
= i Bi + 2 i ∆Bi ∆Xi + i ∆Xi
Le premier terme converge vers t quand n → ∞
Le deuxième terme converge vers 0 quand n → ∞ En effet,
P (n) (n) (n) (n) (n) (n) Pkn −1 (n) (n)
| i (Bti+1 − Bti )(Xti+1 − Xti )| ≤ max0≤i≤kn −1 |Bti+1 − Bti | ∗ i=0 |Xti+1 − Xti |
Le max tends vers 0 presque surement car B est continue
La somme est ≤ à une constante car les trajectoires de X sont à variations bornée sur tout segment
finie.
Idem pour le 3ème terme et converge p.s vers 0 quand n → ∞
Puisque la covariation quadratique [X, Y ]est un processus à variation finie, les intégrales du type:
Rt
Z
0 s
d[X, Y ]s
peuvent être définies comme des intégrales de Lebesgue Stieltjes pour chaque paire de trajectoires
Zs (w) et [X, Y ]s (w)
Lemme
• Pour tout processus Z prévisible localement borné et toute paire semi-martingales X,Y: [Z.X, Y ] =
Z.[X, Y ]
• Soient M,N deux martingales localement de carré intégrable et X,Y deux
R t processus prévisibles
localement bornés alors: [X.M, Y.N ] = XY.[M, N ] i.e [X.M, Y.N ]t = 0 Xs Ys d[M, N ]s
de classe C 2 on a presque
Pd R t sûrement: Pn Rt
f (Xt ) − f (X0 ) = i=1 0 Di f (Xs )dXsi + 12 i,j=1 0 Di,j f (Xs )d[X i , X j ]s
Pd
df (Xt ) = i=1 Di f (Xt )dXti + 21 i,j=1 Di,j f (Xt )d[X i , X j ]
P
Où Di,j f (Xs ) est la dérivée partielle seconde de f par rapport à xi , xj
Remarque
La formule d’intégration par parties est la formule d’Itô pour les polynômes de degré 2:
Xt Yt − X0 Y0 = (X.Y )t + (Y.X)t + [X, Y ]t
Supposons que la Rformule d’Itô est vrai pour les fonctions g et g et montrons qu’elle est vraie pour gf
t
f (Xt ) − f (X0 ) = 0 f 0 (Xs )dXs + 12 f 00 (Xs )d[X]s
Rt 0
g(Xt ) − g(X0 ) = 0 g (Xs )dXs + 12 g 00 (Xs )d[X]s
f (Xt ) est une semi-martingale. En effet, soit X = X0 + M + A la décomposition de X. Alors f (X) a
pour décomposition f (X) = f (X0 ) + M̃ + Ã
Rt
M̃t = 0 f 0 (Xs )dMs
Rt 0 Rt
Ãt = 0 f (Xs )dAs + 21 0 f 00 (Xs )d[X]s
Idem pour g(X)
Appliquons la formule d’intégration par parties avec f (X) et g(X) :
f (Xt )g(Xt ) − f (X0 )g(X0 ) = (f (X).g(X))t + (g(X).f (X))t + [f (X), g(X)]t = (1) + (2) + (3)
Rt
(1) = 0 f (Xs )dg(Xs )
dg(Xs ) = g 0 (Xs )dXs + 12 g 00 (Xs )d[X]s
Rt Rt
(1) = 0 f (Xs )g 0 (Xs )dXs + 12 0 f (Xs )g 00 (Xs )d[X]s
Rt Rt
(2) = 0 f (gs )f 0 (Xs )dXs + 12 0 g(Xs )f 00 (Xs )d[X]s
La covariation quadratique [f (X), g(X)] est égale à la covariation quadratique des parties martingales
locales des semi-martingales f (X) et g(X)
[f (X), g(X)] = [f 0 .M, g 0 .M ] = f 0 g 0 .[M ] = f 0 g 0 [X]
En remplaçant les trois termes du membre droit pour leur expressions on obtient:
f (Xt )f (Xt )−f (X0 )f (X0 ) = ((f 0 (X)g(X)+f (X)g 0 (X)).X)t + 12 ((f 00 (X)g(X)+f (X)g 00 (X)+2f 0 (X)g(X)).[X])t =
((f g)0 .X)t + 21 ((f g)00 .[X])t
Ainsi la formule d’Itô est vérifié pour f ∗ g et par suite elle est vérifiée pour tous les polynômes.
Approximation
Il existe une suite de polynômes (fn ) telle que:
fn → f fn0 → f 0 et fn00 → f 00 une fonction lisse générale f
Rt Rt
La formule d’Itô appliquée à fn :fn (Xt ) − fn (X0 ) = 0 fn0 (Xs )dXs + 12 0 fn00 (Xs )d[X]s
fn (X(s, w)), fn0 (X(s, w)), fn00 (X(s, w)) ces trois suites convergent point par point sur R+ xΩ vers
f (X(s, w)), f 0 (X(s, w)), f 00 (X(s, w)). Lorque n → ∞ dans la formule d’Itô les intégrales convergent
en
R t probabilité vers leurs
R t homologues écris avec f à la place de fn .
0 P 0
f (X )dX → f (X )dX
R0t n00 s s n→∞ 0
P
R t 00 s s
0
f n (X s )d[X] s → n→∞ f (Xs )d[X] s
R0t Rt
Ainsi f (Xt ) − f (X0 ) = 0 f 0 (Xs )dXs + 12 0 f 00 (Xs )d[X]s puisque la limite en probabilité est unique
au sens de v.a égale p.s alors l’égalité est vérifié p.s.
Chapter 3
Équations Stochastiques
et Xt0 = x0
Approximations successives
(0)
Xt = x0
(n) Rt Rt
Xt = x0 + 0 f (s, Xsn−1 )ds + 0 g(s, Xsn−1 )dWs
(n)
On admet que pour tout n, sur tout intervalle fini [t0 , t0 + T ], le Xt
f (t, 0), g(t, 0) sont continues en t donc sur tout intervalle [t0 , t0 + T ]
|f (t, 0)| ≤ K
|g(t, 0)| ≤ K
|f (t, x)| − |f (t, 0)| ≤ |f (t, x) − f (t, 0)| ≤ c|x|
→ |f (t, x)| ≤ c|x| + K
idem |g(t, x)| ≤ c|x| + K
Nous allons démontrer par récurrence que pour tout n = 1, 2.. et sur tout intervalle fini [t0 , t0 + T ]
n/2
(n)
||Xt − Xtn−1 || ≤ c1 (c2 )n−1 (t−t
√0
)
n!
(2)
n
(n)
E[(Xt − Xtn−1 )2 ] ≤ c21 (c2 )2(n−1) (t−t0)
n! (3)
(2) ⇐⇒ (3)
Pour n = 1 qR
(1) Rt Rt Rt t
||Xt − Xt0 || = || t0 f (s, x0 )ds + t0 g(s, x0 )dWs || ≤ t0 ||f (s, x0 )||ds + t0
E[g(s, x0 )2 ]ds
Rt q Rt
≤ t0 |f (s, x0 )|ds + t0
g(s, x0 )2 ds
p
≤ (K + c|x0 |)(t − t0 ) + (K + c|x0 |)2 (t − t0 )
≤ c1 (t − t0 )1/2 √
avec c1 = (K + c|x0 |)(1 + T )
Aussi (2) et (3) sont vérifiées pour n=1
17
18 CHAPTER 3. ÉQUATIONS STOCHASTIQUES
t0
E[(Xs − Xs ) ]ds ≤ 1(n−1)! c (t−tn0 )
(n) (n−1) )n/2
√
||Xt − Xt || ≤ c1 c(c2 )n−2 (t−t
√0 (1 + 2 T )
n! √
On
p peut prendre
√ pour la récurrence c2 = c(1 + 2 T )
√
(t − t0 ) ≤ T
n!
p
2 ≤ (n − 1)! n+1
(n) Pn 2 (i) (i−1)
Xt = x0 + i=1 Xt − Xt
• Xt est de carré intégrable car la convergence en m.Q implique la convergence du moment d’odre
(n)2
2: E[Xt ] → E[Xt2 ]
• La continuité en m.q se conserve par la convergence en m.q uniforme. Donc le processus X est
continu en t en m.q
(n )
• Il existe une sous-suite (Xt i ) , i = 1, 2... qui converge p.s vers Xt uniformément sur [t0 , t0 + T ]
(n )
Xt i →p.s i→∞ Xt
(ni )
Xt →m.q
i→∞ Xt
Donc X a presque sûrement des trajectoires continues car la continuité p.s se conserve par la
lmimte p.S uniforme.
(n ) Rt Rt
Xt i = x0 + t0 f (s, Xsni −1 )ds + t0 g(s, X ni −1 dWs
Rt Rt
QUand i → ∞ t0 f (s, Xsni −1 )ds →P t0 f (s, Xs )ds
Rt Rt
t0
g(s, X ni −1 dWs →P t0 g(s, Xs dWs
Rt Rt
Xt = x0 + t0 f (s, Xs )ds + t0 g(s, Xs )dWs au sens p.s