Calcul Sto
Calcul Sto
Aldéric JOULIN
Cher étudiant, ce cours est fondamental pour vous si vous désirez poursuivre
votre cursus universitaire dans le domaine des probabilités. En particulier, le mouve-
ment brownien ainsi que la formule d’Itô sont deux objets essentiels que vous manipulerez
fréquemment dans un avenir proche et dont vous serez amené à parler dans les soirées
mondaines. Ainsi, vous devrez fournir un travail dense et approfondi tout au long du
semestre afin d’avoir le recul nécessaire pour découvrir les immenses perspectives qu’ouvre
la théorie du calcul stochastique vers l’infini et au-delà. Pour vous exercer, un devoir mai-
son est mis à votre disposition à la fin du chapitre sur le mouvement brownien, ainsi que
les sujets d’examen des deux dernières années (en annexe).
Enfin, ce polycopié ne demandant qu’à être amélioré, n’hésitez pas à me faire part
de vos remarques et suggestions. En particulier, la présence presque sûre de coquilles
et erreurs diverses et variées est bien évidemment délibérée dans le but pédagogique que
vous puissiez exercer votre esprit critique dans les meilleurs conditions possibles.
Aldéric Joulin
Table des matières
0 Espérance conditionnelle 7
0.1 Quelques rappels sur les tribus . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.2 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1 Le mouvement brownien 13
1.1 Vecteurs et processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.1 Définition et premières propriétés des vecteurs gaussiens . . . . . . 13
1.1.2 Quelques autres propriétés en vrac . . . . . . . . . . . . . . . . . . 15
1.1.3 Processus gaussien et mouvement brownien . . . . . . . . . . . . . . 16
1.2 Construction du mouvement brownien . . . . . . . . . . . . . . . . . . . . 18
1.2.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.2 Décomposition en ondelettes . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Comportement des trajectoires browniennes . . . . . . . . . . . . . . . . . 22
1.3.1 Propriétés principales . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.2 Hölder continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4 Propriété de Markov forte et principe de réflexion . . . . . . . . . . . . . . 31
2 Martingales 33
2.1 Rappels sur les martingales à temps discret . . . . . . . . . . . . . . . . . . 33
2.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 33
2.1.2 Théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Inégalités maximales et théorèmes de convergence . . . . . . . . . . . . . . 37
2.2.1 Inégalités maximales de Doob . . . . . . . . . . . . . . . . . . . . . 37
2.2.2 Convergence des martingales . . . . . . . . . . . . . . . . . . . . . . 39
2.3 Martingales à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 44
2.3.2 Théorème d’arrêt et inégalités maximales de Doob . . . . . . . . . . 45
2.3.3 Convergence des martingales . . . . . . . . . . . . . . . . . . . . . . 49
3 Semimartingales continues 51
3.1 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 51
3.1.2 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 53
5
6 TABLE DES MATIÈRES
4 Intégration stochastique 63
4.1 Construction de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . 63
4.1.1 Définition de l’intégrale stochastique . . . . . . . . . . . . . . . . . 63
4.1.2 L’intégrale stochastique vue comme une martingale . . . . . . . . . 67
4.1.3 Variation quadratique de l’intégrale stochastique . . . . . . . . . . . 69
4.2 Localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3 Extension de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . . 73
4.4 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.5 Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Bibliographie
Chapitre 0
Définition 0.1.2. Étant donnée une variable aléatoire (v.a.) X à valeurs dans un espace
mesurable (E, E), on appelle tribu engendrée par X, et on la note σ(X), la sous-tribu de
A engendrée par l’ensemble des images réciproques de X. Autrement dit,
σ(X) := σ X −1 (B) : B ∈ E
= σ ({ω ∈ Ω : X(ω) ∈ B} ; B ∈ E)
= σ ({X ∈ B} ; B ∈ E) ,
7
8 CHAPITRE 0. ESPÉRANCE CONDITIONNELLE
où la dernière égalité est simplement une notation. Il s’agit donc de la plus petite tribu
sur Ω rendant X mesurable. De même, si (Xn )n∈N ∗ est une suite de v.a. à valeurs dans
(E, E), alors on définit la tribu engendrée par cette suite comme
À présent, nous allons énoncer un résultat très utile en pratique, le lemme de Doob,
dû à un célèbre probabiliste américain du milieu de 20ème siècle. En particulier, ce lemme
nous donne un critère simple pour établir la mesurabilité d’une v.a. Y par rapport à la
tribu engendrée par une autre v.a. X, sous réserve qu’elles sont toutes 2 à valeurs dans
R (ou éventuellement dans Rd ).
Lemme 0.1.3 (Cas réel). Étant donnée une variable aléatoire réelle (v.a.r.) X, une autre
v.a.r. Y est σ(X)-mesurable si et seulement s’il exite une fonction borélienne h : R → R
telle que Y = h(X).
Définition 0.2.1. Soit F une sous-tribu de A, engendrée par une partition (An )n∈N ∗ de
Ω, à savoir
∪n∈N ∗ An = Ω
Ai ∩ Aj = ∅ pour i 6= j.
Notons N := {n ∈ N∗ : P(An ) > 0}. On appelle probabilité conditionnelle d’un événement
A ∈ A sachant la tribu F la quantité:
X
P(A | F)(ω) := P(A | An ) 1An (ω), ω ∈ Ω,
n∈N
Notez que cette probabilité conditionnelle est une v.a. et non un nombre déterministe,
le conditionnement ayant lieu par rapport à une tribu et non un événement. De surcroı̂t,
elle est mesurable par rapport à la tribu F car c’est une fonction des An . Enfin, elle est
constante sur les An et vaut alors P(A | An ).
Cette probabilité conditionnelle étant clairement bornée par 1, elle admet une
espérance et l’on a par convergence monotone
X
E [P(A | F)] = P(A | An ) E [1An ]
n∈N
0.2. ESPÉRANCE CONDITIONNELLE 9
X
= P(A | An ) P(An )
n∈N
= P(A),
grâce à la FPT, la célèbre Formule des Probabilités Totales. Ainsi, la probabilité condi-
tionnelle par rapport à une tribu vaut, en moyenne, la probabilité initiale.
En utilisant une reformulation avec les indicatrices, la définition de la probabilité
conditionnelle devient: X
E [1A | F] := E [1A | An ] 1An .
n∈N
Bien entendu, la quantité intervenant dans le membre de droite doit être comprise comme
E [1A 1An ]
E [1A | An ] := P(A | An ) = .
P(An )
On en déduit que cette probabilité conditionnelle est obtenue par “moyennisation” de
la v.a. 1A sur les événements engendrant F. L’étape suivante est donc de remplacer
cette indicatrice par une v.a. suffisamment intégrable, comme on le fait dans le cours
d’intégration (passage des indicatrices aux fonctions étagées puis aux fonctions mesurables
positives puis enfin aux fonctions intégrables).
Définition 0.2.2. Soit X une v.a.r. de carré intégrable et F une sous-tribu de A en-
gendrée par une partition (An )n∈N ∗ de Ω. De même que précédemment, notons N :=
{n ∈ N∗ : P(An ) > 0}. On appelle espérance conditionnelle de X sachant la tribu F la
v.a. X
E [X | F] (ω) := E [X | An ] 1An (ω), ω ∈ Ω,
n∈N
en ayant utilisé encore une fois le fait que (An )n∈N ∗ est une partition de Ω. Si les
tribus σ(X) et F sont indépendantes, c’est-à-dire que tout événement σ(X)-mesurable est
indépendant de tout événement F-mesurable, alors on démontre facilement que E [X | F] =
E [X]. Enfin, terminons par la propriété clé satisfaite par l’espérance conditionnelle, qui
est à la base de la prochaine définition et qu’on laissera en exercice au lecteur: pour toute
v.a.r. F-mesurable et de carré intégrable Z on a
E [X Z] = E [E [X | F] Z] .
Définition et théorème 0.2.3. Soit X une v.a.r. dans L2 (A) et soit F une sous-tribu
quelconque de A. Alors il existe une unique v.a.r. Y dans L2 (F), i.e. dans L2 (A) et
F-mesurable, telle que pour toute v.a.r. Z ∈ L2 (F),
E [X Z] = E [Y Z] .
E [X Z] = E [X] E [Z] .
Or E [X] étant constante, elle est bien F-mesurable et donc on obtient le résultat par
unicité de l’espérance conditionnelle.
(iii): Même raisonnement que précédemment.
(iv): Immédiat en utilisant les propriétés (i) et (iii).
(v): La v.a.r. Y := E[X | F] est le projeté orthogonal de X sur F := L2 (F) si et
seulement si
Y ∈ F and kX − Y kL2 (A) = inf kX − U kL2 (A) .
U ∈F
E (X − Z)2 = E (U + V )2
= E U 2 + E V 2 + 2 E [U V ]
= E U2 + E V 2 ,
Le mouvement brownien
où le symbole T désigne la transposition et l’espérance d’une matrice est définie comme
la matrice des espérances de chacun de ses éléments. On en déduit qu’elle est semi-définie
positive au sens où pour tout x ∈ Rd ,
xT Γx = E |xT (X − m)|2 ≥ 0.
13
14 CHAPITRE 1. LE MOUVEMENT BROWNIEN
Dans la suite de ce chapitre, on supposera que les vecteurs gaussiens considérés sont non
dégénérés, c’est-à-dire que det Γ 6= 0 (elle donc définie positive, i.e. xT Γx > 0 pour tout
x 6= 0 dans Rd ).
Définition 1.1.1. Soit X un vecteur aléatoire en dimension d et de matrice de covariance
Γ. Il est dit gaussien si la densité jointe est donnée par
1 1 T −1
fX (x) = √ exp − (x − m) Γ (x − m) , x ∈ Rd .
(2π) d/2 det Γ 2
On note alors X ∼ Nd (m, Γ) (et N (m, Γ) si d = 1).
Ainsi, comme dans le cas unidimensionnel, la donnée du vecteur espérance et de la
matrice de covariance caractérise la loi d’un vecteur gaussien. La fonction caractéristique
étant vue comme la transformée de Fourier de la densité, que l’on sait injective dans L1 ,
on a la caractérisation suivante de la loi d’un vecteur gaussien. Dans la suite on notera
indifféremment < x, y > ou xT y le produit scalaire entre deux éléments de Rd .
Proposition 1.1.2. Un vecteur aléatoire X est gaussien d’espérance m et de matrice de
covariance Γ si et seulement si sa fonction caractéristique est donnée par
1 T
φX (θ) := E[e i<θ,X>
] = exp iθ m − θ Γθ , θ ∈ Rd .
T
2
À présent, posons-nous la question suivante: un vecteur gaussien a-t-il toutes ses
composantes unidimensionnelles gaussiennes ? Et réciproquement, suffit-il d’avoir toutes
les coordonnées gaussiennes pour que le vecteur associé soit gaussien ? La proposition
suivante permet de répondre à la question.
Proposition 1.1.3. Un vecteur aléatoire X est gaussien si et seulement si θT X est une
v.a. gaussienne unidimensionnelle pour tout θ ∈ Rd différent du vecteur nul, i.e. toute
combinaison linéaire non nulle de ses coordonnées est gaussienne.
Démonstration. Notons respectivement m et Γ le vecteur espérance et la matrice de
covariance du vecteur X. Supposons le gaussien. Alors pour tout θ ∈ Rd différent du
vecteur nul, la fonction caractéristique de la v.a.r. θT X s’écrit pour tout u ∈ R:
h T
i
φθT X (u) = E eiu θ X
= φX (uθ)
u2 T
T
= exp iuθ m − θ Γθ .
2
Ainsi, on en déduit que pour tout θ ∈ Rd non nul, la v.a.r. θT X suit une loi gaussienne
d’espérance θT m et de variance θT Γθ, qui est strictement positive car Γ est définie positive.
Réciproquement, si θT X suit une loi gaussienne pour tout θ ∈ Rd non nul, alors
( T Pd
E θ X = i=1
Pθi E[Xi ] = θT m;
d Pd
Var θT X = Var i=1 θi Xi = T
i,j=1 θi θj Cov(Xi , Xj ) = θ Γθ.
1.1. VECTEURS ET PROCESSUS GAUSSIENS 15
chacun des vecteurs extraits est un vecteur gaussien, i.e. pour tout d ∈ N∗ et tout d-uplet
(t1 , . . . , td ), le vecteur d-dimensionnel (Xt1 , . . . , Xtd ) est gaussien.
Un processus gaussien (Xt )t∈[0,T ) est donc caractérisé en loi par sa “gaussianité”
ainsi que par ses fonctions espérance et covariance:
m(t) := E[Xt ] et K(s, t) := Cov(Xs , Xt ), s, t ∈ [0, T ).
La question est maintenant la suivante : si l’on se donne ces 2 fonctions, existe-il un
processus gaussien associé ? Il s’avère que la réponse est positive lorsque K vérifie
quelques bonnes propriétés (fonction symétrique de type positif sur [0, T ) × [0, T )). La
démonstration utilise principalement le fameux théorème d’existence de Kolmogorov. En
particulier, l’exemple fondamental de ce cours, le célèbre mouvement brownien, peut être
construit de cette manière-là. Cependant, étant donné que nous allons privilégier dans
la suite de ce chapitre une autre approche, disons plus constructive, nous ne nous at-
tarderons pas sur ce théorème dont l’étudiant curieux trouvera sans peine une référence
dans un bon ouvrage de Probabilités avancées, ou encore sur le Web.
Définition 1.1.10. Soit (Bt )t∈[0,T ) un processus à valeurs dans R. Il est appelé mou-
vement brownien (sur l’intervalle [0, T )) si c’est un processus gaussien centré, p.s. à
trajectoires continues et de fonction de covariance donnée par
K(s, t) = Cov(Bs , Bt ) = min{s, t}, s, t ∈ [0, T ).
Cette dénomination est essentiellement dûe à un botaniste anglais, Robert Brown,
qui l’a décrit pour la première fois en 1827 en observant le mouvement de grains de pollen
en suspension dans un liquide. Un siècle plus tard, en 1923, l’américain Norbert Wiener
le construit rigoureusement, et c’est pour cela que l’on parle aussi de processus de Wiener.
Précisons que nous avons défini ce processus sans en avoir encore démontré l’existence.
Pour l’heure, on supposera qu’il existe afin d’en donner les propriétés fondamentales.
Proposition 1.1.11. Soit (Bt )t∈[0,T ) un mouvement brownien. Alors il vérifie les asser-
tions suivantes:
(i) B0 = 0 p.s.
(ii) pour tout 0 ≤ s ≤ t < T , l’accroissement Bt − Bs suit la loi normale centrée
N (0, t − s).
(iii) pour tout 0 = t0 < t1 < · · · < td < T , les accroissements Bti − Bti−1 , i ∈
{1, . . . , d}, sont indépendants.
Démonstration. Les propriétés (i) et (ii) sont triviales. Pour démontrer (iii), il suffit de
démontrer que la matrice de covariance du vecteur gaussien (Bt1 , Bt2 −Bt1 , . . . , Btd −Btd−1 )
est diagonale, ce qui est immédiat.
Proposition 1.1.13. Soit (Bt )t∈[0,T ) un mouvement brownien (T = +∞ dans les deux
derniers cas). Alors
(i) (−Bt )t∈[0,T ) est aussi un mouvement brownien.
(ii) autosimilarité (ou invariance par changement d’échelle): pour tout λ > 0, le
(λ)
processus donné par Bt := √1λ Bλt est un mouvement brownien sur [0, T /λ).
(s)
(iii) invariance par translation: pour tout s ≥ 0 fixé, le processus donné par Bt :=
Bt+s − Bs est un mouvement brownien sur R+ (on admettra qu’il est indépendant de toute
la trajectoire brownienne jusqu’à l’instant s).
(iv) invariance par retournement temporel: le processus donné par B̃t := t B1/t est
un mouvement brownien sur R+ . Pour la continuité en 0, on remarquera que les processus
B et B̃ ayant même loi et étant continus sur (0, ∞),
\ [ \ 1
P lim B̃t = 0 = P |B̃t | ≤
t→0
n∈N ∗ p∈N ∗ t∈(0,p−1 ]∩Q
n
\ [ \ 1
= P |Bt | ≤
n∈N ∗ p∈N ∗ t∈(0,p−1 ]∩Q
n
= P lim Bt = 0
t→0
= 1.
On se donne à présent une base hilbertienne (φn )n∈N de L2 (0, 1), i.e. une famille dense
satisfaisant < φn , φm >= 1{n=m} . Dans ce cas, toute fonction f ∈ L2 (0, 1) s’écrit comme
X
f = < f, φn > φn ,
n≥0
la convergence de la série ayant lieu dans L2 (0, 1). De plus, on a l’identité de Parseval:
X
< f, g > = < f, φn > < g, φn >, f, g ∈ L2 (0, 1).
n≥0
En particulier, si les fonctions f et g sont définies par f = 1[0,s] et g = 1[0,t] , où les
paramètres s, t ∈ [0, 1] sont fixés, alors l’identité de Parseval entraı̂ne la formule suivante:
XZ s Z t
min{s, t} = φn (x) dx φn (x) dx,
n≥0 0 0
qui n’est autre que la fonction de covariance d’un mouvement brownien. Ceci est très
intéressant. Ainsi, si l’on définit formellement le processus (Bt )t∈[0,1] par la série suivante
X Z t
Bt := Zn φn (x) dx,
n≥0 0
où (Zn )n∈N est une suite i.i.d. de variables aléatoires réelles suivant la loi N (0, 1), alors il
s’agit d’un processus centré dont la covariance se calcule comme suit:
Cov(Bs , Bt ) = E[Bs Bt ]
X Z s Z t
= E[Zn Zm ] φn (x) dx φn (x) dx
n,m≥0 0 0
XZ s Z t
= φn (x) dx φn (x) dx
n≥0 0 0
= min{s, t},
d’après ce qui précède. Ainsi, une fois que l’on aura démontré la convergence de la série
pour une base hilbertienne bien choisie, il nous restera à vérifier que le processus obtenu
est gaussien et à trajectoires continues. C’est ce à quoi nous allons nous atteler dans la
partie suivante.
20 CHAPITRE 1. LE MOUVEMENT BROWNIEN
L’intérêt de cette base réside dans le fait que les intégrales des fonctions Hn , que
l’on va utiliser dans la décomposition en série du mouvement brownien vue ci-dessus,
forment aussi une base d’ondelettes. Plus précisément, posons λ0 = 1 et λn := 2−1−j/2
pour tout entier strictement positif n := 2j + k, et construisons la base d’ondelettes
triangulaires suivante: l’ondelette mère est définie par
On notera que pour tout n ∈ N, ∆n est à valeurs dans l’intervalle [0, 1]. À présent, nous
sommes enfin en mesure d’établir l’existence du mouvement brownien.
Théorème 1.2.1. Soit (Zn )n∈N une suite i.i.d. de variables aléatoires suivant la loi
N (0, 1) et définissons X
Bt = λn Zn ∆n (t), t ∈ [0, 1].
n∈N
1.2. CONSTRUCTION DU MOUVEMENT BROWNIEN 21
qui est sommable. Ainsi, par le lemme de Borel-Cantelli, pour tout ω en dehors d’un
ensemble négligeable, il existe n0 = n0 (ω) ∈ N tel que pour tout n ≥ n0 , on ait
p
|Zn | < 2α log(n),
et donc que p.s., C < ∞.
Démonstration. [Théorème 1.2.1] Démontrons tout d’abord le point (i). Si l’on note
p
X
Btp := λl Zl ∆l (t), t ∈ [0, 1],
l=0
le point (i) revient à montrer que p.s., supt∈[0,1] |Bt − Btp | → 0 lorsque p → ∞. Tout
entier n strictement positif se décomposant de manière unique comme n = 2j + k, où
k ∈ {0, . . . , 2j − 1}, on a que log(n) < (j + 1) log(2), mais aussi que pour t ∈ [0, 1] et
j ∈ N fixés, ∆2j +k (t) = 0 sauf pour exactement une valeur de k ∈ {0, . . . , 2j − 1}, notée
kj,t . Ainsi, pour tout J ∈ N et tout M ≥ 2J , on a en utilisant le lemme 1.2.2,
X X p
λn |Zn |∆n (t) ≤ C λn log(n)∆n (t)
n≥M n≥M
−1 j
p X 2X p
≤ C log(2) 2−1−j/2 j + 1∆2j +k (t)
j≥J k=0
X p
= C̃ 2−j/2 j + 1∆2j +kj,t (t).
j≥J
d
!
1 X
= exp − θl θm min{tl , tm } ,
2 l,m=1
d’après ce qui précède. Ainsi, X est bien un vecteur gaussien, ce qui achève la démonstration
du point (ii), et donc du théorème 1.2.1.
Enfin, notons pour conclure cette partie que l’on peut étendre aisément la définition
du mouvement brownien à tout R+ de la façon suivante. Si l’on considère une famille
(n)
indexée par n ∈ N de mouvements browniens indépendants (Bt )t∈[0,1] sur [0, 1], alors on
définit le processus (Bt )t≥0 par
n
X (k) (n+1)
Bt := B1 + Bt−n , t ∈ [n, n + 1),
k=1
d’où le résultat.
La loi du 0/1 de Blumenthal est aussi une application immédiate de la continuité
à droite de la filtration naturelle (complétée) du mouvement brownien; voir à ce sujet le
chapitre 2.
Proposition 1.3.2. Soit (Bt )t≥0 un mouvement brownien sur R+ . Les propriétés suiv-
antes sont vérifiées:
(i) p.s. pour tout ε > 0, supt∈[0,ε] Bt > 0 et inf t∈[0,ε] Bt < 0.
(ii) p.s. pour tout ε > 0, le mouvement brownien a un zéro sur l’intervalle ]0, ε[.
(iii) étant donné x ∈ R∗ , notons Tx le premier temps de passage en x, i.e.
Tx := inf{t ≥ 0 : Bt = x} (avec inf ∅ = ∞ par convention). Alors on a pour tout x ∈ R∗ ,
P(Tx < +∞) = 1.
(iv) on a p.s. lim supt→∞ Bt = +∞ et lim inf t→∞ Bt = −∞.
(v) on a p.s. limt→+∞ Bt /t = 0.
Démonstration. On va démontrer certains points de cette proposition en utilisant les
invariances du mouvement brownien vues dans la proposition 1.1.13. Établissons tout
d’abord les points (i) et (ii). Soit (εn )n∈N une suite de réels strictement positifs décroissant
vers 0 et soit A l’événement défini par l’intersection décroissante (pour l’inclusion)
\
A := { sup Bt > 0}.
n∈N t∈[0,εn ]
24 CHAPITRE 1. LE MOUVEMENT BROWNIEN
Pour établir l’assertion avec l’infimum, il suffit de remarquer que (−Bt )t≥0 est aussi un
mouvement brownien. Le point (i) est donc démontré. Quant au point (ii), il ne s’agit que
d’une conséquence immédiate de (i) en utilisant le théorème des valeurs intermédiaires,
le mouvement brownien étant un processus à trajectoires continues.
À présent, démontrons les points (iii) et (iv). Par la propriété d’autosimilarité, on a pour
tout x > 0 et tout t > 0:
P(Tx ≤ t) = P( sup Bs ≥ x)
s∈[0,t]
= P( sup Bst ≥ x)
s∈[0,1]
x
= P( sup Bs(t) ≥ √ )
s∈[0,1] t
x
= P( sup Bs ≥ √ ),
s∈[0,1] t
et par convergence monotone lorsque t → ∞, on obtient d’après ce qui précède que
P(Tx < ∞) = 1. Par symétrie du mouvement brownien, on en déduit que P(Tx < +∞) =
1 pour tout x < 0. Enfin, étant donné que le mouvement brownien est une fonction
continue de R+ dans R, il ne peut visiter tous les réels que si, p.s., lim supt→∞ Bt = +∞
et lim inf t→∞ Bt = −∞.
Finissons par le point (v). Par la propriété de retournement du temps, le processus
B̃t := tB1/t est un mouvement brownien sur R+ donc le comportement de B̃t /t est le
même que celui de B1/t , qui tend vers 0 lorsque t → +∞ par continuité.
Terminons ce paragraphe en démontrant un résultat très important à propos de la
non-dérivabilité des trajectoires browniennes.
Théorème 1.3.3. On a p.s.: les trajectoires browniennes ne sont pas dérivables.
Démonstration. Le mouvement brownien étant invariant par translation, il suffit de
démontrer la non-dérivabilité en 0, c’est-à-dire montrer que la quantité
Bt − B0 Bt
=
t−0 t
n’admet pas de limite lorsque t → 0. Or, par la propriété de retournement du temps,
(B̃t )t≥0 est aussi un mouvement brownien sur R+ . Ainsi, B̃t /t a le même comportement
que B1/t , qui n’admet pas de limite lorsque t → 0 d’après le point (iv) de la proposi-
tion 1.3.2.
1.3. COMPORTEMENT DES TRAJECTOIRES BROWNIENNES 25
Ceci va nous permettre de démontrer une propriété de Hölder continuité des trajectoires
browniennes, dont on rappelle la définition.
Définition 1.3.4. Une fonction f : [0, 1] → R est dite Hölder continue d’exposant α ∈
(0, 1) (ou encore α-höldérienne) s’il existe une constante c > 0 telle que
Remarque 1.3.5. Notons que cette propriété entraı̂ne l’uniforme continuité. Pour α = 1,
il s’agit des fonctions lipschitziennes tandis que pour α = 0, seules les fonction bornées
telles que sup f −inf f ≤ 1 sont concernées. Enfin si α > 1 alors f est forcément constante.
Théorème 1.3.6. Pour tout α ∈ (0, 1/2), p.s. les trajectoires browniennes sont α-
höldériennes.
La démonstration de ce résultat sera immédiate
√ une fois le lemme suivant établi
(se servir du fait que lorsque α ∈ (0, 1/2), on a j + 1 × 2−j/2 ≤ 2−αj pour j assez grand).
Il s’agit d’un résultat d’analyse dont on donne la démonstration par soucis de complétude.
Lemme 1.3.7. Soit f : [0, 1] → R une fonction continue admettant le développement en
ondelettes suivant: X
f (t) = f (0) + cn ∆n (t),
n≥0
où la convergence de la série est supposée uniforme sur [0, 1]. S’il existe α ∈ (0, 1) tel
que pour j entier assez grand, on ait |c2j +k | ≤ 2−αj , où k ∈ {0, . . . , 2j − 1}, alors f est
α−höldérienne.
Démonstration. Supposons sans perte de généralité et pour simplifier que c0 = 0 et que
|c2j +k | ≤ 2−αj pour tout j ∈ N et tout k ∈ {0, . . . , 2j − 1} (le cas général est immédiat,
bien qu’un peu pénible à écrire). Alors pour tous s, t ∈ [0, 1],
−1 j
X 2X
f (t) − f (s) = c2j +k (∆2j +k (t) − ∆2j +k (s))
j≥0 k=0
X
=: Dj (s, t).
j≥0
Rappelons que pour u ∈ [0, 1] et j ∈ N fixés, on a que ∆2j +k (u) ∈ (0, 1] pour exactement
une valeur de k ∈ {0, . . . , 2j − 1}, notée kj,u . Ainsi, on a
Dj (s, t) = c2j +kj,t ∆2j +kj,t (t) − c2j +kj,s ∆2j +kj,s (s).
26 CHAPITRE 1. LE MOUVEMENT BROWNIEN
De plus, toutes les fonctions ∆2j +k étant triangulaires de pente ±2j+1 , on obtient que
pour tout k ∈ {kj,t , kj,s },
Ainsi, après avoir différencié les cas kj,t = kj,s et kj,t 6= kj,s , il en résulte alors les bornes
supérieures suivantes:
2 × 2−αj ;
|Dj (s, t)| ≤
2 × 2−αj × 2j+1 |t − s|.
Théorème 1.3.8. Notons C(α, c, ε) l’ensemble des ω ∈ Ω tels qu’il existe s ∈ [0, 1] tel
que
|Bt (ω) − Bs (ω)| ≤ c |t − s|α , pour tout t tel que |t − s| ≤ ε.
Si α > 1/2 alors P(C(α, c, ε)) = 0 pour tout c > 0 et tout ε > 0.
Démonstration. Nous allons démontrer ce résultat en utilisant l’indépendance et la
stationnarité des accroissements browniens. Soit m ∈ N∗ fixé, que l’on choisira plus tard
de manière adéquate. Pour tout entier n ≥ m (qui aura vocation à tendre vers l’infini),
on définit la variable aléatoire
n o
Xn,k := max |B j+1 − B j | : j ∈ {k, . . . , k + m − 1} , k ∈ {0, . . . , n − m},
n n
représentant le maximum des m accroissements browniens pris entre les instants k/n et
(k + m)/n. Soit ω ∈ C(α, c, ε): il existe s ∈ [0, 1] tel que |Bt (ω) − Bs (ω)| ≤ c|t − s|α
pour tout t ∈ [0, 1] satisfaisant |t − s| ≤ ε. Prenons n assez grand de sorte que m/n ≤ ε.
Comme s ∈ [0, 1], il existe k ∈ {0, . . . , n − m} tel que s ∈ [k/n, (k + m)/n]. Ainsi, pour
1.3. COMPORTEMENT DES TRAJECTOIRES BROWNIENNES 27
tout j ∈ {k, . . . , k + m − 1}, la distance entre s et j/n ou (j + 1)/n est inférieure à m/n,
qui est inférieure à ε. D’où l’on obtient
α 1/2−α m
= (n − m + 1) P |B1 | ≤ 2cm n .
Or, B1 suivant la loi N (0, 1), on a pour tout x assez petit que
2x
P (|B1 | ≤ x) ≤ √ ,
2π
et l’on obtient alors en réinjectant dans l’inégalité précédente que
m
4cmα
P(C(α, c, ε)) ≤ √ n1+m(1/2−α) .
2π
Enfin, comme α > 1/2 et m est un entier arbitraire, il suffit de prendre ce dernier tel que
m(α − 1/2) > 1 afin que le terme de droite ci-dessus tende vers 0 lorsque n → ∞. La
démonstration du théorème est achevée.
À présent, on se pose la question suivante: qu’en est-il du cas limite α = 1/2 ?
Pas d’inquiétude, cher lecteur, ce cas-là étant appréhendé avec une grande précision.
Théorème 1.3.9 (Module de continuité de Lévy). Définissons le module de continuité
du mouvement brownien par
2n
= (1 − In )
≤ exp (−2n In )
2
!
Kδ en(1−δ ) log(2)
≤ exp − √ .
n
P
Comme δ ∈ (0, 1), la série n αn converge et par le lemme de Borel-Cantelli, pour tout ω
en dehors d’un ensemble négligeable Nδ , il existe n0 = n0 (ω) ∈ N tel que pour tout entier
n ≥ n0 , on ait
|B kn (ω) − B k−1 (ω)|
2n
maxn 2 > δ.
1≤k≤2 φ(2−n )
1.3. COMPORTEMENT DES TRAJECTOIRES BROWNIENNES 29
où le supremum est pris sur l’ensemble des subdivisions (ti ) de [0, T ]. Elle est dite à
variation bornée sur l’intervalle [0, T ] si Var(f, T ) < ∞.
Par exemple, toute fonction lipschitzienne est à variation bornée, toute fonction
monotone également. En particulier, toute fonction à variation bornée:
- est différence de deux fonctions croissantes;
- a au plus une infinité dénombrable de points de discontinuité.
- est dérivable presque partout (au sens de la mesure de Lebesgue).
Mentionnons qu’à l’avenir les suites de subdivisions que nous considérerons seront
en général emboı̂tées bien que dans certains cas, comme ci-dessous, cela ne soit pas
nécessaire.
Proposition 1.3.11. Soit 0 = tn0 < tn1 < · · · < tnpn = t une suite de subdivisions emboı̂tées
de l’intervalle [0, t] de pas tendant vers 0, i.e. πn := sup1≤i≤pn tni − tni−1 → 0 lorsque
n → ∞. Alors, on a la convergence suivante dans L2 :
!2
pn
X
lim E (Btni − Btni−1 )2 − t = 0.
n→∞
i=1
pn
X
= 2 (∆ti,n )2
i=1
≤ 2tπn ,
quantité qui tend vers 0 lorsque n → ∞. Dans la dernière égalité ci-dessus, nous avons
utilisé le fait que si X est une variable aléatoire normale centrée et de variance σ 2 , alors
Var(X 2 ) = 2σ 4 .
À présent, supposons la subdivision de l’intervalle [0, t] uniforme, i.e. les ∆ti,n ne dépendent
pas de i. Par exemple, considérons les tni dep la forme tni := it/2n avec pn = 2n . Alors pour
i ∈ {1, . . . , 2n }, les accroissements Ui := 2n /t ∆Bi,n sont i.i.d. de loi normale centrée
réduite. On obtient alors par la loi forte des grands nombres que
2 n 2 n
X
2 t X 2
(∆Bi,n ) = n U
i=1
2 i=1 i
qui tend vers 0 lorsque n → +∞, le module de continuité de Lévy étant une fonction
continue par continuité uniforme du mouvement brownien sur l’intervalle compact [0, t].
Il y a donc contradiction.
1.4. PROPRIÉTÉ DE MARKOV FORTE ET PRINCIPE DE RÉFLEXION 31
Ta := inf{t ≥ 0 : Bt = a},
et déduisez-en que
h i
(τ ) (τ )
E 1A f (Bt1 , . . . , Btd ) = P (A) E [f (Bt1 , . . . , Btd )] .
(b) Concluez.
2 - À présent, nous allons démontrer le principe de réflexion du mouvement brownien, qui
énonce que le processus X donné par
P (2a − Bt ≥ x; Ta ≤ t) = P (Bt ≥ x; Ta ≤ t) , t ≥ 0,
P (St ≥ a; Bt ≤ x) = P (Bt ≥ 2a − x) .
(b) Déduisez-en que St a même loi que |Bt |. Les processus S et |B| ont-ils la même
loi ?
(c) Montrez que la loi jointe du couple (St , Bt ) a pour densité
(2a − x)2
2(2a − x)
ft (a, x) = √ exp − 1[0,∞) (a) 1(−∞,a] (x).
2πt3 2t
Martingales
Remarque 2.1.2. La notion de tribu est liée à l’information dont nous disposons. Ainsi,
supposer cette suite de tribus croissante traduit simplement le fait que plus on avance
dans le temps, plus on a d’informations.
Définition 2.1.3. Considérons une suite de variables aléatoires réelles (Mn )n∈N . On
dit que (Mn )n∈N est adaptée à une filtration (Fn )n∈N si Mn est Fn -mesurable pour tout
n ∈ N.
Remarque 2.1.4. Notons que (Mn )n∈N est évidemment adaptée à sa filtration naturelle,
définie par Fn := σ(Mk : k ∈ {0, . . . , n}) pour tout n ∈ N.
Définition 2.1.5. Considérons une suite (Mn )n∈N adaptée à une filtration (Fn )n∈N , et
dont tous les éléments sont intégrables. On dit que la suite (Mn )n∈N est (pour (Fn )n∈N )
une
(i) martingale si E[Mn+1 | Fn ] = Mn pour tout n ∈ N.
(ii) surmartingale si E[Mn+1 | Fn ] ≤ Mn pour tout n ∈ N.
(iii) sous-martingale si E[Mn+1 | Fn ] ≥ Mn pour tout n ∈ N.
33
34 CHAPITRE 2. MARTINGALES
Remarque 2.1.6. Observons qu’une martingale est à la fois une surmartingale et une
sous-martingale. Par ailleurs, elle est forcément d’espérance constante, tandis que celle
d’une surmartingale décroı̂t et celle d’une sous-martingale croı̂t.
Proposition 2.1.7. Soit (Mn )n∈N une suite adaptée à une filtration (Fn )n∈N , et telle que
tous ses éléments soient intégrables. Alors c’est une martingale si et seulement si pour
tout n, p ∈ N,
E[Mn+p | Fn ] = Mn .
Démonstration. La condition suffisante est triviale (prendre p = 1). Pour la condition
nécessaire, notons que l’on a pour p ∈ N∗ ,
" p #
X
E[Mn+p | Fn ] = E (Mn+i − Mn+i−1 ) + Mn | Fn
i=1
p
X
= E [E [Mn+i − Mn+i−1 | Fn+i−1 ] | Fn ] + Mn
i=1
= Mn ,
car (Fn )n∈N étant une filtration, on a Fn ⊂ Fn+i−1 pour tout i ∈ {1, . . . , p}.
Dans la suite, nous supposerons l’espace de probabilité filtré par une filtration
générique (Fn )n∈N .
Proposition 2.1.8. Soit (Mn )n∈N une sous-martingale et soit f : R → R une fonc-
tion convexe croissante. On suppose que f (Mn ) ∈ L1 pour tout n ∈ N. Alors la suite
(f (Mn ))n∈N est elle-même une sous-martingale. Si (Mn )n∈N est une martingale, alors il
suffit que f soit convexe.
Démonstration. Immédiate en utilisant l’inégalité de Jensen pour l’espérance condition-
nelle.
2.1. RAPPELS SUR LES MARTINGALES À TEMPS DISCRET 35
Remarque 2.1.9. Par exemple, si (Mn )n∈N est une martingale alors (|Mn |p )n∈N (avec
p ≥ 1 et sous réserve que chaque Mn est dans Lp ) et (Mn+ )n∈N sont des sous-martingales.
Définition 2.1.10. Soit (Mn )n∈N une martingale et soit (An )n∈N ∗ une suite de variables
aléatoires réelles prévisibles, i.e. An ∈ Fn−1 pour tout n ∈ N∗ . Alors la transformation
prévisible de la martingale (Mn )n∈N par la suite (An )n∈N ∗ est définie par la suite donnée
par Mf0 = M0 et
X n
Mn := M0 +
f Ai (Mi − Mi−1 ), n ∈ N∗ .
i=1
Théorème 2.1.11. Si les variables aléatoires réelles An sont bornées en plus d’être
prévisibles, alors la transformation prévisible (M
fn )n∈N de la martingale (Mn )n∈N par
(An )n∈N ∗ est encore une martingale.
Démonstration. Tout d’abord, remarquons que la suite (M fn )n∈N est clairement adaptée
par rapport à la filtration (Fn )n∈N , et que la bornitude des An assure simplement que les
éléments Mfn sont bien intégrables pour tout n ∈ N. Étant donné un entier n, on a par la
prévisibilité de An+1 ,
h i
E M fn+1 − M
fn |Fn = E [An+1 (Mn+1 − Mn )|Fn ]
= An+1 E [Mn+1 − Mn |Fn ]
= 0,
Définition 2.1.12. Une variable aléatoire entière τ , pouvant prendre la valeur +∞, est
un temps d’arrêt pour la filtration (Fn )n∈N si
{τ ≤ n} ∈ Fn , n ∈ N.
Notons que dans cette définition on peut remplacer l’événement {τ ≤ n} par {τ = n}, ce
qui ne sera plus le cas lorsque le temps sera continu. Pour illuster cette notion de temps
d’arrêt, prenons l’exemple d’un joueur rentrant avec une somme S0 dans un casino. On
note Sn sa fortune à l’instant n. Ce joueur décide de jouer tant qu’il a encore de l’argent
36 CHAPITRE 2. MARTINGALES
dans son portefeuille (on suppose le casino ouvert 24h sur 24). Cela signifie qu’il joue
jusqu’à l’instant
τ := inf{n ∈ N : Sn = 0},
qui est un temps d’arrêt pour la filtration naturelle de la suite (Sn )n∈N .
Définition 2.1.13. Étant donné un temps d’arrêt τ , on définit Fτ la tribu des événements
antérieurs à τ par
Fτ := {A ∈ A : A ∩ {τ = n} ∈ Fn ∀n ∈ N} .
Lorsque que le temps d’arrêt est infini, nous pouvons toujours le tronquer en considérant
plutôt pour un entier n donné le temps d’arrêt n ∧ τ , qui est fini et même borné. Dans
ce cas, la variable aléatoire Xn∧τ est bien définie.
Théorème 2.1.14 (Théorème d’arrêt). Soit (Mn )n∈N une martingale et soit τ un temps
d’arrêt. Alors la suite arrêtée (Mn∧τ )n∈N est aussi une martingale.
De plus, si τ1 ≤ τ2 sont deux temps d’arrêt supposés bornés, alors on a
ce qui entraı̂ne que la suite (Mn∧τ )n∈N est la transformation prévisible de la martingale
(Mn )n∈N par rapport à (An )n∈N ∗ . Ainsi, le théorème 2.1.11 nous permet de conclure quant
à la première affirmation. Le lecteur averti aura noté que cette propriété de martingale
peut être démontrée directement, bien évidemment.
Démontrons maintenant les deux égalités. Supposons τ2 borné par une constant positive
κ. Comme (Mn∧τ2 )n∈N est une martingale, on a pour n ≥ κ que
n∧τ
X
|Mn∧τ | ≤ |Mi − Mi−1 |
i=1
Xκ
≤ (|Mi | + |Mi−1 |),
i=1
Mn∗ := sup Mk , n ∈ N.
0≤k≤n
On les appelle inégalités maximales (de Doob). Dans cette partie, nous établissons
deux inégalités maximales pour les sous-martingales positives qui nous serviront comme
ingrédient de base dans le développement du calcul stochastique. En particulier, une fois
que tous les résultats ci-dessous seront démontrés, ils seront immédiatement valables pour
des martingales, en remplaçant Mn∗ par sup0≤k≤n |Mk |.
Théorème 2.2.1. Soit (Mn )n∈N une sous-martingale positive. Alors pour tout n ∈ N,
Par ailleurs, si (Mn )n∈N a tous ses éléments dans Lp , où p ≥ 1, alors pour tout n ∈ N,
E[|Mn |p ]
P(Mn∗ ≥ λ) ≤ , λ > 0.
λp
Démonstration. Établissons tout d’abord la première inégalité. Notons que pour une
sous-martingale, on a
Mk ≤ E[Mn | Fk ], k ≤ n, n, k ∈ N,
E[Mk 1A ] ≤ E[Mn 1A ].
où τλ est le temps d’arrêt τλ := inf{n ∈ N : Mn ≥ λ}. Ainsi, étant donné que sur
{τλ ≤ n}, on a Mτλ ≥ λ, on obtient en passant à l’espérance et en utilisant l’inégalité
précédente que
Alors la suite (Mn )n∈N converge p.s. et dans L2 vers une variable aléatoire M∞ ∈ L2 .
Démonstration. Pour toute paire arbitraire de rationnels a < b, notons l’ensemble
Aa,b := ω ∈ Ω : lim inf Mn (ω) ≤ a < b ≤ lim sup Mn (ω) .
n→+∞ n→+∞
Ainsi, la suite (Mn )n∈N va converger p.s. (éventuellement vers l’infini) à partir du moment
où l’on montre que P(∪a,b∈Q Aa,b ) = 0. Afin de faire le rapprochement avec les inégalités
maximales, observons que l’on a
b−a
Aa,b ⊂ ω ∈ Ω : sup |Mk (ω) − Mm (ω)| ≥ , m ∈ N.
k≥m 2
En effet, si ω ∈ Aa,b , alors pour tout m ∈ N,
qui est la somme partielle d’une série convergente par l’hypothèse de L2 -bornitude. Par
ailleurs, le processus (Mk+m − Mm )k∈N étant une martingale (pour la filtration translatée
(Fk+m )k∈N ), la suite (Mk0 )k∈N définie pour tout k ∈ N par Mk0 := (Mk+m − Mm )2 est une
sous-martingale positive et l’inégalité de Doob du théorème 2.2.1, combinée au lemme de
Fatou, s’applique de la manière suivante:
(b − a)2
b−a 0
P sup |Mk − Mm | ≥ = P sup Mk ≥
k≥m 2 k≥0 4
4
≤ lim inf E [Mk0 ]
(b − a)2 k→∞
4
= 2
sup E [Mk0 ]
(b − a) k≥0
k+m
4 X
= sup E d2i
(b − a)2 k≥0 i=m
4 X
= E d2i .
(b − a)2 i≥m
Enfin, le terme de droite tend vers 0 lorsque m → +∞, ce qui démontre que P(Aa,b ) = 0,
et donc que P(∪a,b∈Q Aa,b ) = 0.
Pour démontrer la seconde assertion, notons M∞ la limite p.s. de la martingale (Mn )n∈N .
Par le lemme de Fatou, on a
2
≤ lim inf E Mn2 ≤ sup E Mn2 < +∞,
E M∞
n→+∞ n∈N
d’où M∞ est non seulement finie mais aussi dans L2 . Enfin, la convergence dans L2 est
immédiate d’après ce qui précède:
X
E (M∞ − Mn )2 = E[d2k ] −→ 0.
n→+∞
k≥n+1
2.2. INÉGALITÉS MAXIMALES ET THÉORÈMES DE CONVERGENCE 41
Remarque 2.2.4. Mentionnons que ce résultat reste valable lorsqu’on remplace L2 par
Lp pour tout p > 1.
Définition 2.2.5. Une famille de variables aléatoires réelles (Xi )i∈I est dite uniformément
intégrable si
lim sup E |Xi | 1{|Xi |>a} = 0.
a→+∞ i∈I
L’intérêt d’introduire cette notion est qu’elle va nous permettre d’obtenir la conver-
gence dans L1 à partir de la convergence p.s., lorsque le théorème de convergence dominée
ne s’applique pas.
Proposition 2.2.6. Si une suite (Xn )n∈N est uniformément intégrable et converge p.s.
vers une variable aléatoire X∞ , alors X∞ ∈ L1 et la convergence a aussi lieu dans L1 .
Démonstration. Notons pour tout a > 0 la quantité
ρ(a) := sup E |Xn | 1{|Xn |>a} .
n∈N
|Xn − X∞ | ≤ |Xn − X∞ | 1{|Xn |≤a} + |X∞ | 1{|Xn |>a} + |Xn | 1{|Xn |>a} .
Les deux premiers termes sont majorés respectivement par a + |X∞ | et |X∞ |, tous deux
dans L1 , donc le théorème de convergence dominée entraı̂ne que
E |Xn − X∞ | 1{|Xn |≤a} −→ 0 et E |X∞ | 1{|Xn |>a} −→ E |X∞ | 1{|X∞ |>a} ≤ ρ(a),
n→+∞ n→+∞
tandis que le troisième et dernier terme est majoré en espérance par ρ(a). Ainsi, on
obtient que
lim sup E [|Xn − X∞ |] ≤ 2ρ(a),
n→+∞
Ainsi, en prenant A = Ω, ceci entraı̂ne par intégrabilité uniforme que supi∈I E[|Xi |] <
+∞. Montrons maintenant l’équicontinuité. Soit ε > 0. On choisit alors a de telle sorte
que supi∈I E[|Xi | 1{|Xi |>a} ] < ε/2. De l’inégalité ci-dessus, il s’ensuit
ε
sup E[|Xi | 1A ] ≤ a P(A) + .
i∈I 2
Remarque 2.2.8. En particulier, si une variable aléatoire réelle est intégrable, alors
on peut adapter la preuve précédente pour montrer, en utilisant le théorème de conver-
gence dominée, qu’elle est équicontinue. Ceci se généralise à une famille finie de variables
aléatoires.
Théorème 2.2.9. Soit (Mn )n∈N une martingale. Alors les assertions suivantes sont
équivalentes:
(i) il existe une variable aléatoire Z ∈ L1 telle que
Mn = E[Z | Fn ], n ∈ N.
La variable aléatoire Z étant équicontinue car intégrable, pour tout ε > 0, il existe η > 0
tel que pour tout n ∈ N,
P(An ) < η =⇒ E [|Z| 1An ] < ε.
Il suffit enfin de choisir a assez grand de sorte que supn∈N P(An ) < η, et on aura alors
E [|Mn | 1An ] < pour tout n ∈ N, autrement dit l’intégrabilité uniforme.
(ii) ⇒ (iii) : on admet la démonstration de la convergence p.s., qui n’est pas difficile
mais utilise un formalisme assez pénible à introduire. Il s’agit de considérer ce que l’on
appelle le “nombre de montées d’une martingale à travers un intervalle fixé”. Le lecteur
intéressé trouvera une preuve de ce résultat dans n’importe quel ouvrage traitant de la
convergence des martingales. Une fois la convergence p.s. établie, la convergence dans L1
est immédiate par la proposition 2.2.6.
(iii) ⇒ (i) : notons que pour tous n, p ∈ N et tout A ∈ Fn , la propriété de martingale et
l’inégalité de Cauchy-Schwarz entraı̂nent que
Remarque 2.2.10. On en déduit par les théorèmes 2.2.3 et 2.2.9 que toute martingale
bornée dans un Lp , où p > 1, est fermée.
44 CHAPITRE 2. MARTINGALES
Alors (Ft+ )t≥0 est une nouvelle filtration. On dit que la filtration (Ft )t≥0 est continue
à droite si Ft+ = Ft pour tout t ≥ 0. Enfin une filtration est dite standard si elle est
complète et continue à droite.
Remarque 2.3.2. On peut toujours se ramener au cas d’une filtration complète en rem-
plaçant Ft par F̄t := σ(Ft , N ), où N désigne la classe des ensembles négligeables de
F∞ . De plus, remarquons que la filtration (Ft+ )t≥0 est la plus petite filtration continue à
droite contenant (Ft )t≥0 . Enfin, si l’on considère la filtration naturelle d’un processus X
à trajectoires continues, i.e. pour tout t ≥ 0, Ft := σ(Xs : s ∈ [0, t]), il se peut qu’elle ne
soit pas continue à droite.
Soit B un mouvement brownien, Ft0 := σ(Bs : s ∈ [0, t]) et F∞ 0
:= σ(Bt : t ≥ 0).
0
Si N désigne la classe des ensembles négligeables de F∞ , on définit
Ft := σ(Ft0 , N ).
La filtration (Ft )t≥0 s’appelle la filtration standard du mouvement brownien, et comme
son nom l’indique, c’est une filtration standard car elle est continue à droite (résultat
admis): Ft+ = Ft pour tout t ≥ 0.
Définition 2.3.3. Un processus X est adapté à une filtration (Ft )t≥0 si Xt est Ft -
mesurable pour tout t ≥ 0.
Définition 2.3.4. Considérons un processus M adapté à une filtration (Ft )t≥0 , et dont
tous les éléments sont intégrables. On dit que M est, par rapport à (Ft )t≥0 , une
(i) martingale si E[Mt | Fs ] = Ms pour tout 0 ≤ s ≤ t.
(ii) surmartingale si E[Mt | Fs ] ≤ Ms pour tout 0 ≤ s ≤ t.
(iii) sous-martingale si E[Mt | Fs ] ≥ Ms pour tout 0 ≤ s ≤ t.
2.3. MARTINGALES À TEMPS CONTINU 45
Encore une fois, donnons-nous quelques exemples encore plus sympathiques que dans le
cadre discret. Pour cela, on considère un processus à accroissements indépendants X, i.e.
pour tout 0 ≤ s < t, la variable aléatoire Xt − Xs est indépendante de la tribu Fs , où
(Ft )t≥0 est sa filtration naturelle. Le lecteur attentif aura remarqué que cette définition est
légèrement différente de celle donnée pour le mouvement brownien au chapitre précédent,
dans la proposition 1.1.11. Il s’avère qu’en fait ces deux définitions coı̈ncident lorsque l’on
prend la filtration standard du mouvement brownien.
(i) Si le processus X est intégrable alors Mt := Xt − E[Xt ] est une martingale par
rapport à (Ft )t≥0 .
(ii) Si X est centré et de carré intégrable, alors même conclusion pour le processus
Mt := Xt2 − E[Xt2 ].
(iii) Si X est exponentiellement intégrable d’ordre θ > 0, alors même conclusion
(θ)
pour le processus Mt := eθXt /E eθXt .
En particulier, on voit que le mouvement brownien est une martingale par rapport à sa
filtration standard.
Dans la suite de ce cours, on supposera l’espace de probabilité filtré par une filtra-
tion générique (Ft )t≥0 .
Proposition 2.3.5. Soit M une sous-martingale et soit f : R → R une fonction convexe
croissante. On suppose que f (Mt ) ∈ L1 pour tout t ≥ 0. Alors le processus (f (Mt ))t≥0
est elle-même une sous-martingale. Si M est une martingale, alors il suffit que f soit
convexe.
{τ ≤ t} ∈ Ft , t ≥ 0.
Fτ := {A ∈ A : A ∩ {τ ≤ t} ∈ Ft ∀t ≥ 0} .
Notons que si τ n’était pas un temps d’arrêt, Fτ ne serait pas une tribu (Ω ∈ / Fτ ).
De plus, on remarque que la définition de Fτ est quelque peu différente du cas où le
temps est discret, où la notion de continuité à droite n’a pas de sens (comme on l’a vu
précédemment, on peut utiliser comme définition d’un temps d’arrêt que {τ = n} ∈ Fn
ou {τ ≤ n} ∈ Fn pour tout n ∈ N). Dans le cas continu, {τ = t} ∈ Ft pour tout t ≥ 0
n’implique pas que τ est un temps d’arrêt pour (Ft )t≥0 .
Voici maintenant une liste de propriétés classiques satisfaites par les temps d’arrêt,
dont les démonstrations sont laissées au lecteur passionné. En particulier, certains résultats
46 CHAPITRE 2. MARTINGALES
nous prouvent à quel point il est agréable de considérer une filtration standard plutôt
qu’une filtration quelconque.
Proposition 2.3.7. (i) Si τ (ω) = t pour tout ω ∈ Ω, alors τ est un temps d’arrêt et
Fτ = Ft (il n’y a donc pas d’ambiguı̈té de notation).
(ii) Le temps d’arrêt τ est Fτ -mesurable.
(iii) Si τ1 ≤ τ2 , alors Fτ1 ⊂ Fτ2 .
(iv) Les variables min{τ1 , τ2 } et max{τ1 , τ2 } sont des temps d’arrêt et Fmin{τ1 ,τ2 } =
F τ1 ∩ F τ2 .
(v) Les événements {τ1 < τ2 }, {τ1 ≤ τ2 } et {τ1 = τ2 } sont dans Fτ1 ∩ Fτ2 .
(vi) Si (τn )n∈N est une suite croissante de temps d’arrêt, alors τ := limn→∞ τn est
aussi un temps d’arrêt (éventuellement infini).
(vii) La variable τ est un temps d’arrêt pour la filtration (Ft+ )t≥0 si et seulement
si pour tout t ≥ 0, {τ < t} ∈ Ft .
(viii) Si (Ft )t≥0 n’est pas continue à droite, il existe des temps d’arrêt pour (Ft+ )t≥0
qui ne le sont pas pour (Ft )t≥0 .
(ix) Tout temps d’arrêt pour (Ft+ )t≥0 est limite d’une suite décroissante de temps
d’arrêt pour (Ft )t≥0 .
(x) Si (Ft )t≥0 est continue à droite, alors on peut remplacer {τ ≤ t} par {τ < t}
dans la définition de la tribu Fτ .
Soit X un processus adapté à la filtration (Ft )t≥0 . Étant donné un borélien A, on note le
temps d’entrée dans A par τA := inf{t ≥ 0 : Xt ∈ A}, où l’on convient que inf ∅ = ∞.
(xi) Si A est fermé et X à trajectoires continues, alors τA est un temps d’arrêt
pour (Ft )t≥0 .
(xii) Si A est ouvert et X à trajectoires continues, alors τA est un temps d’arrêt
pour (Ft+ )t≥0 .
À partir de maintenant, vu que l’on va sans cesse manipuler des temps d’arrêt, la
filtration (Ft )t≥0 sera supposée standard.
Théorème 2.3.8 (Théorème d’arrêt). Soit M une martingale continue et soit τ un temps
d’arrêt p.s. fini. Alors le processus arrêté M τ donné par Mtτ = Mt∧τ est aussi une
martingale.
De plus, si σ ≤ τ sont deux temps d’arrêt bornés, alors on a
Remarque 2.3.9. Si l’on suppose que la martingale est uniformément intégrable, alors
on peut s’affranchir de l’hypothèse de bornitude sur les temps d’arrêt. Cette remarque
est évidemment valable pour le théorème d’arrêt en temps discret.
Démonstration. Les deux points que nous devons vérifier sont l’intégrabilité du processus
M τ ainsi que la propriété de martingale, i.e. pour tout 0 ≤ s ≤ t,
E [Mt∧τ | Fs ] = Ms∧τ .
2.3. MARTINGALES À TEMPS CONTINU 47
qui contient les éléments s et t, et désignons par τn le plus petit élément de Sn (s, t)
supérieur ou égal à τ , i.e.
τn = inf{u ∈ Sn (s, t) : u ≥ τ }.
On remarque que Sn (s, t) ⊂ Sn+1 (s, t) et que (τn )n≥1 est une suite de temps d’arrêt qui
tend p.s. vers τ en décroissant. Ainsi le processus (Mu )u∈Sn (s,t)+ (resp. (|Mu |)u∈Sn (s,t)+ )
est une martingale (resp. sous-martingale) à temps discret par rapport à la filtration
discrète (Fu )u∈Sn (s,t)+ , où Sn (s, t)+ désigne l’ensemble des éléments positifs ou nuls de
Sn (s, t). Ainsi, par le théorème d’arrêt 2.1.14, les temps d’arrêt t et t ∧ τn étant dans
Sn (s, t)+ et bornés, on a
E [Mt | Ft∧τn ] = Mt∧τn , (2.3.1)
et par l’inégalité de Jensen, on obtient
E [|Mt∧τn |] ≤ E [|Mt |] .
E [Mt∧τn | Fs ] = Ms∧τn .
Il reste à faire tendre n proprement vers l’infini de chaque côté de l’égalité. Par continuité
de la martingale, le terme de droite tend p.s. vers Ms∧τ . De même, comme Mt∧τn tend p.s.
vers Mt∧τ , il nous suffit de montrer, par unicité de la limite, la convergence dans L1 pour
établir l’égalité désirée. En adaptant la preuve du début du théorème 2.2.9, l’égalité (2.3.1)
entraı̂ne l’uniforme intégrabilité de la suite (Mt∧τn )n≥1 . Ainsi, par la proposition 2.2.6, la
convergence dans L1 est démontrée, ce qui achève la démonstration de la première partie
du théorème.
À présent, si τ et σ sont deux temps d’arrêt bornés (disons par κ), alors adaptant le même
raisonnement que précédemment, il existe deux suites décroissantes de temps d’arrêt
(τn )n≥1 et (σn )n≥1 convergeant p.s. respectivement vers τ et σ, et telles que p.s., σn ≤
τn pour tout entier n ≥ 1 et τn ≤ κ + 1 pour n assez grand. Alors par le théorème
d’arrêt 2.1.14 appliqué à la restriction de la martingale à l’ensemble (discret) des valeurs
possibles pour un couple (σn , τn ),
Ainsi, les suites (Mσn )n≥1 et (Mτn )n≥1 sont uniformément intégrables. Enfin, comme elles
convergent p.s. respectivement vers Mσ et Mτ , on en déduit par la proposition 2.2.6 la
convergence dans L1 , et donc on obtient en faisant tendre n → ∞ dans (2.3.2) l’égalité
désirée:
E [Mτ | Fσ ] = Mσ .
On vient de voir qu’il fallait travailler un peu afin d’établir le théorème d’arrêt
en temps continu. En revanche, l’adaptation des inégalités maximales de Doob au temps
continu est immédiate, comme on va le voir ci-dessous. Dans la suite, on note pour une
sous-martingale positive son processus supremum
En particulier, une fois que tous les résultats ci-dessous seront démontrés, ils seront
immédiatement valables pour des martingales, en remplaçant MT∗ par supt∈[0,T ] |Mt |.
Théorème 2.3.10 (Inégalités maximales de Doob). Soit M une sous-martingale positive
continue et ayant tous ses éléments dans Lp , où p ≥ 1. Alors pour tout T > 0 on a
l’inégalité suivante :
E [MTp ]
P (MT∗ > λ) ≤ , λ > 0,
λp
et si p > 1, on a aussi p
p
∗ p
E [(MT ) ] ≤ E [MTp ] .
p−1
Démonstration. Étant donné T > 0, notons pour tout n ∈ N l’ensemble Sn [0, T ] :=
{kT /2n : k = 0, 1, . . . , 2n }. Alors par continuité du processus M , on a
Ainsi, en utilisant les deux inégalités maximales de Doob du théorème 2.2.1 pour la sous-
martingale positive à temps discret (Mt )t∈Sn [0,T ] puis le lemme de Fatou, on obtient pour
tout λ > 0, !
E [MTp ]
P (MT∗ > λ) ≤ lim inf P sup Mt > λ ≤ ,
n→+∞ t∈Sn [0,T ] λp
et aussi " # p
p
E [(MT∗ )p ] ≤ lim inf E sup Mtp ≤ E [MTp ] .
n→+∞ t∈Sn [0,T ] p−1
2.3. MARTINGALES À TEMPS CONTINU 49
pour un p > 1. Alors elle converge p.s. et dans Lp vers une variable aléatoire M∞ ∈ Lp .
De plus, la martingale est fermée par M∞ , i.e. Mt = E[M∞ | Ft ], t ≥ 0.
Démonstration. Démontrons simplement le cas de la convergence Lp . Pour tout m ∈ N,
on a
kMt − M∞ kp ≤ kMt − Mm kp + kMm − M∞ kp , t ≥ 0.
Le processus (|Mt − Mm |p )t≥m étant une sous-martingale pour la filtration translatée
(Fm+t )t≥0 , on a pour tout entier n vérifiant n > t ≥ m que
kMt − Mm kp ≤ kMn − Mm kp ,
Théorème 2.3.12. Soit M une martingale continue. Alors les assertions suivantes sont
équivalentes:
(i) M est fermée par une variable aléatoire Z ∈ L1 .
(ii) M est uniformément intégrable.
(iii) M converge p.s. et dans L1 vers une variable M∞ ∈ L1 .
Dans ce cas, on a Z = M∞ .
Démonstration. Les démonstrations de (i) ⇒ (ii) et (iii) ⇒ (i) sont les mêmes que celles
du théorème 2.2.9 pour les martingales à temps discret.
(ii) ⇒ (iii) : Une fois la convergence p.s. démontrée, la convergence dans L1 se déduit
de l’uniforme intégrabilité par la proposition 2.2.6, comme dans le cadre discret. Ainsi,
démontrons la convergence p.s. de la martingale. Tout d’abord, définissons la suite
croissante de temps d’arrêt
et notons que par le théorème d’arrêt 2.3.8, le processus M τn est une martingale bornée
par n. Ainsi, par le théorème 2.3.11, elle converge p.s. lorsque t → ∞. Étant donné que
50 CHAPITRE 2. MARTINGALES
Semimartingales continues
Dans le chapitre précédent, nous avons vu le cas des martingales. Il s’avère que ces
processus font partie d’une classe plus générale de processus stochastiques, appelés semi-
martingales, pour lesquels nous serons en mesure dans le prochain chapitre d’établir une
théorie de l’intégration stochastique. Par définition, une semimartingale continue est la
somme d’une martingale locale et d’un processus à variation bornée, tous deux conti-
nus. Après avoir défini la notion de martingale locale, nous introduirons la variation
quadratique d’une semimartingale, qui jouera dans cette théorie de l’intégration un rôle
prépondérant.
Définition 3.1.1. Un processus M adapté à la filtration (Ft )t≥0 est une martingale locale
s’il existe une suite croissante (τn )n∈N de temps d’arrêt tendant vers l’infini et telle que
pour tout n ∈ N, le processus arrêté M τn = (Mt∧τn )t≥0 est une martingale. On dit alors
que la suite (τn )n∈N réduit M ou est une suite localisante pour M .
Remarque 3.1.2. Au contraire des martingales classiques, nous n’imposons pas d’hypothèse
d’intégrabilité sur les martingales locales.
Proposition 3.1.3. (i) Une martingale est une martingale locale (la suite τn = n est
localisante).
(ii) Si M est une martingale locale, alors pour tout temps d’arrêt τ , le processus
arrêté M τ est aussi une martingale locale (utiliser le théorème d’arrêt).
51
52 CHAPITRE 3. SEMIMARTINGALES CONTINUES
(iii) Si (τn )n∈N réduit une martingale locale et que (θn )n∈N est une suite de temps
d’arrêt tendant vers l’infini, alors la suite (τn ∧ θn )n∈N est aussi localisante.
(iv) L’espace des martingales locales est un espace vectoriel.
Dans la suite, nous donnons quelques propriétés supplémentaires des martingales
locales que l’on utilise fréquemment en pratique.
Proposition 3.1.4. Les propriétés suivantes sont satisfaites:
(i) Une martingale locale positive M telle que M0 ∈ L1 est une surmartingale.
(ii) Une martingale locale bornée ou telle qu’il existe Z ∈ L1 telle que pour tout
t ≥ 0, |Mt | ≤ Z, est une martingale (supposer que Mt ∈ L1 pour tout t ≥ 0 ne suffit pas;
en revanche la condition E[sups∈[0,t] |Ms |] < ∞ pour tout t ≥ 0 est suffisante, et bien utile
en pratique).
(iii) Si M est une martingale locale, alors la suite (τn )n∈N définie par
τn := inf{t ≥ 0 : |Mt | ≥ n} est localisante.
(iv) Si une martingale locale est à variation bornée, alors elle est p.s. identique-
ment nulle.
Démonstration. (i) : Soit (τn )n∈N une suite localisante et soient s ≤ t. On a pour tout
n ∈ N,
Ms∧τn = E [Mt∧τn | Fs ] .
Puisque la martingale locale est positive, on peut appliquer le lemme de Fatou pour les
espérances conditionnelles et on obtient
Ms ≥ E [Mt | Fs ] .
pk h i h i
X
= E (Mtki ∧τn − Mtki−1 ∧τn )2 + 2 E Mtki−1 ∧τn (Mtki ∧τn − Mtki−1 ∧τn )
i=1
pk h i
X
= E (Mtki ∧τn − Mtki−1 ∧τn )2
i=1
" #
≤ nE sup |Mtki ∧τn − Mtki−1 ∧τn | ,
i∈{1,...,pk }
et cette dernière quantité tend vers 0 lorsque k → ∞ par (uniforme) continuité des
trajectoires du processus et en utilisant le théorème
2 de convergence dominée (le processus
étant borné par n). On en conclut alors que E Mt∧τn = 0 et donc par le lemme de Fatou
quand n → ∞ que E [Mt2 ] = 0.
Théorème 3.1.5. Soit M une martingale locale. Alors il existe un unique processus
croissant continu et adapté, appelé la variation quadratique de M et noté ([M, M ]t )t≥0 ,
tel que M 2 − [M, M ] soit une martingale locale. De plus, si 0 = tk0 < tk1 < · · · < tkpk = t
est une suite de subdivisions emboı̂tées de l’intervalle [0, t] de pas tendant vers 0 lorsque
k → ∞, on a la convergence en probabilité suivante:
pk
X
[M, M ]t = lim (Mtki − Mtki−1 )2 .
k→∞
i=1
At − Bt = (Mt2 − Bt ) − (Mt2 − At ),
doit être à la fois une martingale locale et à variation bornée, comme différence de deux
processus croissants. Ainsi, par la proposition 3.1.4, on a p.s. At = Bt pour tout t ≥ 0.
Pour l’existence, remarquons qu’il suffit de démontrer le résultat pour les martingales
bornées nulles en 0, quitte à réduire la martingale locale par τn := inf{t ≥ 0 : |Mt − M0 | ≥
n}, n ∈ N. En effet, supposons l’existence démontrée pour la martingale bornée M τn .
Grâce à la partie unicité, il existe un processus croissant continu et adapté [M, M ] tel que
[M τn , M τn ] = [M, M ]τn . De plus, le processus (M 2 )τn −[M, M ]τn étant une martingale par
54 CHAPITRE 3. SEMIMARTINGALES CONTINUES
construction (à venir), le processus M 2 − [M, M ] est précisément une martingale locale.
Pour la convergence, on a pour tout ε > 0,
pk pk
! !
X X
P |[M, M ]t − (Mtki − Mtki−1 )2 | > ε ≤ P |[M τn , M τn ]t − (Mtτkn − Mtτkn )2 | > ε
i i−1
i=1 i=1
+P (τn ≤ t) ,
et la première quantité tend vers 0 lorsque k → ∞, tandis que la seconde tend vers 0
quand n → ∞, la suite (τn )n∈N tendant p.s. vers l’infini.
Ainsi, supposons la martingale locale M bornée et notons K une borne supérieure. Soit
0 = t0 < t1 < t2 < · · · une suite strictement croissante tendant vers l’infini (une subdi-
vision de R+ ), que l’on va noter ∆. Pour t ≥ 0, il existe k ∈ N tel que tk ≤ t < tk+1 .
Notons alors le processus issu de 0:
k
X
Vt∆ (M ) := (Mti − Mti−1 )2 + (Mt − Mtk )2 ,
i=1
ou juste Vt∆ s’il n’y a pas d’ambiguı̈té sur la martingale, le terme supplémentaire en t
nous assurant de la continuité du processus adapté V ∆ . On va montrer que le processus
M 2 − V ∆ est une martingale (continue). Soit s ≤ t. Si tk ≤ s ≤ t < tk+1 , alors
Vt∆ − Vs∆ = (Mt − Mtk )2 − (Ms − Mtk )2
= Mt2 − Ms2 − 2Mtk (Mt − Ms ).
En particulier, M étant une martingale, on a
E Vt∆ − Vs∆ | Fs = E Mt2 | Fs − Ms2 .
−E (Ms − Mtk−1 )2 | Fs
= E Mt2 | Fs − Ms2 .
Enfin, si s < tk−1 alors il existe n < k − 1 tel que tn ≤ s < tn+1 , et dans ce cas on a après
calculs que
k
X
E Vt∆ − Vs∆ | Fs = E (Mti − Mti−1 )2 | Fs + E (Mt − Mtk )2 | Fs
i=n+1
−E (Ms − Mtn )2 | Fs
= E Mt2 | Fs − Ms2 .
identité ne dépendant pas de ∆, et qui va nous servir dans la suite. Remarquons que le
processus V ∆ vérifie toutes les propriétés que doit satisfaire le crochet droit [M, M ], sauf
la croissance. En effet, comme on va le voir dans la suite, V ∆ est croissant le long de la
subdivision ∆ mais en aucun cas croissant sur R+ .
À présent, fixons t ≥ 0 et soit 0 = tk0 < tk1 < · · · < tkpk = t une suite de subdivi-
sions emboı̂tées de l’intervalle [0, t] de pas tendant vers 0 lorsque k → ∞, et telle que
∪k≥1 (tkn )n∈{0,...,pk } soit dense dans [0, t]. Comme précédemment, pour tout s ∈ [0, t], il
existe n ≤ pk tel que tkn ≤ s < tkn+1 . Notons alors
n
X
Vsk (M ) := (Mtki − Mtki−1 )2 + (Ms − Mtkn )2 ,
i=1
ou juste Vsk s’il n’y a pas d’ambiguı̈té sur la martingale. Pour montrer que
pk
X
Vtk = (Mtki − Mtki−1 )2
i=1
converge dans L2 , on va montrer que c’est une suite de Cauchy. Tout d’abord si k < l, le
processus (Vsl − Vsk )s∈[0,t] est une martingale (issue de 0) par ce qui précède, et en prenant
l’espérance dans (3.1.1) appliquée à V l − V k à la place de M ,
h i
l k 2
= E Vtl (V l − V k )
E Vt − Vt
≤ 2 E Vtl (V l ) + 2 E Vtl (V k ) ,
où l’on a utilisé l’inégalité (x + y)2 ≤ 2(x2 + y 2 ). Notons que l’on a simplement
pl
X
Vtl (V l ) = (Vtll − Vtll )2
i i−1
i=1
pl
X
= (Mtli − Mtli−1 )4
i=1
≤ Vtl (M ) sup |Mtli − Mtli−1 |2 ,
i∈{1,...,pl }
En utilisant le même raisonnement que précédemment, on en déduit que Vtl (V k ) tend vers
0 dans L2 lorsque k, l → ∞, sous réserve encore une fois que la suite (Vtl )l∈N ∗ soit bornée
dans L2 , ce que l’on va démontrer à présent:
pl
!2
X
(Vtl )2 = (Mtli − Mtli−1 )2
i=1
pl
pl pl
X X X
2 2
= 2 (Mtli − Mtli−1 ) (Mtlj − Mtlj−1 ) + (Mtli − Mtli−1 )4
i=1 j=i+1 i=1
pl pl pl
X X X
= 2 (Vtll − Vtll ) (Vtll − Vtll ) + (Mtli − Mtli−1 )4
i i−1 j j−1
i=1 j=i+1 i=1
pl pl
X X
= 2 (Vtll − Vtll ) (Vtllp − Vtll ) + (Mtli − Mtli−1 )4
i i−1 l i
i=1 i=1
pl pl
X X
= 2 (Vtll − Vtll ) (Vtl − Vtll ) + (Mtli − Mtli−1 )4 .
i i−1 i
i=1 i=1
≤ 12 K 2 E Vtl
= 12 K 2 E Mt2
≤ 12 K 4 ,
où dans l’avant-dernière ligne on a utilisé le fait que le processus M 2 − V l étant une
martingale, son espérance est constante et même nulle car ces deux processus sont issus
de 0. Ainsi, la conclusion est la suivante: pour tout t ≥ 0 fixé, la suite (Vtl )l∈N ∗ est de
Cauchy dans L2 qui est complet, donc converge vers une variable aléatoire dépendant de
t, que l’on note [M, M ]t .
À présent, montrons que t → [M, M ]t est continue sur R+ . Comme V l − V k est une
martingale de carré intégrable, l’inégalité de Doob L2 entraı̂ne que pour tout t ≥ 0,
" #
E sup (Vsl − Vsk )2 ≤ 4 E (Vtl − Vtk )2 −→ 0.
s∈[0,t] k,l→∞
Alors il existe une sous-suite (kn )n∈N ∗ tendant vers l’infini lorsque n → ∞ telle que
" #
1
E sup (Vskn+1 − Vskn )2 ≤ ,
s∈[0,t] n4
Ainsi, comme p.s. le critère de Cauchy uniforme est vérifié pour la suite de processus
(V kn )n∈N ∗ , la convergence p.s. de la suite de processus (V kn )n∈N ∗ est uniforme sur [0, t]
et donc le processus limite [M, M ] est continu sur [0, t], pour tout t ≥ 0, donc continu sur
R+ .
Ensuite, bien que le processus V k ne soit pas croissant, on a pour tous tkn < tkm , Vtkk ≤ Vtkk
n m
donc par passage à la limite, [M, M ] est croissant sur ∪k≥1 (tkn )n∈{0,...,pk } (supposé dense
dans [0, t]), donc sur [0, t] par continuité.
Enfin, comme le processus M 2 − V k est une martingale, on a pour tout s ≤ t et tout
As ∈ Fs ,
E 1As (Mt2 − Vtk ) = E 1As (Ms2 − Vsk ) ,
58 CHAPITRE 3. SEMIMARTINGALES CONTINUES
et comme Vsk et Vtk convergent dans L2 respectivement vers [M, M ]s et [M, M ]t lorsque
k → ∞, on peut passer à la limite dans l’identité précédente pour obtenir
Remarque 3.1.6. Si τ est un temps d’arrêt, alors par unicité de la variation quadratique,
on a [M τ , M τ ] = [M, M ]τ .
Regardons maintenant comment les propriétés d’une martingale locale sont liées à
celles de sa variation quadratique. Si A est un processus croissant, la variable aléatoire
A∞ désigne de manière évidente la limite croissante de At lorsque t → ∞.
Théorème 3.1.7. Soit M une martingale locale.
(i) Si c’est une vraie martingale bornée dans L2 , alors E [[M, M ]∞ ] < ∞ et le
processus M 2 − [M, M ] est une martingale uniformément intégrable.
(ii) Si E [[M, M ]∞ ] < ∞, alors M est une vraie martingale bornée dans L2 .
(iii) Le processus M est une vraie martingale de carré intégrable si et seulement
si E [[M, M ]t ] < ∞ pour tout t ≥ 0. De plus, si ces conditions sont satisfaites, alors le
processus M 2 − [M, M ] est une martingale.
Démonstration. (i) : Si M est une martingale bornée dans L2 , alors par le théorème 2.3.11,
elle converge p.s. et dans L2 vers une variable aléatoire notée M∞ . De plus, par l’inégalité
de Doob L2 ,
2
≤ 4 sup E Mt2 < ∞.
E sup Mt
t≥0 t≥0
Pour tout entier n ≥ 1, définissons le temps d’arrêt τn := inf{t ≥ 0 : [M, M ]t ≥ n}. Alors
le processus (M τn )2 − [M, M ]τn est une martingale locale. De plus, on a pour tout t ≥ 0
que [M, M ]t∧τn ≤ n et on en déduit que (M τn )2 − [M, M ]τn est dominée par la variable
intégrable supt≥0 Mt2 + n. Par conséquent, c’est une vraie martingale et on a
2
E [[M, M ]t∧τn ] = E Mt∧τ n
.
et enfin en faisant tendre n → ∞ on trouve, avec les deux mêmes arguments, que
2
E [[M, M ]∞ ] = E M∞ < ∞.
Enfin, la martingale locale M 2 −[M, M ] étant dominée par la variable intégrable supt≥0 Mt2 +
[M, M ]∞ , il s’agit donc d’une vraie martingale (uniformément intégrable).
3.1. MARTINGALES LOCALES 59
(ii) : On suppose maintenant que E [[M, M ]∞ ] < ∞. Notons la suite de temps d’arrêt
τn := inf{t ≥ 0 : |Mt | ≥ n} de sorte que pour tout t ≥ 0, |Mt∧τn | ≤ n. Ainsi, la
martingale locale M τn est en fait une vraie martingale. Par ailleurs, la martingale locale
(M τn )2 − [M, M ]τn étant dominée par la variable intégrable n2 + [M, M ]∞ , c’est aussi une
vraie martingale uniformément intégrable, et on a pour tout t ≥ 0,
2
E Mt∧τ n
= E [[M, M ]t∧τn ]
≤ E [[M, M ]∞ ] ,
quantité qui est supposée finie. Ainsi, la famille (Mt∧τn )n∈N est bornée dans L2 donc
uniformément intégrable. En passant à la limite L1 quand n → ∞ dans l’égalité
E [Mt∧τn | Fs ] = Ms∧τn , s ∈ [0, t],
on en déduit que M est une vraie martingale, qui est bornée dans L2 par le lemme de
Fatou.
(iii) : D’après (i) et (ii), M est une vraie martingale bornée dans L2 si et seulement si
E [[M, M ]∞ ] < ∞. Il en résulte que pour tout a ≥ 0, M a est une vraie martingale bornée
dans L2 si et seulement si E [[M, M ]a ] < ∞. Enfin, si ces conditions sont remplies, (i)
montre que (M a )2 − [M, M ]a est une vraie martingale.
On en déduit immédiatement le résultat suivant.
Corollaire 3.1.8. Une martingale locale admet p.s. une variation quadratique nulle si et
seulement si elle est elle-même p.s. identiquement égale à 0.
Par un argument de classe monotone, on peut généraliser cette inégalité à toute partie
borélienne bornée A de R+ ,
Z sZ sZ
|d[M, N ]u | ≤ d[M, M ]u d[N, N ]u .
A A A
3.2. SEMIMARTINGALES CONTINUES 61
P P
Ensuite, si h = i αi 1Ai et k = j βj 1Bj sont deux fonctions étagées positives, où les Ai
sont disjoints, tout comme les Bj , on a par l’inégalité précédente ainsi que par Cauchy-
Schwarz,
Z ∞ X Z
h(t)k(t) |d[M, N ]u | = αi βj |d[M, N ]u |
0 i,j Ai ∩Bj
s Z s Z
X X
≤ αi2 d[M, M ]u βj2 d[N, N ]u
i Ai ∩(∪j Bj ) j (∪i Ai )∩Bj
sZ sZ
∞ ∞
≤ h(t)2 d[M, M ]t k(t)2 d[N, N ]t ,
0 0
et donc l’inégalité est vérifiée pour les fonctions étagées positives. Enfin, en utilisant le
fait que toute fonction mesurable positive peut être approchée (simplement) par une suite
croissante de fonctions étagées positives, on obtient l’inégalité de Kunita-Watanabe en
toute généralité.
[X, Y ]t := [M, N ]t , t ≥ 0.
Proposition 3.2.2. Si 0 = tk0 < tk1 < · · · < tkpk = t est une suite de subdivisions emboı̂tées
de l’intervalle [0, t] de pas tendant vers 0 lorsque k → ∞, on a la convergence en probabilité
suivante:
pk
X
[X, Y ]t = lim (Xtki − Xtki−1 ) (Ytki − Ytki−1 ).
k→∞
i=1
Démonstration. Traitons seulement le cas X = Y pour simplifier. On a
pk pk pk
X X X
2 2
(Xtki − Xtki−1 ) = (Mtki − Mtki−1 ) + (Atki − Atki−1 )2
i=1 i=1 i=1
62 CHAPITRE 3. SEMIMARTINGALES CONTINUES
pk
X
+2 (Mtki − Mtki−1 )(Atki − Atki−1 ).
i=1
D’autre part, on a
pk
X
(Atki − Atki−1 )2 ≤ Var(A, t) sup |Atki − Atki−1 |,
i=1 i∈{1,...,pk }
qui tend p.s. vers 0 lorsque k → ∞ par (uniforme) continuité du processus A sur [0, t].
Enfin, le même raisonnement montre que
pk
X
(Atki − Atki−1 )(Mtki − Mtki−1 ) ≤ Var(A, t) sup |Mtki − Mtki−1 |,
i=1 i∈{1,...,pk }
qui tend p.s. vers 0 lorsque k → ∞ par (uniforme) continuité de M sur [0, t]. Ainsi,
comme la convergence p.s entraı̂ne la convergence en probabilité, et que l’on a aussi pour
toutes variables aléatoires X, Y, Z et tout ε > 0,
P(|X + Y + Z| > ε) ≤ P(|X| > ε/3) + P(|Y | > ε/3) + P(|Z| > ε/3),
Intégration stochastique
Ce chapitre constitue l’objet central d’un cours de calcul stochastique. Le calcul d’Itô est
considéré comme l’un des thèmes les plus importants de la théorie des probabilités, et per-
met par exemple de construire de manière systématique de nouvelles martingales à partir
de martingales originelles, exactement comme dans le cadre discret de la transformation
prévisible vue au chapitre 2. Le but principal est de donner un sens à l’intégrale
Z t
It (H) = Hs dMs , t ≥ 0, (4.0.1)
0
où M est une martingale continue et H un processus adapté, tous deux satisfaisant de
“bonnes” propriétés d’intégrabilité. Étant donné que (Mt )t≥0 n’est pas à variation bornée,
cette intégrale ne peut être définie dans le sens classique de l’intégration à la Stieltjes.
L’idée première est assez naturelle: il s’agit de définir cette intégrale sur une classe de
processus simples pour lesquels nous sommes capables de faire des calculs, et de l’étendre
à une classe plus générale par un argument de densité-continuité. En revanche, si l’on
souhaite voir (It (H))t≥0 comme un processus, alors il va falloir (se préparer à) travailler
davantage.
63
64 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
Par ailleurs, on note H02 (M ) le sous-espace de H2 (M ) formé des processus simples, c’est-
à-dire des processus H de la forme
X
Ht (ω) = ak (ω) 1(tk ,tk+1 ] (t), t ≥ 0,
k≥0
où ak est une v.a. bornée et Ftk -mesurable, et 0 = t0 < t1 < · · · < tn < · · · est une suite
croissant vers l’infini.
On remarque que le processus [M, M ] étant croissant (donc à variation bornée),
l’intégrale par rapport à ce processus est simplement celle de Stieltjes. L’intérêt d’introduire
les processus simples réside dans le résultat suivant.
Lemme 4.1.2. Le sous-espace H02 (M ) est dense dans H2 (M ).
Démonstration. Par le théorème du supplémentaire orthogonal d’un fermé dans un
espace de Hilbert, il suffit de montrer que si H ∈ H2 (M ) est orthogonal à H02 (M ), alors
ce processus est nul. Supposons donc H ∈ H2 (M ) orthogonal à H02 (M ), i.e.
Z ∞
E Ht Kt d[M, M ]t = 0, K ∈ H02 (M ).
0
I : H02 (M ) → L2 P
H 7→ I(H) := k≥0 ak (Mtk+1 − Mtk ).
Le fait que l’espace d’arrivée est L2 se déduit des calculs suivants: si H ∈ H02 (M ),
X
E I(H)2 =
E ak al (Mtk+1 − Mtk )(Mtl+1 − Mtl )
k,l≥0
X
E a2k (Mtk+1 − Mtk )2
=
k≥0
X
+2 E E ak al (Mtk+1 − Mtk )(Mtl+1 − Mtl ) | Ftl
k<l
X
E a2k [M, M ]tk+1 − [M, M ]tk
=
k≥0
X
+2 E ak al (Mtk+1 − Mtk )E Mtl+1 − Mtl | Ftl
k<l
X
E a2k [M, M ]tk+1 − [M, M ]tk
=
k≥0
Z ∞
= E Ht2 d[M, M ]t
0
2
= kHkH2 (M ) ,
quantité qui est supposée finie. Ci-dessus, on a utilisé la Ftl -mesurabilité de ak al (Mtk+1 −
Mtk ) pour k < l, ainsi que le fait que le processus M 2 − [M, M ] est une martingale.
Plus important encore, on voit que l’on a obtenu l’isométrie suivante, connue sous le nom
d’isométrie d’Itô.
Lemme 4.1.4 (Isométrie d’Itô sur H02 (M )). Pour tout processus simple H ∈ H02 (M ),
kI(H)kL2 = kHkH2 (M ) .
lim kH − H n kH2 (M ) = 0.
n→∞
L’idée est donc de définir l’intégrale stochastique I(H) comme la limite dans L2 de I(H n ).
Cependant, cet objet est-il bien défini, i.e. la suite (I(H n ))n∈N converge-t-elle et si oui,
la limite est-elle définie de manière unique ? Énonçons le théorème suivant.
Théorème 4.1.5. Soit H ∈ H2 (M ). Alors l’intégrale stochastique I(H) déterminée par
où (H n )n∈N ⊂ H02 (M ) est une suite de processus simples convergeant vers H dans H2 (M ),
est bien définie. On la note Z ∞
I(H) := Ht dMt .
0
De plus, on a l’isométrie d’Itô:
kI(H)kL2 = kHkH2 (M ) .
Démonstration. Démontrons tout d’abord le premier point. Si H ∈ H2 (M ) alors il existe
une suite de processus simples (H n )n∈N ⊂ H02 (M ) qui converge vers H dans H2 (M ). En
particulier, elle est de Cauchy et par l’isométrie d’Itô sur H02 (M ), on en déduit que
(I(H n ))n∈N est aussi une suite de Cauchy dans L2 qui est complet, donc convergente.
De plus, si (K n )n∈N ⊂ H02 (M ) est une autre suite de processus convergeant vers H dans
H2 (M ), l’inégalité triangulaire entraı̂ne que
lim kH n − K n kH2 (M ) = 0,
n→∞
Enfin, l’inégalité triangulaire nous permet de démontrer que les deux limites sont en
fait les mêmes. Ainsi, l’intégrale stochastique I(H) est bien définie pour tout processus
appartenant à l’espace H2 (M ).
À présent, l’isométrie d’Itô sur H2 (M ) se démontre immédiatement: si (H n )n∈N ⊂ H02 (M )
converge vers H dans H2 (M ), alors par l’isométrie d’Itô sur H02 (M ),
Enfin, les deux côtés de cette égalité admettant une limite par l’inégalité triangulaire, on
obtient l’identité désirée en faisant tendre n vers l’infini.
4.1. CONSTRUCTION DE L’INTÉGRALE STOCHASTIQUE 67
où les ani sont Ftni -mesurables. On vérifie sans peine que pour tout n ∈ N, X n est une
martingale continue et bornée dans L2 : X n ∈ M2 . En particulier, elle admet une limite
n
X∞ ∈ L2 lorsque t → ∞. De surcroı̂t, comme mt Hn → Hn dans H2 (M ) lorsque t → ∞,
on a que Xtn → I(Hn ) dans L2 et par unicité de la limite, on obtient que X∞ n
= I(Hn ).
Ainsi, quels que soient m, n ∈ N, par l’inégalité maximale de Doob appliquée à la sous-
martingale |X n − X m |, on a pour tout ε > 0,
n m 2
n m E [|X∞ − X∞ |]
P sup |Xt − Xt | > ε ≤ 2
t≥0 ε
68 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
qui est sommable: par le lemme de Borel-Cantelli, pour tout ω en dehors d’un ensemble
négligeable, il existe N = N (ω) ∈ N tel que pour tout k ≥ N ,
n 1
sup |Xt k+1 − Xtnk | ≤ ,
t≥0 2k
donc que
n
X
sup |Xt k+1 − Xtnk | < ∞.
t≥0
k∈N
Ainsi, p.s. la suite (Xtnk )k∈N est une suite de Cauchy uniformément sur R+ , donc elle
converge p.s. uniformément sur R+ vers un processus adapté X qui est alors continu.
Comme pour tout t ≥ 0, mt Hn → mt H dans H2 (M ), l’isométrie d’Itô entraı̂ne que Xtn →
I(mt H) dans L2 et par unicité de la limite, on a pour tout t ≥ 0, P(Xt = I(mt H)) = 1.
L’union dénombrable d’ensembles négligeables restant négligeable, on a
E [Xtnk | Fs ] = Xsnk .
Ainsi, la martingale continue X est bornée dans L2 : elle est donc dans M2 , ce qui termine
la démonstration.
Remarquons que l’on peut relier la norme dans M2 de l’intégrale stochastique X
à celle dans H2 (M ) du processus intégré H de la manière suivante:
kXk2M2 = E X∞
2
= E I(H)2 = kHk2H2 (M ) .
Regardons ce que l’on obtient dans le cas brownien. On dit que le processus B est un
mouvement brownien relativement à la filtration (Ft )t≥0 si c’est un mouvement brownien
adapté et à accroissements indépendants par rapport à cette filtration. Rappelons que
B∈ / M2 mais en revanche B T ∈ M2 où T > 0 est un horizon déterministe fixé. Ainsi,
quitte à réduire la martingale par T , la théorie de l’intégrale stochastique est valable
aussi sur [0, T ] en lieu et place de R+ . En considérant l’espace M2 [0, T ] des martingales
continues de carré intégrable sur [0, T ] et H2 (B, T ) l’espace H2 (B T ), on obtient que pour
tout processus H ∈ H2 (B, T ),
"Z 2 #
t Z t
2
E Hs dBs =E Hs ds , 0 ≤ t ≤ T.
0 0
égalité généralisant l’isométrie d’Itô. Avant d’étendre dans le paragraphe suivant la con-
struction de l’intégrale stochastique sur son vrai domaine, qui est un espace plus grand
que H2 (M ), observons comment elle se comporte lorsque l’on introduit un temps d’arrêt.
Proposition 4.1.8. Si τ est un temps d’arrêt, alors on a pour tout H ∈ H2 (M ),
Z t Z t∧τ Z t
Hs 1{s<τ } dMs = Hs dMs = Hs dMs∧τ , t ≥ 0.
0 0 0
4.2. LOCALISATION 71
R ·∧τ
ce qui montre que la martingale arrêtée
R· 0
Hs dMs vérifie la propriété caractéristique
(4.1.1) de l’intégrale stochastique 0 Hs 1{s<τ } dMs . On obtient ainsi la première égalité
désirée.
La preuve de la seconde est analogue en écrivant que pour tout t ≥ 0,
Z · Z t Z t Z t
Hs dMs∧τ , N = Hs d[M·∧τ , N ]s = Hs d[M, N ]s∧τ = Hs 1{s<τ } d[M, N ]s .
0 t 0 0 0
Nous ne le ferons pas car ce qui va suivre est beaucoup plus général et englobe cette
extension.
4.2 Localisation
À présent, si l’on se donne une fonction continue f de R dans R, alors une R Tthéorie con-
sistante de l’intégration stochastique devrait donner un sens à l’intégrale 0 f (Mt ) dMt .
Cependant, elle n’a été définie jusqu’à présent que pour des processus H = f (M ) qui ap-
partiennent à l’espace H2 (M ). Or si par exemple M = B le mouvement brownien, alors
4
en prenant une fonction continue f tendant très rapidement à l’infini, comme f (x) = ex ,
on voit que le processus f (B) ∈ / H2 (B, T ), ce qui est un peu gênant. Étant donnée M
une martingale locale issue de 0, notons aussi H2 (M ) l’espace des processus adaptés H
tels que Z ∞
E Ht2 d[M, M ]t < ∞,
0
2
et soit Hloc (M ) ⊃ H2 (M ) l’espace des processus adaptés H tels que pour tout t ≥ 0, on
ait p.s.,
Z t
Hs2 d[M, M ]s < ∞.
0
2
L’espace Hloc (M ) est en fait le bon espace à considérer dans la construction de l’intégrale
stochastique.
72 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
2
Théorème R4.2.1. Pour tout H ∈ Hloc (M ), il existe une unique martingale locale issue
·
de 0, notée 0 Ht dMt , telle que pour toute martingale locale N issue de 0,
Z · Z t
Hs dMs , N = Hs d[M, N ]s , t ≥ 0.
0 t 0
de sorte que (τn )n∈N est une suite de temps d’arrêt tendant en croissant vers l’infini.
Puisque l’on a pour tout t ≥ 0
[M τn , M τn ]t = [M, M ]t∧τn ≤ n,
donc
R· H ∈ H2 (M τn ): on peut alors définir pour tout n ∈ N l’intégrale stochastique
0
Ht dMt∧τn au sens classique. Ainsi, en utilisant la propriété caractéristique (4.1.1), on
vérifie facilement que si m > n, alors
Z t Z t∧τn
Hs dMs∧τn = Hs dMs∧τm , t ≥ 0.
0 0
R·
Cela montre qu’il existe un unique processus, noté 0
Hs dMs , tel que pour tout n ∈ N,
Z t∧τn Z t
Hs dMs = Hs dMs∧τn , t ≥ 0.
0 0
R ·∧τ R·
Puisque les processus 0 n Hs dMs sont dans M2 , 0 Hs dMs est une martingale locale.
À présent, soient N une martingale locale issue de 0 et τn0 := inf{t ≥ 0 : |Nt | ≥ n} et
enfin Tn := τn ∧ τn0 . Alors pour tout t ≥ 0,
Z · Z ·∧Tn
Tn
Hs dMs , N = Hs dMs , N
0 t∧Tn 0 t
Z ·∧Tn
Tn
= Hs dMs∧τn , N
0 t
Z ·
Tn
= Hs dMs∧τn , N
0 t
4.3. EXTENSION DE L’INTÉGRALE STOCHASTIQUE 73
Z t
= Hs d[M τn , N Tn ]s
Z0 t
= Hs d[M, N ]s∧Tn
0
Z t∧Tn
= Hs d[M, N ]s ,
0
d’où l’égalité Z · Z t
Hs dMs , N = Hs d[M, N ]s , t ≥ 0.
0 t 0
De plus, les égalités de la proposition 4.1.8 sont obtenues dans ce cadre par les mêmes
arguments que dans la démonstration de la Proposition 4.1.8 (ces arguments utilisent
seulement la propriété caractéristique (4.1.1) que l’on vient d’étendre).
R · R· R·
Enfin, si M ∈ M2 et RH ∈ H2 (M ), l’égalité 0 Hs dMs , 0 Hs dMs = 0 Hs2 d[M, M ]s
·
entraı̂ne d’abord que 0 Hs dMs ∈ M2 , et ensuite la propriété caractéristique (4.1.1)
montre que les définitions des théorèmes 4.1.5 et 4.2.1 coı̈ncident.
Remarquons que si M est une martingale locale Rissue de 0 et H ∈ H2 (M ), alors en
·
appliquant le théorème 3.1.7 à l’intégrale stochastique 0 Hs dMs , on a pour tout t ≥ 0,
Z t " Z 2 #
t Z t
2
E Hs dMs = 0, E Hs dMs =E Hs d[M, M ]s .
0 0 0
En particulier, tout processus continu adapté est localement borné. De plus, si H est
localement borné, alors pour tout processus A continu à variation bornée, on a p.s.
Z t
|Hs | |dAs | < ∞, t ≥ 0,
0
R·
et 0 Hs dAs est un processus continu à variation bornée.
2
De même, si M est une martingale locale issue de 0, alors H ∈ Hloc (M ).
Définition 4.3.1. Soit X = X0 + M + A une semimartingale
R· continue et H un processus
adapté localement borné. L’intégrale stochastique 0 Hs dXs est alors définie comme la
semimartingale continue suivante:
Z t Z t Z t
Hs dXs := Hs dMs + Hs dAs , t ≥ 0.
0 0 0
74 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
donc il suffit simplement de traiter la partie martingale locale après avoir remarqué que
pour tout ε > 0,
Ainsi, supposons sans perte de généralité que X = M est une martingale locale issue de
0. Pour chaque n ∈ N∗ , définissons le processus adapté H n par
pn
X
Hsn := Htni−1 1(tni−1 ,tni ](s) .
i=1
qui est une suite croissante de temps d’arrêt tendant p.s. vers l’infini. Remarquons que
les processus H τp , (H n )τp sont bornés par p, tout comme [M, M ]τp , donc dans H2 (M τp ).
Ainsi, pour tout p fixé,
"Z 2 #
t Z t
n τp n 2 τp τp
E (Hs − Hs ) dMs = E (Hs − Hs ) d[M , M ]s
0 0
Z t
= E (Hsn 2
− Hs ) d[M, M ]s∧τp
0
Z t∧τp
= E (Hsn 2
− Hs ) d[M, M ]s ,
0
Enfin, on achève la preuve en remarquant, via l’inégalité de Chebyshev, que pour tout
ε > 0,
Z t Z t∧τp
n n
P (Hs − Hs ) dMs > ε = P (Hs − Hs ) dMs > ε; τp > t
0 0
Z t
n
+P (Hs − Hs ) dMs > ε; τp ≤ t
0
Z t∧τp
n
≤ P (Hs − Hs ) dMs > ε + P (τp ≤ t)
0
"Z 2 #
t∧τp
1 n
≤ 2E (Hs − Hs ) dMs + P (τp ≤ t) ,
ε 0
Évidemment, ces formules ne sont plus valables dès que l’on sort du cadre des processus à
variation bornée. Cependant, en reprenant le même type de démonstration via la formule
de Taylor et en contrôlant de manière adéquate le reste quadratique (qui est négligeable
dans le cas précédent), on est en mesure d’obtenir la fameuse formule d’Itô, faisant donc
apparaı̂tre un terme supplémentaire: la variation quadratique.
Théorème 4.4.1. Soit X 1 , . . . , X d des semimartingales continues et soit f : Rd → R
une fonction de classe C 2 . Alors pour tout t ≥ 0,
d Z t
X ∂f
f (Xt1 , . . . , Xtd ) = f (X01 , . . . , X0d ) + (Xs1 , . . . , Xsd ) dXsi
i=1 0 ∂xi
d t
∂ 2f
Z
1 X
+ (Xs1 , . . . , Xsd ) d[X i , X j ]s . (4.4.1)
2 i,j=1 0 ∂xi ∂xj
Démonstration. Traitons seulement le cas d = 1, la généralisation au cas multidimen-
sionnel étant immédiate (les termes faisant apparaı̂tre les crochets [X i , X j ] se traitent
de la même façon que celui pour le crochet [X, X] qui va suivre), et notons X := X 1 .
Considérons pour tout t ≥ 0 une suite 0 = tn0 < · · · < tnpn = t de subdivisions emboı̂tées
de [0, t] de pas tendant vers 0 lorsque n → ∞. Alors par la formule de Taylor,
pn
X
f (Xt ) = f (X0 ) + f (Xtni ) − f (Xtni−1 )
i=1
pn
X
0 fn,i 2
= f (X0 ) + f (Xtni−1 ) (Xtni − Xtni−1 ) + (Xtni − Xtni−1 ) ,
i=1
2
inf f 00 (Xtni−1 + θ (Xtni − Xtni−1 )) ≤ fn,i ≤ sup f 00 (Xtni−1 + θ (Xtni − Xtni−1 )).
θ∈[0,1] θ∈[0,1]
4.4. FORMULE D’ITÔ 77
pn pm pn
X X X X
2 2
fn,i (Xtni − Xtni−1 ) − fm,j (Xtni − Xtni−1 ) ≤ Zm,n (Xtni − Xtni−1 )2 ,
i=1 j=1 i∈{1,...,pn } i=1
tm <tn ≤tm
j−1 i j
Ensuite, pour cette valeur fixée de m, la convergence suivante en probabilité est vérifiée:
pm pm
X X X
lim fm,j (Xtni − Xtni−1 )2 = fm,j [X, X]tm
j
− [X, X] m
tj−1
n→∞
j=1 i∈{1,...,pn } j=1
tm <tn ≤tm
j−1 i j
Z t
= hm (s) d[X, X]s ,
0
78 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
Ainsi, non seulement on retrouve le fait que le processus M 2 − [M, M ] est une martingale,
mais de plus on donne sa valeur sous forme d’intégrale sochastique.
Une autre application intéressante de la formule d’Itô est la formule d’intégration par
parties, généralisant celle vue ci-dessus dans le cadre des processus à variation bornée.
où pour obtenir les seconde et quatrième inégalités, on a utilisé la borne supérieure de
l’inégalité de BDG juste démontrée, ainsi que Cauchy-Schwarz, respectivement. Si main-
tenant on note r h q
i
p/2
x := E [M, M ]t et y := E [(Mt∗ )p ],
x2 − cp xy − cp y 2 ≤ 0,
ce qui entraı̂ne que x est plus petit que la racine carrée positive de l’équation x2 − cp xy −
cp y 2 = 0, qui est de la forme cp y. La démonstration est achevée en faisant tendre t vers
l’infini.
En application des inégalités de BDG, on obtient pour le mouvement brownien B
et pour tout temps d’arrêt τ ,
" #
p/2
≤ E sup |Bt | ≤ Cp E τ p/2 .
p
cp E τ
t∈[0,τ ]
La formule d’Itô nous permet d’exhiber de nouvelle martingales locales, comme la classe
des martingales exponentielles, généralisant celles rencontrées au début du chapitre 2 pour
les processus à accroissements indépendants. On dit qu’un processus à valeurs dans C
est une martingale locale si ses parties réelle et imaginaire le sont. La démonstration du
prochain résultat est laissée en exercice.
Corollaire 4.4.4. Soit M une martingale locale et soit λ ∈ C. Alors le processus donné
par
λ2
E (λM )t := exp λMt − [M, M ]t , t ≥ 0,
2
est une martingale locale à valeurs dans C.
Maintenant, énonçons le théorème de Lévy, stipulant que toute martingale locale
dont le crochet est celui d’un mouvement brownien, est en fait un mouvement brownien.
82 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
Théorème 4.4.5 (Lévy). Soit M un processus continu issu de 0 et adapté par rapport à
la filtration (Ft )t≥0 . Alors les assertions suivantes sont équivalentes:
(i) M est un mouvement brownien pour la filtration (Ft )t≥0 .
(ii) M est une martingale locale par rapport à (Ft )t≥0 , et de crochet [M, M ]t = t.
Démonstration. Seul le point (ii) ⇒ (i) est à démontrer. Ainsi, supposons que M soit une
martingale locale de crochet [M, M ]t = t. Étant donné θ ∈ R, le corollaire 4.4.4 indique
que le processus E (iθM ) est une martingale locale, qui est bornée sur tout intervalle [0, T ],
T > 0 arbitraire, donc une vraie martingale sur [0, T ] (et donc sur R+ ). D’où pour tous
0 ≤ s ≤ t,
θ2 t θ2 s
h i
E eiθMt + 2 | Fs = eiθMs + 2 ,
ou encore que
θ 2 (t−s)
E eiθ(Mt −Ms ) | Fs = e− 2 ,
qui est donc la somme de variables aléatoires gaussiennes indépendantes, donc une variable
gaussienne.
Terminons ce paragraphe par le théorème de Dubins-Schwarz, énonçant que toute
martingale locale issue de 0 est un mouvement brownien changé de temps.
Théorème 4.4.6 (Dubins-Schwarz). Soit M une martingale locale issue de 0 et telle que
p.s., [M, M ]∞ = ∞. Alors il existe un mouvement brownien B tel que p.s.,
Mt = B[M,M ]t , t ≥ 0.
Avant de démontrer ce résultat, mentionnons que ce théorème reste vrai dans le cas ou
p.s., [M, M ]∞ < ∞, quitte à grossir l’espace de probabilité sous-jacent. Par ailleurs,
notons que le mouvement brownien ci-dessus l’est par rapport à une filtration changée de
temps. En effet, si l’on définit le temps d’arrêt (fini d’après l’hypothèse sur le crochet):
qui est l’inverse généralisé du crochet (ce dernier n’est pas forcément strictement crois-
sant), alors Br = Mτr qui est adapté par rapport à la filtration (Gr )r≥0 donnée par
Gr = Fτr . On peut montrer que cette filtration est standard.
Démonstration. Tout d’abord, notons que la fonction r → τr est croissante, continue à
droite, et admet une limite à gauche (fonction dite càdlàg). On a aussi que
avec par convention que τ0− = 0. De plus, on remarque que τr 6= τr− si et seulement si
[M, M ]s = r pour tout s ∈ [τr− , τr ]. Ainsi, la fonction r → τr est continue si et seulement
si [M, M ] est strictement croissant. Enfin, notons que [M, M ] et (τr )r≥0 ne jouent pas un
rôle complètement symétrique car on a toujours que
alors qu’en général on a seulement que τ[M,M ]t ≥ t: τ[M,M ]t > t si t est dans un intervalle
de constance du crochet [M, M ], i.e.
Posons Br = Mτr pour tout r ≥ 0. On peut montrer (exercice) que les intervalles de
constance de M et [M, M ] sont p.s. les mêmes. D’où p.s. pour tout r ≥ 0,
le théorème 3.1.7 nous dit que M τn est une vraie martingale bornée dans L2 donc uni-
formément intégrable, et de surcroı̂t (M 2 )τn − [M, M ]τn est aussi une martingale uni-
formément intégrable. Ainsi, le théorème d’arrêt entraı̂ne
Par ailleurs, ceci démontre par unicité de la variation quadratique que [B, B]s = s et le
théorème de Lévy implique que B est bien un mouvement brownien pour la filtration
(Gr )r≥0 . Finalement, par définition de B, on a pour tout t ≥ 0,
B[M,M ]t = Mτ[M,M ]t .
Ainsi, dans le cas où τ[M,M ]t > t, on a que t est dans un intervalle de constance de [M, M ],
donc de M , et on en déduit alors que p.s. pour tout t ≥ 0, Mt = B[M,M ]t .
Lemme 4.5.1. Soit Q une probabilité absolument continue (sur F∞ ) par rapport à P,
de dérivée de Radon-Nikodym dQ/dP. Pour tout t ∈ [0, ∞), notons Dt la restriction de
dQ/dP à la tribu Ft , que l’on suppose continue. Alors,
(i) le processus D est une P-martingale continue uniformément intégrable.
(ii) pour tout temps d’arrêt τ , Dτ est la restriction de dQ/dP à la tribu Fτ .
(iii) si l’on suppose que les deux probabilités sont équivalentes, i.e. P est aussi une
probabilité absolument continue par rapport à Q, alors p.s. Dt > 0 pour tout t ≥ 0.
Démonstration. (i): Pour tout A ∈ Ft , on a
dQ dQ
Q(A) = EQ [1A ] = EP 1A = EP 1A EP | Ft .
dP dP
ce qui entraı̂ne que le processus D est une P-martingale continue fermée (par dQ/dP)
donc uniformément intégrable. On note dans la suite D∞ := dQ/dP.
(ii): Si τ est un temps d’arrêt, alors pour tout A ∈ Fτ , on a par le théorème d’arrêt,
Lemme 4.5.2. Soit D une martingale locale strictement positive. Alors il existe une
unique martingale locale L telle que
1
D = exp L − [L, L] = E (L).
2
car d[M, L] = d[M, D]/D d’après le lemme 4.5.2. On voit ainsi que M fD est une P-
martingale locale, donc que M
f est une Q-martingale locale, ce qui termine la preuve.
86 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
On voit ainsi que la classe des P-semimartingales continues est contenue dans celle des
Q-semimartingales continues. En fait, ces deux classes coı̈ncident car P et Q jouent des
rôles symétriques dans le théorème de Girsanov. En effet, si l’on applique le théorème
à M = (−L), le processus (−L)] = (−L) − [(−L), L] est une Q-martingale locale avec
] (−L)]
[(−L), ] = [L, L]. D’où
1 ] ] 1 1 1
E ((−L)) = exp (−L) − [(−L), (−L)] = exp −L + [L, L] =
] ] = .
2 2 E (L) D
Cela montre que l’on peut échanger les rôles de P et Q quitte à remplacer D par 1/D et
]
L par (−L).
(ii) Remarquons que la valeur du crochet est la même sous P et Q (ceci a été
] car il est toujours donné par
implicitement utilisé pour déterminer le crochet de (−L))
l’approximation en probabilité des théorème 3.1.5 et proposition 3.2.2, respectivement.
(iii) L’application TP →Q : M → TP →Q (M ) := M f est un opérateur linéaire de
l’espace des martingales locales par rapport à P vers celui des martingales locales par
rapport à Q. On vérifie facilement que TQ →P ◦ TP →Q = Id. De plus, l’opérateur TP →Q
commute avec l’intégrale stochastique: si H est un processus localement borné, alors pour
tout t ≥ 0,
Z t Z t Z t
Hs dTP →Q (M )s = Hs dMs −
Hs d[M, L]s
0 0 0
Z t Z ·
= Hs dMs − Hs dMs , L
0 0 t
Z ·
= TP →Q Hs dMs .
0 t
(iv) Enfin, mentionnons que le théorème de Girsanov reste vrai lorsque l’on rem-
place ∞ par un horizon fini T > 0, ce qui est souvent utilisé en pratique.
Finissons ce chapitre en appliquant le théorème de Girsanov au mouvement brownien.
Soit H un processus satisfaisant la condition de Novikov :
Z ∞
1 2
E exp Ht dt < ∞.
2 0
En notant L l’intégrale stochastique de H par rapport à B, qui est une martingale uni-
formément intégrable, on peut montrer que E (L) l’est aussi (ardu). En particulier on a
E [E (L)∞ ] = E [E (L)0 ] = 1 et donc en définissant la probabilité Q comme dQ = E (L)∞ dP,
4.5. THÉORÈME DE GIRSANOV 87
est non seulement une martingale locale par rapport à Q, mais aussi, en calculant son
crochet, un Q-mouvement brownien par le théorème de Lévy.
88 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
Chapitre 5
Équations différentielles
stochastiques
Comme nous l’avons vu avec la formule d’Itô dans le chapitre précédent, il existe un lien
étroit entre la théorie des probabilités et celles plus anciennes des équations aux dérivées
partielles, et ce type d’équations différentielles stochastiques (EDS) ci-dessus permet de
passer de l’une à l’autre. Pour illustrer notre propos, nous allons d’abord introduire
trois EDS classiques et montrer comment leurs solutions peuvent être trouvées par des
méthodes simples. En revanche, dès que l’on complexifie un peu l’équation, comme dans
le cas déterministe, il s’avère que ces méthodes de résolution ne sont plus accessibles et
se posent alors les questions d’existence et d’unicité de ces solutions.
où les constantes µ et σ sont dans R et (0, ∞), respectivement. Pour résoudre cette EDS,
nous allons utiliser la formule d’Itô et rechercher une solution de la forme Xt = f (Bt , t).
89
90 CHAPITRE 5. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
On obtient alors:
1
dXt = fx (Bt , t) dBt + fxx (Bt , t) + ft (Bt , t) dt,
2
où fx et ft désignent les dérivées premières de f en espace et en temps, respectivement,
et fxx est la dérivée seconde en espace. Par identification des coefficients, on a:
µ f (x, t) = 12 fxx (x, t) + ft (x, t);
Une solution de la seconde équation est de la forme f (x, t) = exp (σx + g(t)), où g est
une fonction arbitraire. Ainsi, en la réinjectant dans la première équation, on trouve que
g doit satisfaire g 0 (t) = µ − σ 2 /2. Il en résulte alors qu’une solution de l’EDS est
σ2
Xt = x0 exp σ Bt + µ − t .
2
Pour le moment, nous devons admettre qu’il puisse y avoir d’autres solutions à cette
EDS. On verra plus tard qu’en fait il s’agit de l’unique solution. Ce processus, appelé
communément mouvement brownien géométrique, est l’un des plus utilisés dans le calcul
stochastique, et en particulier en finance et en économie (c’est le fameux modèle de Black-
Scholes). Concernant ce processus, on notera un étrange phénomène: on a E[Xt ] = x0 eµt
tandis que comme p.s., Bt /t → 0 lorsque t → ∞, on montre que p.s., Xt → 0 dans le cas
où σ 2 > 2µ: Xt tend p.s. vers 0 alors qu’en moyenne il tend vers l’infini très rapidement,
à une vitesse exponentielle.
Par ailleurs, si l’on suppose que a(t) > 0 pour tout t > 0, alors X est solution de l’EDS
( 0 (t)
dXt = aa(t) Xt dt + a(t)b(t) dBt ;
X0 = x0 ∈ R;
et en revenant à l’EDS initiale, on obtient les équations
( 0
a (t)
a(t)
= −α;
a(t) b(t) = σ.
Finalement, la solution de l’EDS est
Z t
−αt
X t = x0 e +σ e−α(t−s) dBs , t ≥ 0.
0
Théorème 5.2.1. Étant donné un horizon fini T > 0, considérons l’EDS suivante sur
[0, T ]:
dXt = b(t, Xt ) dt + σ(t, Xt ) dBt ;
X 0 = x0 .
Supposons les coefficients b et σ localement bornés en temps et lipschitziens en espace, i.e.
pour tout t ∈ [0, T ],
(ii) unicité : si X et Y sont deux telles solutions de cette EDS (avec le même
mouvement brownien et le même point initial), alors elles sont égales p.s., i.e.
P (Xt = Yt ∀ t ∈ [0, T ]) = 1.
Lemme 5.2.2. Soit g : [0, T ] → R une fonction positive mesurable bornée. Supposons
qu’il existe deux constantes a, b ≥ 0 telles que pour tout t ∈ [0, T ],
Z t
g(t) ≤ a + b g(s) ds.
0
Ainsi, g étant majorée par une constante A, on obtient que le reste intégral dans le terme
de droite est majoré par A(bt)n+1 /(n + 1)! et donc tend vers 0 lorsque n → ∞.
À présent, nous sommes en mesure de démontrer le théorème d’existence et d’unicité.
Démonstration. (ii) Unicité.
Soient X et Y deux solutions de l’EDS ci-dessus. Alors pour tout t ∈ [0, T ],
Z t Z t
Xt − Yt = (b(s, Xs ) − b(s, Ys )) ds + (σ(s, Xs ) − σ(s, Ys )) dBs .
0 0
Notons que les fonctions σ et b étant lipschitziennes et les processus X et Y bornés dans L2
sur [0, T ], l’intégrale stochastique est bien définie, i.e. σ(·, X)−σ(·, Y ) ∈ H2 (B, T ). Ainsi,
en utilisant successivement les inégalités (u + v)2 ≤ 2 (u2 + v 2 ) et de Cauchy-Schwarz,
l’isométrie d’Itô et enfin l’inégalité (5.2.1), on obtient:
"Z 2 #
t
E (Xt − Yt )2 ≤ 2 E
(b(s, Xs ) − b(s, Ys )) ds
0
"Z 2 #
t
+2 E (σ(s, Xs ) − σ(s, Ys )) dBs
0
Z t
2
≤ 2t E (b(s, Xs ) − b(s, Ys )) ds
Z0 t
2
+2 E (σ(s, Xs ) − σ(s, Ys )) ds
0
Z t
E (Xs − Ys )2 ds.
≤ 2K max{T, 1}
0
D’où par le lemme de Gronwall appliqué avec a = 0, on obtient que P(Xt = Yt ) = 1 pour
tout t ∈ [0, T ]. Enfin, comme
P(Xt = Yt ∀t ∈ [0, T ] ∩ Q) = 1,
94 CHAPITRE 5. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
Comme d’habitude, pour montrer que cette suite de processus converge vers une limite
qui satisfait l’énoncé du théorème, on va montrer que p.s. elle est de Cauchy pour la
norme uniforme sur [0, T ].
Tout d’abord, remarquons que l’itération donnée ci-dessus est bien définie. En effet, si
X (n) est un processus continu, adapté et borné dans L2 sur [0, T ], l’inégalité (5.2.1) ainsi
que le fait que σ et b soient localement bornées en temps nous donnent facilement que
σ(·, X (n) ) et b(·, X (n) ) sont bornés dans L2 sur [0, T ] (et donc comme ils sont continus
et adaptés, ils appartiennent à l’espace H2 (B, T )). Ainsi, on obtient que X (n+1) est un
processus continu, adapté et borné dans L2 sur [0, T ]. Et comme X (0) = x0 est trivialement
continu, adapté et borné dans L2 sur [0, T ], tous les processus X (n) le sont.
À présent, par la même méthode que celle utilisée pour l’unicité, où cette fois l’inégalité
de Doob L2 est invoquée pour contrôler le supremum, il n’est pas difficile de montrer que
pour tout n ∈ N∗ et tout t ∈ [0, T ],
Z t
gn (t) ≤ C gn−1 (s) ds,
0
où C := 8K max{T, 1} et
" #
gn (t) := E sup |Xs(n+1) − Xs(n) |2 .
s∈[0,t]
Ainsi, comme g0 est majorée par une constante M sur [0, T ], alors en itérant l’inégalité
ci-dessus comme dans la preuve du lemme de Gronwall, on obtient la borne
M (CT )n
0 ≤ gn (T ) ≤ , n ∈ N.
n!
En sommant sur n et par l’inégalité de Cauchy-Schwarz, il vient
" #
X Xp
E sup |Xs(n+1) − Xs(n) | ≤ gn (T ) < ∞,
n∈N s∈[0,T ] n∈N
Il en résulte que la suite de processus (X (n) )n∈N est de Cauchy p.s. pour la norme uniforme
sur [0, T ]: elle converge alors p.s. uniformément sur [0, T ] vers un processus adapté X
continu sur [0, T ], satisfaisant pour tout n ∈ N,
(n)
X (k+1) (k)
Xt = X t + (Xt − Xt ), t ∈ [0, T ].
k≥n
La convergence dans L2 entraı̂nant la convergence p.s. d’une sous-suite, alors pour tout
t ∈ [0, T ], on a p.s.,
Rt (n ) Rt
0 b(s, Xs k ) ds −→ 0 b(s, Xs ) ds;
k→∞
t σ(s, Xs(nk ) ) dBs −→ R t σ(s, Xs ) dBs ,
R
0 k→∞ 0
d’où en remplaçant n par nk dans l’identité (5.2.2) et en passant à la limite p.s. lorsque
k → ∞, on obtient pour tout t ∈ [0, T ], p.s.,
Z t Z t
X t = x0 + b(s, Xs ) ds + σ(s, Xs ) dBs .
0 0
Enfin, en prenant t ∈ [0, T ] ∩ Q on peut intervertir avec le “p.s.” et les deux membres de
cette égalité étant continus sur [0, T ], on obtient le résultat désiré, à savoir
Z t Z t
P X t = x0 + b(s, Xs ) ds + σ(s, Xs ) dBs ∀t ∈ [0, T ] = 1.
0 0
La durée de l’examen est de 3 heures. Seul le polycopié est autorisé lors de l’épreuve.
Vous pourrez considérer comme acquis tous les résultats démontrés en cours.
Le barême donné ci-dessous est approximatif.
Tout au long de cet examen, (Ω, A, P) est un espace de probabilité sur lequel est défini
un mouvement brownien B sur R+ , muni de sa filtration naturelle standard (Ft )t≥0 .
1 - En faisant apparaı̂tre des accroissements browniens bien choisis, déterminez une con-
stante ε ∈]0, 1[ telle que pour tout n ∈ N∗ ,
P(T(−a,b) > n) ≤ εn ,
97
98 ANNEXE A. EXAMEN DU 3 FÉVRIER 2011
(θ) θ2 t
et introduisons le processus Mt := fθ (Bt ) e− 2 , t ≥ 0. Montrez que le processus arrêté
(θ)
(Mt∧T(−a,b) )t≥0 est une martingale uniformément intégrable.
7 - Montrez que la transformée de Laplace de T(−a,b) est donnée pour tout λ > 0 par
√ √
−λT sinh(a 2λ) + sinh(b 2λ)
E e (−a,b) = √ .
sinh((a + b) 2λ)
8 - On considère dans cette dernière partie le temps d’arrêt unilatère (qui est fini presque
sûrement d’après le cours):
Ta := inf{t ≥ 0 : Bt = a}, a ∈ R∗ .
Adaptez la méthode précédente pour montrer que sa transformée de Laplace est donnée
pour tout λ > 0 par √
E e−λTa = e−|a| 2λ .
Pour un niveau a strictement positif, notons TaX le temps d’atteinte de a par X, i.e.
TaX := inf{t ≥ 0 : Xt = a}.
1 - Montrez que Z est presque sûrement fini.
2 - Soit T > 0 un horizon fini, fixé. Déterminez Q une probabilité équivalente à P sur FT
et un Q-mouvement brownien B e sur [0, T ] tels que pour tout t ∈ [0, T ],
2
Z
X
µ T
P Ta ≤ t = exp −µB fT − dQ,
{Ta ≤t} 2
Pour tout t ≥ 0 fixé, si f ∈ LipK , montrez que la fonction x 7→ E [f (Xtx )] est dans un
espace LipKt , où Kt est une constante dépendant de t, que vous déterminerez.
5 - Montrez que l’identité suivante est satisfaite:
Z Z
x
E [f (Xt )] µ(dx) = f (x) µ(dx).
R R
La durée de l’examen est de 4 heures. Seul le polycopié est autorisé lors de l’épreuve.
Vous pourrez considérer comme acquis tous les résultats vus en cours.
Le barême donné ci-dessous est approximatif.
Tout au long de cet examen, (Ω, A, P) est un espace de probabilité sur lequel seront
définis les processus, tous supposés adaptés par rapport à une filtration standard générique
(Ft )t≥0 .
101
102 ANNEXE B. EXAMEN DU 6 JANVIER 2012
1 - Dessinez sur l’intervalle [0, τ ] une trajectoire typique du mouvement brownien bidi-
mensionnel, partant d’un point x appartenant à l’intérieur de la couronne Ar,R .
2 - En comparant τ avec un temps d’atteinte bien choisi d’un mouvement brownien réel,
montrez que Px (τ < ∞) = 1 pour tout x ∈ Ar,R .
3 - Montrez que ∆f = 0 sur Ar,R , où ∆ est le laplacien sur R2 : ∆ := ∂x21 + ∂x22 . On dit
alors que f est harmonique sur la couronne Ar,R .
4 - Établissez l’égalité suivante: pour tout x ∈ Ar,R ,
Mt = f (Bt∧τ ) − f (B0 ), t ≥ 0,
3 - À présent, soit f ∈ C 2 (R, R) une fonction bornée et dont les dérivées successives sont
bornées. Soit T > 0 un horizon fini et notons g : R × [0, T ] → R la fonction définie
par g(x, t) := E [f (BT ) | Bt = x] (on rappelle qu’il ne s’agit là que d’une notation, le
conditionnement par rapport à un événement de probabilité 0 étant interdit).
Montrez que la fonction g peut s’écrire sous la forme
Z
g(x, t) = f (u + x) γt,T (u) du,
R
5 - Déduisez de tout ce qui précède que l’on a l’inégalité suivante, dite de déviation
gaussienne (par rapport à la moyenne):
r2
P (f (BT ) − E[f (BT )] > r) ≤ exp − ,
2(κf )2 T
On note L l’opérateur différentiel du second ordre agissant sur les fonctions C 2 (R, R) de
la manière suivante:
1
Lf (x) := σ(x)2 ∂x2 f (x) + b(x) ∂x f (x), x ∈ R.
2
Enfin, étant donnés deux réels α < β et x ∈ [α, β], on note le temps d’arrêt τ := τα ∧ τβ
où τr := inf{t ≥ 0 : Xt = r}, Px la probabilité sachant X0 = x et enfin Ex l’espérance
sous Px .
104 ANNEXE B. EXAMEN DU 6 JANVIER 2012
Montrez que M (f ) est une martingale locale et donnez son expression sous la forme d’une
intégrale stochastique.
2 - Déduisez-en pour tout t ≥ 0 la formule suivante, dite formule de Dynkin:
Z t∧τ
Ex [f (Xt∧τ )] = f (x) + Ex Lf (Xs ) ds .
0
3 - Supposons qu’il existe une fonction u ∈ C 2 ([α, β], R) telle que Lu ≤ −1. Montrez que
Ex [τ ] < ∞.
4 - Dans la suite, on suppose qu’il existe une fonction u ∈ C 2 ([α, β], R) telle que Lu = −1
et u(α) = u(β) = 0. Montrez que u(x) = Ex [τ ].
5 - Si σ ne s’annule pas et si la dérive b est identiquement nulle, donnez l’expression de
Ex [τ ] en fonction de σ.
6 - Sous les mêmes conditions, montrez que l’on a
β−x x−α
Px (Xτ = α) = et Px (Xτ = β) = .
β−α β−α
7 - Dans le cas où σ = 1 et b = 0, c’est-à-dire lorsque X est le mouvement brownien issu
de x, appliquez ce qui précède pour établir l’expression suivante:
Ex [τ ] = (x − α) (β − x).
[2] I. Karatzas, S. Shreve. Brownian motion and stochastic calculus. Springer, 1987.
[3] J.F. Le Gall. Calcul stochastique et processus de Markov. Cours de M2R, 2010-2011.
[4] D. Revuz et M. Yor. Continuous martingales and Brownian motion. Springer, 1999.
[5] J.M. Steele. Stochastic calculus and financial applications. Springer, 2001.
105