0% ont trouvé ce document utile (0 vote)
49 vues105 pages

Calcul Sto

Ce document présente un cours de calcul stochastique, essentiel pour les étudiants en mathématiques, en mettant l'accent sur le mouvement brownien et le calcul d'Ito. Il aborde des concepts clés tels que les martingales, l'intégration stochastique et les équations différentielles stochastiques. Le cours inclut des rappels sur l'espérance conditionnelle et des exercices pour renforcer la compréhension des théories présentées.

Transféré par

Amine Fadili
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
49 vues105 pages

Calcul Sto

Ce document présente un cours de calcul stochastique, essentiel pour les étudiants en mathématiques, en mettant l'accent sur le mouvement brownien et le calcul d'Ito. Il aborde des concepts clés tels que les martingales, l'intégration stochastique et les équations différentielles stochastiques. Le cours inclut des rappels sur l'espérance conditionnelle et des exercices pour renforcer la compréhension des théories présentées.

Transféré par

Amine Fadili
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

CALCUL STOCHASTIQUE

Aldéric JOULIN

Polycopié du cours de base C2

Master 2 Recherche de Mathématiques Fondamentales et Appliquées


Parcours C - Probabilités et Statistiques
Institut de Mathématiques de Toulouse
Université Paul Sabatier

Année universitaire 2012-2013


Avant-Propos

Le mouvement brownien est un phénomène aléatoire jouant un rôle fondamen-


tal dans la théorie des processus stochastiques. Son évolution au cours du temps est
extrêmement désordonnée. Il en résulte que la construction d’une intégrale par rapport à
ce processus ne rentre pas dans le cadre de l’intégration classique.
Dans ce cours, nous introduirons la théorie du calcul stochastique, ou calcul d’Itô, du nom
d’un célèbre mathématicien japonais du 20ème siècle, nous permettant de donner une
définition probabiliste à cette intégrale, mais aussi d’étudier des équations différentielles
perturbées aléatoirement par ce type d’intégrales. Les solutions de ces équations, que
l’on appelle équations différentielles stochastiques, définissent de nouveaux processus, les
processus de diffusion, qui sont à la base du calcul probabiliste moderne.

Cher étudiant, ce cours est fondamental pour vous si vous désirez poursuivre
votre cursus universitaire dans le domaine des probabilités. En particulier, le mouve-
ment brownien ainsi que la formule d’Itô sont deux objets essentiels que vous manipulerez
fréquemment dans un avenir proche et dont vous serez amené à parler dans les soirées
mondaines. Ainsi, vous devrez fournir un travail dense et approfondi tout au long du
semestre afin d’avoir le recul nécessaire pour découvrir les immenses perspectives qu’ouvre
la théorie du calcul stochastique vers l’infini et au-delà. Pour vous exercer, un devoir mai-
son est mis à votre disposition à la fin du chapitre sur le mouvement brownien, ainsi que
les sujets d’examen des deux dernières années (en annexe).

Enfin, ce polycopié ne demandant qu’à être amélioré, n’hésitez pas à me faire part
de vos remarques et suggestions. En particulier, la présence presque sûre de coquilles
et erreurs diverses et variées est bien évidemment délibérée dans le but pédagogique que
vous puissiez exercer votre esprit critique dans les meilleurs conditions possibles.

Aldéric Joulin
Table des matières

0 Espérance conditionnelle 7
0.1 Quelques rappels sur les tribus . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.2 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1 Le mouvement brownien 13
1.1 Vecteurs et processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.1 Définition et premières propriétés des vecteurs gaussiens . . . . . . 13
1.1.2 Quelques autres propriétés en vrac . . . . . . . . . . . . . . . . . . 15
1.1.3 Processus gaussien et mouvement brownien . . . . . . . . . . . . . . 16
1.2 Construction du mouvement brownien . . . . . . . . . . . . . . . . . . . . 18
1.2.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.2 Décomposition en ondelettes . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Comportement des trajectoires browniennes . . . . . . . . . . . . . . . . . 22
1.3.1 Propriétés principales . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.2 Hölder continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4 Propriété de Markov forte et principe de réflexion . . . . . . . . . . . . . . 31

2 Martingales 33
2.1 Rappels sur les martingales à temps discret . . . . . . . . . . . . . . . . . . 33
2.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 33
2.1.2 Théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Inégalités maximales et théorèmes de convergence . . . . . . . . . . . . . . 37
2.2.1 Inégalités maximales de Doob . . . . . . . . . . . . . . . . . . . . . 37
2.2.2 Convergence des martingales . . . . . . . . . . . . . . . . . . . . . . 39
2.3 Martingales à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 44
2.3.2 Théorème d’arrêt et inégalités maximales de Doob . . . . . . . . . . 45
2.3.3 Convergence des martingales . . . . . . . . . . . . . . . . . . . . . . 49

3 Semimartingales continues 51
3.1 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 51
3.1.2 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 53

5
6 TABLE DES MATIÈRES

3.1.3 Crochet droit de deux martingales locales . . . . . . . . . . . . . . 59


3.2 Semimartingales continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

4 Intégration stochastique 63
4.1 Construction de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . 63
4.1.1 Définition de l’intégrale stochastique . . . . . . . . . . . . . . . . . 63
4.1.2 L’intégrale stochastique vue comme une martingale . . . . . . . . . 67
4.1.3 Variation quadratique de l’intégrale stochastique . . . . . . . . . . . 69
4.2 Localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3 Extension de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . . 73
4.4 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.5 Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

5 Équations différentielles stochastiques 89


5.1 Trois exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.1.1 Le mouvement brownien géométrique . . . . . . . . . . . . . . . . . 89
5.1.2 Le processus d’Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . 90
5.1.3 Le pont brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Théorème d’existence et d’unicité de la solution . . . . . . . . . . . . . . . 92

A Examen du 3 février 2011 97

B Examen du 6 janvier 2012 101

Bibliographie
Chapitre 0

Rappels sur l’espérance


conditionnelle

0.1 Quelques rappels sur les tribus


Avant de rentrer dans le coeur du sujet, faisons quelques rappels sur la notion de tribu
engendrée.

Définition 0.1.1. Soit Ω un ensemble et A une famille de parties de Ω. On dit que A


est une tribu (sur Ω) si:
(i) Ω ∈ A.
(ii) pour tout ensemble A ∈ A, on a Ac ∈ A, où Ac désigne le complémentaire de
A dans Ω (stabilité par passage au complémentaire).
(iii) pour toute famille (An )n∈N de Ω satisfaisant An ∈ A pour tout n ∈ N, alors
∪n∈N An ∈ A (stabilité par union dénombrable).

En particulier, on appelle tribu engendrée par une classe de parties C de Ω la plus


petite tribu sur Ω contenant C, c’est-à-dire l’intersection de toutes les tribus contenant C.
On la note σ(C). Un exemple classique est bien sur la tribu borélienne sur Ω = Rd , où C
désigne l’ensemble des ouverts de Rd .
Dans la suite de ce cours, l’espace de probabilité sur lequel les différents objets
aléatoires seront définies est noté (Ω, A, P).

Définition 0.1.2. Étant donnée une variable aléatoire (v.a.) X à valeurs dans un espace
mesurable (E, E), on appelle tribu engendrée par X, et on la note σ(X), la sous-tribu de
A engendrée par l’ensemble des images réciproques de X. Autrement dit,

σ(X) := σ X −1 (B) : B ∈ E


= σ ({ω ∈ Ω : X(ω) ∈ B} ; B ∈ E)
= σ ({X ∈ B} ; B ∈ E) ,

7
8 CHAPITRE 0. ESPÉRANCE CONDITIONNELLE

où la dernière égalité est simplement une notation. Il s’agit donc de la plus petite tribu
sur Ω rendant X mesurable. De même, si (Xn )n∈N ∗ est une suite de v.a. à valeurs dans
(E, E), alors on définit la tribu engendrée par cette suite comme

σ ((Xn )n∈N ∗ ) := σ ({∩ni=1 {Xi ∈ Bi } ; n ∈ N∗ ; B1 , . . . , Bn ∈ E) .

À présent, nous allons énoncer un résultat très utile en pratique, le lemme de Doob,
dû à un célèbre probabiliste américain du milieu de 20ème siècle. En particulier, ce lemme
nous donne un critère simple pour établir la mesurabilité d’une v.a. Y par rapport à la
tribu engendrée par une autre v.a. X, sous réserve qu’elles sont toutes 2 à valeurs dans
R (ou éventuellement dans Rd ).

Lemme 0.1.3 (Cas réel). Étant donnée une variable aléatoire réelle (v.a.r.) X, une autre
v.a.r. Y est σ(X)-mesurable si et seulement s’il exite une fonction borélienne h : R → R
telle que Y = h(X).

0.2 Espérance conditionnelle


Maintenant, nous sommes en mesure d’introduire la notion d’espérance conditionnelle.
Dans la suite et sauf mention du contraire, tous nos objets aléatoires seront à valeurs
réelles. De plus, lorsque l’on aura une égalité entre v.a.r., on sous-entendra qu’elle sera
vérifiée presque sûrement.

Définition 0.2.1. Soit F une sous-tribu de A, engendrée par une partition (An )n∈N ∗ de
Ω, à savoir 
∪n∈N ∗ An = Ω
Ai ∩ Aj = ∅ pour i 6= j.
Notons N := {n ∈ N∗ : P(An ) > 0}. On appelle probabilité conditionnelle d’un événement
A ∈ A sachant la tribu F la quantité:
X
P(A | F)(ω) := P(A | An ) 1An (ω), ω ∈ Ω,
n∈N

où 1An (ω) est l’indicatrice valant 1 si ω ∈ An et 0 sinon.

Notez que cette probabilité conditionnelle est une v.a. et non un nombre déterministe,
le conditionnement ayant lieu par rapport à une tribu et non un événement. De surcroı̂t,
elle est mesurable par rapport à la tribu F car c’est une fonction des An . Enfin, elle est
constante sur les An et vaut alors P(A | An ).
Cette probabilité conditionnelle étant clairement bornée par 1, elle admet une
espérance et l’on a par convergence monotone
X
E [P(A | F)] = P(A | An ) E [1An ]
n∈N
0.2. ESPÉRANCE CONDITIONNELLE 9
X
= P(A | An ) P(An )
n∈N
= P(A),

grâce à la FPT, la célèbre Formule des Probabilités Totales. Ainsi, la probabilité condi-
tionnelle par rapport à une tribu vaut, en moyenne, la probabilité initiale.
En utilisant une reformulation avec les indicatrices, la définition de la probabilité
conditionnelle devient: X
E [1A | F] := E [1A | An ] 1An .
n∈N

Bien entendu, la quantité intervenant dans le membre de droite doit être comprise comme
E [1A 1An ]
E [1A | An ] := P(A | An ) = .
P(An )
On en déduit que cette probabilité conditionnelle est obtenue par “moyennisation” de
la v.a. 1A sur les événements engendrant F. L’étape suivante est donc de remplacer
cette indicatrice par une v.a. suffisamment intégrable, comme on le fait dans le cours
d’intégration (passage des indicatrices aux fonctions étagées puis aux fonctions mesurables
positives puis enfin aux fonctions intégrables).
Définition 0.2.2. Soit X une v.a.r. de carré intégrable et F une sous-tribu de A en-
gendrée par une partition (An )n∈N ∗ de Ω. De même que précédemment, notons N :=
{n ∈ N∗ : P(An ) > 0}. On appelle espérance conditionnelle de X sachant la tribu F la
v.a. X
E [X | F] (ω) := E [X | An ] 1An (ω), ω ∈ Ω,
n∈N

où E [X | An ] désigne le ratio E [X 1An ] /P(An ).


Remarquons plusieurs propriétés. Tout d’abord, l’espérance conditionnelle est
clairement F-mesurable, linéaire et est positive si X l’est. De plus, un exercice clas-
sique est de montrer, via l’inégalité de Cauchy-Schwarz, qu’elle est de carré intégrable,
donc intégrable, et vaut en moyenne l’espérance de X:
X
E [E [X | F]] = E [X | An ] E [1An ]
n∈N
X
= E [X 1An ]
n∈N
= E [X] ,

la famille (An )n∈N ∗ formant une partition


P de Ω. Par ailleurs, si X est mesurable par
rapport à la tribu F, i.e. X s’écrit X = i αi 1Ai et où les αi sont des constantes, alors
XX
E [X | F] = αi E [1Ai | An ] 1An
n∈N i
10 CHAPITRE 0. ESPÉRANCE CONDITIONNELLE
X
= αi 1Ai
i
= X,

en ayant utilisé encore une fois le fait que (An )n∈N ∗ est une partition de Ω. Si les
tribus σ(X) et F sont indépendantes, c’est-à-dire que tout événement σ(X)-mesurable est
indépendant de tout événement F-mesurable, alors on démontre facilement que E [X | F] =
E [X]. Enfin, terminons par la propriété clé satisfaite par l’espérance conditionnelle, qui
est à la base de la prochaine définition et qu’on laissera en exercice au lecteur: pour toute
v.a.r. F-mesurable et de carré intégrable Z on a

E [X Z] = E [E [X | F] Z] .

À présent, on va généraliser l’espérance conditionnelle à une tribu arbitraire, non


nécessairement engendrée par une partition. En particulier, on va pouvoir condition-
ner par une v.a.r. générale. La définition que nous donnons ci-dessous est celle dans
L2 (Ω, A, P), que l’on notera L2 (A) ou L2 s’il n’y a pas de confusion possible (on utilis-
era ce même raccourci de notation pour tous les espaces Lp ). Cette définition peut être
étendue par densité à l’espace L1 (A) (on remplacera alors dans ce qui suit la v.a.r. Z par
une indicatrice).

Définition et théorème 0.2.3. Soit X une v.a.r. dans L2 (A) et soit F une sous-tribu
quelconque de A. Alors il existe une unique v.a.r. Y dans L2 (F), i.e. dans L2 (A) et
F-mesurable, telle que pour toute v.a.r. Z ∈ L2 (F),

E [X Z] = E [Y Z] .

On note Y = E [X | F]: c’est l’espérance conditionnelle de X sachant la tribu F.


Démonstration. Posons F = L2 (F), qui est un espace de Hilbert donc complet (i.e.
toute suite de Cauchy converge pour la norme associée). De plus, F étant inclus dans
L2 (A), il est fermé (tout sous-espace complet d’un espace métrique, non nécessairement
complet, est fermé). Ainsi, par le théorème du supplémentaire orthogonal d’un fermé dans
un espace de Hilbert, l’espace L2 (A) se décompose comme la somme directe de F et de
son orthogonal F ⊥ := {U ∈ L2 (A) : E[U Z] = 0 pour tout Z ∈ F }: L2 (A) = F ⊕ F ⊥ . En
d’autres termes, toute v.a.r. de L2 (A) se décompose de manière unique comme la somme
de 2 v.a.r., l’une dans F et l’autre dans F ⊥ . Lorsque l’on applique ce résultat à X on
obtient l’existence et l’unicité d’une v.a.r. Y ∈ F telle que X = Y + (X − Y ) où X − Y
est dans F ⊥ . Ainsi, on en déduit que pour tout Z ∈ F , E[(X − Y ) Z] = 0, c’est-à-dire le
résultat désiré.
Cette définition généralise le cas de l’espérance conditionnelle par rapport à une
tribu engendrée par une partition. Comme l’espérance classique, l’espérance condition-
nelle satisfait les propriétés de linéarité, de positivité, de convergences monotone et
dominée, mais aussi les inégalités de Jensen et de Cauchy-Schwarz, de Hölder, etc...
0.2. ESPÉRANCE CONDITIONNELLE 11

Proposition 0.2.4. L’espérance conditionnelle vérifie les propriétés suivantes:


(i) E [E [X | F]] = E [X].
(ii) Si les tribus σ(X) et F sont indépendantes, alors E [X | F] = E [X].
(iii) Si X est F-mesurable, alors E [X | F] = X.
(iv) Si G ⊂ F alors E [E [X | F] | G] = E [X | G].
(v) E [X | F] est le projeté orthogonal de X sur le sous-espace fermé L2 (F).
Démonstration. (i): prendre Z = 1 qui est bien dans L2 (F).
(ii): Supposons les tribus σ(X) et F indépendantes. Alors pour toute v.a.r. Z ∈ L2 (F),

E [X Z] = E [X] E [Z] .

Or E [X] étant constante, elle est bien F-mesurable et donc on obtient le résultat par
unicité de l’espérance conditionnelle.
(iii): Même raisonnement que précédemment.
(iv): Immédiat en utilisant les propriétés (i) et (iii).
(v): La v.a.r. Y := E[X | F] est le projeté orthogonal de X sur F := L2 (F) si et
seulement si
Y ∈ F and kX − Y kL2 (A) = inf kX − U kL2 (A) .
U ∈F

On sait déjà que Y ∈ F . Ainsi, soit Z ∈ F et posons U := X − Y ∈ F ⊥ (comme on l’a


vu ci-dessus) et V := Y − Z ∈ F comme différence de 2 éléments de F . Alors E [U V ] = 0
et l’on obtient:

E (X − Z)2 = E (U + V )2
   

= E U 2 + E V 2 + 2 E [U V ]
   

= E U2 + E V 2 ,
   

quantité qui est minimale pour le choix de V = 0, i.e. Z = Y .


Pour terminer ce chapitre, mentionnons que l’espérance conditionnelle par rapport
à la tribu σ(X) se note classiquement E[ · | X]. Si l’on considère une v.a.r. Y intégrable,
alors vu que E[Y | X] est σ(X)-mesurable, le lemme de Doob indique qu’il existe une
fonction borélienne h : R → R telle que E[Y | X] = h(X). Dans ce cas, on note
E[Y | X = x] la quantité h(x), pour tout x ∈ R, notation quelque peu abusive dès que X
est continue (interdit de conditionner par un événement de probabilité nulle).
12 CHAPITRE 0. ESPÉRANCE CONDITIONNELLE
Chapitre 1

Le mouvement brownien

1.1 Vecteurs et processus gaussiens


Avant de définir l’objet central de ce chapitre, le mouvement brownien, commençons par
introduire la notion de vecteurs gaussiens généralisant les variables aléatoires gaussiennes
unidimensionnelles.

1.1.1 Définition et premières propriétés des vecteurs gaussiens


Si X est un vecteur aléatoire en dimension d (i.e. une v.a. à valeurs dans Rd vue comme
un vecteur colonne) tel que chacune de ses coordonnées Xi , i ∈ {1, . . . , d}, soit dans L2 ,
alors on définit dans la suite son vecteur espérance et sa matrice de covariance par
 
  σ1,1 σ1,2 · · · σ1,d
E[X1 ]  σ2,1 σ2,2 · · · σ2,d 
 ·   
   · · · · · · 
E[X] = m :=  ·  et Var(X) = Γ := 
 ·
,

 · 

 · ··· · 

 · · ··· · 
E[Xd ]
σd,1 σd,2 · · · σd,d
où σi,j désigne la covariance entre les variables Xi et Xj :
σi,j = Cov(Xi , Xj ) := E[(Xi − mi ) (Xj − mj )] = E[Xi Xj ] − mi mj ,
où mi := E[Xi ] pour tout i ∈ {1, . . . , d}. En particulier, cette covariance est bien définie
par l’inégalité de Cauchy-Schwarz. De plus, on remarque que la matrice Γ est symétrique
et qu’elle peut s’écrire comme
Γ = E (X − m) (X − m)T = E X X T − m mT ,
   

où le symbole T désigne la transposition et l’espérance d’une matrice est définie comme
la matrice des espérances de chacun de ses éléments. On en déduit qu’elle est semi-définie
positive au sens où pour tout x ∈ Rd ,
xT Γx = E |xT (X − m)|2 ≥ 0.
 

13
14 CHAPITRE 1. LE MOUVEMENT BROWNIEN

Dans la suite de ce chapitre, on supposera que les vecteurs gaussiens considérés sont non
dégénérés, c’est-à-dire que det Γ 6= 0 (elle donc définie positive, i.e. xT Γx > 0 pour tout
x 6= 0 dans Rd ).
Définition 1.1.1. Soit X un vecteur aléatoire en dimension d et de matrice de covariance
Γ. Il est dit gaussien si la densité jointe est donnée par
 
1 1 T −1
fX (x) = √ exp − (x − m) Γ (x − m) , x ∈ Rd .
(2π) d/2 det Γ 2
On note alors X ∼ Nd (m, Γ) (et N (m, Γ) si d = 1).
Ainsi, comme dans le cas unidimensionnel, la donnée du vecteur espérance et de la
matrice de covariance caractérise la loi d’un vecteur gaussien. La fonction caractéristique
étant vue comme la transformée de Fourier de la densité, que l’on sait injective dans L1 ,
on a la caractérisation suivante de la loi d’un vecteur gaussien. Dans la suite on notera
indifféremment < x, y > ou xT y le produit scalaire entre deux éléments de Rd .
Proposition 1.1.2. Un vecteur aléatoire X est gaussien d’espérance m et de matrice de
covariance Γ si et seulement si sa fonction caractéristique est donnée par
 
1 T
φX (θ) := E[e i<θ,X>
] = exp iθ m − θ Γθ , θ ∈ Rd .
T
2
À présent, posons-nous la question suivante: un vecteur gaussien a-t-il toutes ses
composantes unidimensionnelles gaussiennes ? Et réciproquement, suffit-il d’avoir toutes
les coordonnées gaussiennes pour que le vecteur associé soit gaussien ? La proposition
suivante permet de répondre à la question.
Proposition 1.1.3. Un vecteur aléatoire X est gaussien si et seulement si θT X est une
v.a. gaussienne unidimensionnelle pour tout θ ∈ Rd différent du vecteur nul, i.e. toute
combinaison linéaire non nulle de ses coordonnées est gaussienne.
Démonstration. Notons respectivement m et Γ le vecteur espérance et la matrice de
covariance du vecteur X. Supposons le gaussien. Alors pour tout θ ∈ Rd différent du
vecteur nul, la fonction caractéristique de la v.a.r. θT X s’écrit pour tout u ∈ R:
h T
i
φθT X (u) = E eiu θ X
= φX (uθ)
u2 T
 
T
= exp iuθ m − θ Γθ .
2
Ainsi, on en déduit que pour tout θ ∈ Rd non nul, la v.a.r. θT X suit une loi gaussienne
d’espérance θT m et de variance θT Γθ, qui est strictement positive car Γ est définie positive.
Réciproquement, si θT X suit une loi gaussienne pour tout θ ∈ Rd non nul, alors
(  T  Pd
E θ X = i=1
Pθi E[Xi ]  = θT m;
 d Pd
Var θT X = Var i=1 θi Xi = T
i,j=1 θi θj Cov(Xi , Xj ) = θ Γθ.
1.1. VECTEURS ET PROCESSUS GAUSSIENS 15

Alors on a pour tout u ∈ R


u2 T
 
T
φθT X (u) = exp iuθ m − θ Γθ ,
2
et en choisissant u = 1 on obtient que pour tout θ ∈ Rd non nul,
 
T 1 T
φX (θ) = exp iθ m − θ Γθ ,
2
c’est-à-dire que X ∼ Nd (m, Γ).
Ainsi, chacune des coordonnées d’un vecteur gaussien suit forcément une loi gaussi-
enne. En revanche, la réciproque est fausse: il se peut que 2 variables aléatoires réelles
Y et Z soient gaussiennes sans que le vecteur (Y, Z) soit un vecteur gaussien. En effet,
considérons une v.a.r. Y ∼ N (0, 1), indépendante d’une variable ε dite de Rademacher,
de loi donnée par
1
P(ε = 1) = P(ε = −1) = .
2
On montrera que Z = εY est une v.a.r. gaussienne alors que le vecteur (Y, Z) ne l’est pas.
Ainsi, demander à ce qu’un vecteur aléatoire soit gaussien requiert plus que le caractère
gaussien des coordonnées.
Le résultat qui suit est en quelque sorte un “miracle” du cadre gaussien, au sens où
il suffit de démontrer la nullité des différentes covariances afin d’obtenir l’indépendance.
Proposition 1.1.4 (Miracle gaussien). Soit X un vecteur gaussien. Alors ses coor-
données sont indépendantes si et seulement si sa matrice de covariance est diagonale.
Démonstration. Les coordonnées du vecteur gaussien X sont indépendantes si et
seulement si sa densité fX est le produit des densités des coordonnées. Ceci équivaut
à dire quePla forme quadratique (x − m)T Γ−1 (x − m) apparaissant dans fX s’écrit de
la forme di=1 αi (xi − mi )2 . En d’autres termes, il n’y a aucun terme croisé du type
(xi − mi )(xj − mj ) pour i 6= j, c’est-à-dire que la matrice Γ−1 (donc Γ) est diagonale.

1.1.2 Quelques autres propriétés en vrac


Donnons dans ce bref paragraphe quelques propriétés que l’on rencontre usuellement
lorsque l’on s’attaque à un problème faisant intervenir des vecteurs gaussiens.
Proposition 1.1.5 (Transformation linéaire). Soit A une matrice inversible d × d et b un
vecteur dans Rd . Considérons le vecteur gaussien X ∼ Nd (m, Γ). Alors le vecteur AX + b
est gaussien d’espérance Am + b et de matrice de covariance AΓAT .
En particulier, si X ∼ Nd (0, σ 2 Id ) et que la matrice A est orthogonale, i.e. AAT = Id ,
alors les vecteurs X et AX ont même loi.
Démonstration. Il suffit de faire les calculs. On remarquera au passage que la ma-
T
trice AΓA est bien semi-définie positive, et même définie positive car A est supposée
inversible.
16 CHAPITRE 1. LE MOUVEMENT BROWNIEN

Proposition 1.1.6. Un vecteur aléatoire d-dimensionnel X est gaussien d’espérance m


et de matrice de covariance Γ si et seulement si X peut s’écrire X = AU + m, où
U ∼ Nd (0, Id ) et A est une matrice carrée d × d inversible et vérifiant AAT = Γ.
Démonstration. La matrice Γ est symétrique donc diagonalisable dans une base or-
thonormale. De plus, étant définie positive, toutes ses valeurs propres λi sont strictement
positives. Notons P la matrice de passage qui est orthogonale, i.e. P P T = Id . Alors la
matrice
√ carrée d × d donnée par A := P D, où D est la matrice diagonale formée par les
λi , est inversible et satisfait AAT = Γ. Enfin, la proposition précédente entraı̂ne que
U := A−1 (X − m) est un vecteur gaussien centré et de matrice de covariance l’identité.

Proposition 1.1.7 (Projection gaussienne). Notons X = (X1 , . . . , Xd ) et Y = (Y1 , · · · , Yd0 )


0
et supposons que le vecteur aléatoire (X, Y ) soit gaussien dans Rd+d . Alors la loi con-
ditionnelle de Y sachant X = x est elle-aussi gaussienne et il existe des constantes
0
a, b1 , . . . , bd ∈ Rd telles que
X d
E[Y |X] = a + bi X i .
i=1

De plus, le vecteur aléatoire Y − E[Y |X] est gaussien centré et indépendant de X.


Démonstration. Le cas général est une adaptation immédiate du cas d = d0 = 1.
Ainsi, soit (X, Y ) un vecteur gaussien dans R2 . On montre tout d’abord que le vecteur
(X, Y − a − bX) est gausien dans R2 pour tous a, b ∈ R. Soit a0 et b0 les valeurs pour
lesquelles la quantité E [(Y − a − bX)2 ] est minimale. En d’autres termes, a0 + b0 X est
le projeté orthogonal de Y sur l’espace Vect{1, X} ⊂ L2 . La v.a.r. gaussienne ε0 =
Y − a0 − b0 X étant dans l’espace Vect{1, X}⊥ , on a alors que E[ε0 ] = E[ε0 X] = 0, c’est-
à-dire que ε0 est centrée et indépendante de X, le vecteur (ε0 , X) étant gaussien. Il en
résulte enfin que E[Y | X] = E [ε0 + a0 + b0 X | X] = a0 + b0 X.
Terminons ce paragraphe par le Théorème Central Limite multidimensionnel, dont
la preuve est quelque peu similaire au cas de la dimension 1.
Proposition 1.1.8 (Théorème Central Limite multidimensionnel). Soit (Xn )n≥1 une
suite de vecteurs aléatoires i.i.d. à valeurs dans Rd , et dont les coordonnées sont de
carré intégrable. Notons m := E[X1 ] et Γ := Var(X1 ). Alors on a la convergence en loi
suivante: n
1 X
√ Xi −→ Nd (m, Γ).
n i=1 n→∞

1.1.3 Processus gaussien et mouvement brownien


À présent, introduisons la notion de processus gaussien, qui est une généralisation non-
dénombrable des vecteurs gaussiens.
Définition 1.1.9. Un processus (stochastique) est une famille de variables aléatoires
réelles Xt indexées par le temps t ∈ [0, T ), avec T ∈ (0, ∞]. Il est dit gaussien si
1.1. VECTEURS ET PROCESSUS GAUSSIENS 17

chacun des vecteurs extraits est un vecteur gaussien, i.e. pour tout d ∈ N∗ et tout d-uplet
(t1 , . . . , td ), le vecteur d-dimensionnel (Xt1 , . . . , Xtd ) est gaussien.
Un processus gaussien (Xt )t∈[0,T ) est donc caractérisé en loi par sa “gaussianité”
ainsi que par ses fonctions espérance et covariance:
m(t) := E[Xt ] et K(s, t) := Cov(Xs , Xt ), s, t ∈ [0, T ).
La question est maintenant la suivante : si l’on se donne ces 2 fonctions, existe-il un
processus gaussien associé ? Il s’avère que la réponse est positive lorsque K vérifie
quelques bonnes propriétés (fonction symétrique de type positif sur [0, T ) × [0, T )). La
démonstration utilise principalement le fameux théorème d’existence de Kolmogorov. En
particulier, l’exemple fondamental de ce cours, le célèbre mouvement brownien, peut être
construit de cette manière-là. Cependant, étant donné que nous allons privilégier dans
la suite de ce chapitre une autre approche, disons plus constructive, nous ne nous at-
tarderons pas sur ce théorème dont l’étudiant curieux trouvera sans peine une référence
dans un bon ouvrage de Probabilités avancées, ou encore sur le Web.
Définition 1.1.10. Soit (Bt )t∈[0,T ) un processus à valeurs dans R. Il est appelé mou-
vement brownien (sur l’intervalle [0, T )) si c’est un processus gaussien centré, p.s. à
trajectoires continues et de fonction de covariance donnée par
K(s, t) = Cov(Bs , Bt ) = min{s, t}, s, t ∈ [0, T ).
Cette dénomination est essentiellement dûe à un botaniste anglais, Robert Brown,
qui l’a décrit pour la première fois en 1827 en observant le mouvement de grains de pollen
en suspension dans un liquide. Un siècle plus tard, en 1923, l’américain Norbert Wiener
le construit rigoureusement, et c’est pour cela que l’on parle aussi de processus de Wiener.
Précisons que nous avons défini ce processus sans en avoir encore démontré l’existence.
Pour l’heure, on supposera qu’il existe afin d’en donner les propriétés fondamentales.
Proposition 1.1.11. Soit (Bt )t∈[0,T ) un mouvement brownien. Alors il vérifie les asser-
tions suivantes:
(i) B0 = 0 p.s.
(ii) pour tout 0 ≤ s ≤ t < T , l’accroissement Bt − Bs suit la loi normale centrée
N (0, t − s).
(iii) pour tout 0 = t0 < t1 < · · · < td < T , les accroissements Bti − Bti−1 , i ∈
{1, . . . , d}, sont indépendants.
Démonstration. Les propriétés (i) et (ii) sont triviales. Pour démontrer (iii), il suffit de
démontrer que la matrice de covariance du vecteur gaussien (Bt1 , Bt2 −Bt1 , . . . , Btd −Btd−1 )
est diagonale, ce qui est immédiat.

Remarque 1.1.12. Il résulte de la proposition précédente que si l’on se donne 0 = t0 <


t1 < t2 · · · < td < T , alors la densité jointe du vecteur (Bt1 , . . . , Btd ) est donnée par
d
!
1 X (xk − xk−1 )2
p exp − , x ∈ Rd ,
(2π)d/2 t1 (t2 − t1 ) · · · (td − td−1 ) 2(tk − tk−1 )
k=1
18 CHAPITRE 1. LE MOUVEMENT BROWNIEN

où par convention x0 = 0.

La proposition suivante nous permet d’exhiber de nouveaux mouvements brown-


iens à partir d’un mouvement brownien originel. Les démonstrations sont laissées en
exercice.

Proposition 1.1.13. Soit (Bt )t∈[0,T ) un mouvement brownien (T = +∞ dans les deux
derniers cas). Alors
(i) (−Bt )t∈[0,T ) est aussi un mouvement brownien.
(ii) autosimilarité (ou invariance par changement d’échelle): pour tout λ > 0, le
(λ)
processus donné par Bt := √1λ Bλt est un mouvement brownien sur [0, T /λ).
(s)
(iii) invariance par translation: pour tout s ≥ 0 fixé, le processus donné par Bt :=
Bt+s − Bs est un mouvement brownien sur R+ (on admettra qu’il est indépendant de toute
la trajectoire brownienne jusqu’à l’instant s).
(iv) invariance par retournement temporel: le processus donné par B̃t := t B1/t est
un mouvement brownien sur R+ . Pour la continuité en 0, on remarquera que les processus
B et B̃ ayant même loi et étant continus sur (0, ∞),
 
 
  \ [ \ 1 
P lim B̃t = 0 = P  |B̃t | ≤
t→0
n∈N ∗ p∈N ∗ t∈(0,p−1 ]∩Q
n
 
 
\ [ \ 1 
= P |Bt | ≤
n∈N ∗ p∈N ∗ t∈(0,p−1 ]∩Q
n
 
= P lim Bt = 0
t→0
= 1.

On en déduit que le mouvement brownien a le même comportement trajectoriel


partout sur la demi-droite réelle.

1.2 Construction du mouvement brownien


1.2.1 Principe de la méthode
Démontrons de manière constructive que ce fameux mouvement brownien existe bel et
bien. Pour ce faire, on va expliciter son développement en série en utilisant une base
d’ondelettes. Cette construction est celle de Paul Lévy, célèbre probabiliste français du
milieu du 20ème siècle et accessoirement beau-père de Laurent Schwartz, père de la théorie
des distributions ayant obtenu la médaille Fieds en 1950 et dont l’amphithéatre principal
du bâtiment 1R3 à l’UPS porte le nom.
L’espace de Hilbert considéré dans cette partie est L2 (0, 1) muni de la mesure de Lebesgue.
1.2. CONSTRUCTION DU MOUVEMENT BROWNIEN 19

On note pour toute fonction f de carré intégrable la norme kf k2 := < f, f >, où < ·, · >
désigne le produit scalaire
Z 1
< f, g >:= f (x) g(x) dx, f, g ∈ L2 (0, 1).
0

On se donne à présent une base hilbertienne (φn )n∈N de L2 (0, 1), i.e. une famille dense
satisfaisant < φn , φm >= 1{n=m} . Dans ce cas, toute fonction f ∈ L2 (0, 1) s’écrit comme
X
f = < f, φn > φn ,
n≥0

la convergence de la série ayant lieu dans L2 (0, 1). De plus, on a l’identité de Parseval:
X
< f, g > = < f, φn > < g, φn >, f, g ∈ L2 (0, 1).
n≥0

En particulier, si les fonctions f et g sont définies par f = 1[0,s] et g = 1[0,t] , où les
paramètres s, t ∈ [0, 1] sont fixés, alors l’identité de Parseval entraı̂ne la formule suivante:
XZ s Z t
min{s, t} = φn (x) dx φn (x) dx,
n≥0 0 0

qui n’est autre que la fonction de covariance d’un mouvement brownien. Ceci est très
intéressant. Ainsi, si l’on définit formellement le processus (Bt )t∈[0,1] par la série suivante
X Z t
Bt := Zn φn (x) dx,
n≥0 0

où (Zn )n∈N est une suite i.i.d. de variables aléatoires réelles suivant la loi N (0, 1), alors il
s’agit d’un processus centré dont la covariance se calcule comme suit:

Cov(Bs , Bt ) = E[Bs Bt ]
X Z s Z t
= E[Zn Zm ] φn (x) dx φn (x) dx
n,m≥0 0 0

XZ s Z t
= φn (x) dx φn (x) dx
n≥0 0 0

= min{s, t},

d’après ce qui précède. Ainsi, une fois que l’on aura démontré la convergence de la série
pour une base hilbertienne bien choisie, il nous restera à vérifier que le processus obtenu
est gaussien et à trajectoires continues. C’est ce à quoi nous allons nous atteler dans la
partie suivante.
20 CHAPITRE 1. LE MOUVEMENT BROWNIEN

1.2.2 Décomposition en ondelettes


Introduisons les ondelettes de Haar. Il s’agit de considérer une “ondelette mère” donnée
par
H(t) := 1[0,1/2) (t) − 1[1/2,1] (t), t ∈ [0, 1],
et de prendre la famille de ses dilatées translatées dyadiques comme suit: notons H0 :=
1[0,1] et
Hn (t) := 2j/2 H(2j t − k) = 2j/2 1[ k , k+1/2 ) (t) − 2j/2 1[ k+1/2 , k+1 ] (t),
2j 2j 2j 2j

où l’entier strictement positif n se décompose de manière unique comme n := 2j + k


avec j ∈ N et k{0, 1, . . . , 2j − 1}. Il n’est pas difficile de montrer que cette famille est
orthonormée dans L2 (0, 1), le 2j/2 n’étant présent que pour assurer une norme égale à 1.
Par ailleurs, comme la fonction indicatrice de tout intervalle dyadique [k2−j , (k + 1)2−j ]
appartient à l’espace vectoriel engendré par la famille (Hn )n∈N , et que toute fonction
continue sur [0, 1] peut être approchée uniformément par des combinaisons linéaires de
ces indicatrices d’intervalles dyadiques, on en déduit que l’espace vectoriel engendré par
la famille de fonctions Hn est dense dans l’espace des fonctions continues, et par suite
dans L2 (0, 1). Autrement dit, la famille (Hn )n∈N forme une base hilbertienne de l’espace
L2 (0, 1).

L’intérêt de cette base réside dans le fait que les intégrales des fonctions Hn , que
l’on va utiliser dans la décomposition en série du mouvement brownien vue ci-dessus,
forment aussi une base d’ondelettes. Plus précisément, posons λ0 = 1 et λn := 2−1−j/2
pour tout entier strictement positif n := 2j + k, et construisons la base d’ondelettes
triangulaires suivante: l’ondelette mère est définie par

∆(t) := 2t 1[0,1/2) + 2(1 − t) 1[1/2,1] ,

et la famille de ses dilatées translatées par ∆0 (t) := t et


   
j j+1 k j+1 k+1
∆n (t) := ∆(2 t − k) = 2 t − j 1[ k , k+1/2 ) (t) + 2 − t 1[ k+1/2 , k+1 ] (t).
2 2j 2j 2j 2j 2j

Alors on obtient l’identité


Z t
Hn (u) du = λn ∆n (t), t ∈ [0, 1].
0

On notera que pour tout n ∈ N, ∆n est à valeurs dans l’intervalle [0, 1]. À présent, nous
sommes enfin en mesure d’établir l’existence du mouvement brownien.

Théorème 1.2.1. Soit (Zn )n∈N une suite i.i.d. de variables aléatoires suivant la loi
N (0, 1) et définissons X
Bt = λn Zn ∆n (t), t ∈ [0, 1].
n∈N
1.2. CONSTRUCTION DU MOUVEMENT BROWNIEN 21

Alors les assertions suivantes sont vérifiées.


(i) p.s. la série converge uniformément sur [0, 1].
(ii) le processus (Bt )t∈[0,1] est un mouvement brownien.
Avant de démontrer le théorème, il nous faut démontrer le résultat suivant, qui
sera utilisé à plusieurs reprises dans la suite de ce chapitre.
Lemme 1.2.2. Soit (Zn )n∈N une suite i.i.d. de variables aléatoires réelles suivant la loi
N (0, 1). Alors p.s.,
|Zn |
C := sup p < ∞.
n≥2 log(n)
p
Démonstration. Soit α > 1 et n ≥ 2, de sorte que 2α log(n) > 1. On a facilement que
  r2 Z ∞ r
2 1
−u2 /2
p
P |Zn | ≥ 2α log(n) ≤ √ ue du = ,
π 2α log(n) π nα

qui est sommable. Ainsi, par le lemme de Borel-Cantelli, pour tout ω en dehors d’un
ensemble négligeable, il existe n0 = n0 (ω) ∈ N tel que pour tout n ≥ n0 , on ait
p
|Zn | < 2α log(n),
et donc que p.s., C < ∞.

Démonstration. [Théorème 1.2.1] Démontrons tout d’abord le point (i). Si l’on note
p
X
Btp := λl Zl ∆l (t), t ∈ [0, 1],
l=0

le point (i) revient à montrer que p.s., supt∈[0,1] |Bt − Btp | → 0 lorsque p → ∞. Tout
entier n strictement positif se décomposant de manière unique comme n = 2j + k, où
k ∈ {0, . . . , 2j − 1}, on a que log(n) < (j + 1) log(2), mais aussi que pour t ∈ [0, 1] et
j ∈ N fixés, ∆2j +k (t) = 0 sauf pour exactement une valeur de k ∈ {0, . . . , 2j − 1}, notée
kj,t . Ainsi, pour tout J ∈ N et tout M ≥ 2J , on a en utilisant le lemme 1.2.2,
X X p
λn |Zn |∆n (t) ≤ C λn log(n)∆n (t)
n≥M n≥M
−1 j
p X 2X p
≤ C log(2) 2−1−j/2 j + 1∆2j +k (t)
j≥J k=0
X p
= C̃ 2−j/2 j + 1∆2j +kj,t (t).
j≥J

Ainsi, comme ∆2j +kj,t ∈ (0, 1], on obtient au final que


X p X p
C̃ 2−j/2 j + 1∆2j +kj,t (t) ≤ C̃ 2−j/2 j + 1,
j≥J j≥J
22 CHAPITRE 1. LE MOUVEMENT BROWNIEN

qui tend vers 0 lorsque J → ∞. La démonstration de (i) est établie. En particulier, on


obtient que p.s. le processus limite (Bt )t∈[0,1] est à trajectoires continues.
Pour le point (ii), le processus limite étant centré et ayant pour fonction de covariance
K(s, t) = min{s, t}, s, t ∈ [0, 1], comme on l’a vu précédemment via l’identité de Parseval,
il ne reste qu’à démontrer qu’il s’agit d’un processus gaussien. Soit 0 < t1 < · · · < td ≤ 1
et considérons le vecteur X := (Bt1 , . . . , Btd ). Pour tout θ ∈ Rd , on a en utilisant le
caractère i.i.d. des variables Zn ,

φX (θ) := E [exp (i < θ, X >)]


" d
!#
Y X
= E exp iZn θl λn ∆n (tl )
n≥0 l=1
 !2 
d
1X X
= exp − θl λn ∆n (tl ) 
2 n≥0 l=1
d
!
1 X X Z tl Z tm
= exp − θl θm Hn (u)du Hn (u)du
2 l,m=1 n≥0 0 0

d
!
1 X
= exp − θl θm min{tl , tm } ,
2 l,m=1

d’après ce qui précède. Ainsi, X est bien un vecteur gaussien, ce qui achève la démonstration
du point (ii), et donc du théorème 1.2.1.
Enfin, notons pour conclure cette partie que l’on peut étendre aisément la définition
du mouvement brownien à tout R+ de la façon suivante. Si l’on considère une famille
(n)
indexée par n ∈ N de mouvements browniens indépendants (Bt )t∈[0,1] sur [0, 1], alors on
définit le processus (Bt )t≥0 par
n
X (k) (n+1)
Bt := B1 + Bt−n , t ∈ [n, n + 1),
k=1

qui vérifie les axiomes d’un mouvement brownien sur R+ .

1.3 Comportement des trajectoires browniennes


Dans le dernier paragraphe de ce chapitre, nous étudions quelques propriétés partic-
ulières des trajectoires browniennes t → Bt . Si I est un intervalle de R+ , notons qu’il
n’est pas clair que supt∈I Bt (resp. inf t∈I Bt ) soit mesurable car il s’agit d’un supremum
(resp. infimum) non dénombrable de fonctions mesurables. Cependant, les trajectoires
du mouvement brownien étant continues, on peut se restreindre aux valeurs rationnelles
de l’intervalle I et l’on obtient alors un supremum (resp. infimum) dénombrable. Nous
utiliserons fréquemment et quelquefois implicitement ce type de remarque dans la suite.
1.3. COMPORTEMENT DES TRAJECTOIRES BROWNIENNES 23

1.3.1 Propriétés principales


Avant de donner quelques propriétés classiques sur les trajectoires du mouvement brown-
ien, établissons un résultat intéressant en pratique, connu sous le nom de loi du tout ou
rien, ou encore loi du 0/1 de Blumenthal.

LemmeT1.3.1. Définissons pour tout t ≥ 0 la tribu Ft = σ(Bs : s ∈ [0, t]) et soit


F0+ = s>0 Fs . Alors la tribu F0+ est triviale au sens où P(A) ∈ {0, 1} pour tout
A ∈ F0+ .
Démonstration. Montrons que la tribu F0+ est indépendante de la tribu F∞ = σ(Bt :
t ≥ 0). Si c’est le cas, elle est indépendante d’elle-même car F0+ ⊂ F∞ , donc triviale.
Pour ce faire, nous allons utiliser l’indépendance et la stationnarité des accroissements
browniens. Soient h > 0, A ∈ F0+ , 0 < t1 < · · · < td et f : Rd → R une fonction continue
bornée. Les tribus Fh et σ(Bt+h − Bh : t ≥ 0) étant indépendantes, on a

E [1A f (Bt1 +h − Bh , . . . , Btd +h − Bh )] = P(A) E [f (Bt1 +h − Bh , . . . , Btd +h − Bh )]


= P(A) E [f (Bt1 , . . . , Btd )] ,

par stationnarité des accroissements. En faisant tendre h → 0, on obtient par convergence


dominée (en utilisant la continuité des trajectoires browniennes) l’identité suivante :

E [1A f (Bt1 , . . . , Btd )] = P(A) E [f (Bt1 , . . . , Btd )] ,

d’où le résultat.
La loi du 0/1 de Blumenthal est aussi une application immédiate de la continuité
à droite de la filtration naturelle (complétée) du mouvement brownien; voir à ce sujet le
chapitre 2.

Proposition 1.3.2. Soit (Bt )t≥0 un mouvement brownien sur R+ . Les propriétés suiv-
antes sont vérifiées:
(i) p.s. pour tout ε > 0, supt∈[0,ε] Bt > 0 et inf t∈[0,ε] Bt < 0.
(ii) p.s. pour tout ε > 0, le mouvement brownien a un zéro sur l’intervalle ]0, ε[.
(iii) étant donné x ∈ R∗ , notons Tx le premier temps de passage en x, i.e.
Tx := inf{t ≥ 0 : Bt = x} (avec inf ∅ = ∞ par convention). Alors on a pour tout x ∈ R∗ ,
P(Tx < +∞) = 1.
(iv) on a p.s. lim supt→∞ Bt = +∞ et lim inf t→∞ Bt = −∞.
(v) on a p.s. limt→+∞ Bt /t = 0.
Démonstration. On va démontrer certains points de cette proposition en utilisant les
invariances du mouvement brownien vues dans la proposition 1.1.13. Établissons tout
d’abord les points (i) et (ii). Soit (εn )n∈N une suite de réels strictement positifs décroissant
vers 0 et soit A l’événement défini par l’intersection décroissante (pour l’inclusion)
\
A := { sup Bt > 0}.
n∈N t∈[0,εn ]
24 CHAPITRE 1. LE MOUVEMENT BROWNIEN

Par convergence monotone, on a que


1
P(A) = lim P( sup Bt > 0) ≥ lim P(Bεn > 0) = .
n→∞ t∈[0,εn ] n→∞ 2
Or, l’événement {supt∈[0,εn ] Bt > 0} étant Fεn -mesurable, on en déduit que A est F0+ -
mesurable et par la loi du 0/1, on a que P(A) = 1, c’est-à-dire que
P( sup Bt > 0 ∀ε > 0) = 1.
t∈[0,ε]

Pour établir l’assertion avec l’infimum, il suffit de remarquer que (−Bt )t≥0 est aussi un
mouvement brownien. Le point (i) est donc démontré. Quant au point (ii), il ne s’agit que
d’une conséquence immédiate de (i) en utilisant le théorème des valeurs intermédiaires,
le mouvement brownien étant un processus à trajectoires continues.
À présent, démontrons les points (iii) et (iv). Par la propriété d’autosimilarité, on a pour
tout x > 0 et tout t > 0:
P(Tx ≤ t) = P( sup Bs ≥ x)
s∈[0,t]

= P( sup Bst ≥ x)
s∈[0,1]
x
= P( sup Bs(t) ≥ √ )
s∈[0,1] t
x
= P( sup Bs ≥ √ ),
s∈[0,1] t
et par convergence monotone lorsque t → ∞, on obtient d’après ce qui précède que
P(Tx < ∞) = 1. Par symétrie du mouvement brownien, on en déduit que P(Tx < +∞) =
1 pour tout x < 0. Enfin, étant donné que le mouvement brownien est une fonction
continue de R+ dans R, il ne peut visiter tous les réels que si, p.s., lim supt→∞ Bt = +∞
et lim inf t→∞ Bt = −∞.
Finissons par le point (v). Par la propriété de retournement du temps, le processus
B̃t := tB1/t est un mouvement brownien sur R+ donc le comportement de B̃t /t est le
même que celui de B1/t , qui tend vers 0 lorsque t → +∞ par continuité.
Terminons ce paragraphe en démontrant un résultat très important à propos de la
non-dérivabilité des trajectoires browniennes.
Théorème 1.3.3. On a p.s.: les trajectoires browniennes ne sont pas dérivables.
Démonstration. Le mouvement brownien étant invariant par translation, il suffit de
démontrer la non-dérivabilité en 0, c’est-à-dire montrer que la quantité
Bt − B0 Bt
=
t−0 t
n’admet pas de limite lorsque t → 0. Or, par la propriété de retournement du temps,
(B̃t )t≥0 est aussi un mouvement brownien sur R+ . Ainsi, B̃t /t a le même comportement
que B1/t , qui n’admet pas de limite lorsque t → 0 d’après le point (iv) de la proposi-
tion 1.3.2.
1.3. COMPORTEMENT DES TRAJECTOIRES BROWNIENNES 25

1.3.2 Hölder continuité


Comme nous l’avons vu précédemment, le mouvement brownien admet le dévelopement
en ondelettes X
Bt = λn Zn ∆n (t), t ∈ [0, 1].
n∈N

Ceci va nous permettre de démontrer une propriété de Hölder continuité des trajectoires
browniennes, dont on rappelle la définition.
Définition 1.3.4. Une fonction f : [0, 1] → R est dite Hölder continue d’exposant α ∈
(0, 1) (ou encore α-höldérienne) s’il existe une constante c > 0 telle que

|f (s) − f (t)| ≤ c |s − t|α , 0 < s < t < 1.

Remarque 1.3.5. Notons que cette propriété entraı̂ne l’uniforme continuité. Pour α = 1,
il s’agit des fonctions lipschitziennes tandis que pour α = 0, seules les fonction bornées
telles que sup f −inf f ≤ 1 sont concernées. Enfin si α > 1 alors f est forcément constante.
Théorème 1.3.6. Pour tout α ∈ (0, 1/2), p.s. les trajectoires browniennes sont α-
höldériennes.
La démonstration de ce résultat sera immédiate
√ une fois le lemme suivant établi
(se servir du fait que lorsque α ∈ (0, 1/2), on a j + 1 × 2−j/2 ≤ 2−αj pour j assez grand).
Il s’agit d’un résultat d’analyse dont on donne la démonstration par soucis de complétude.
Lemme 1.3.7. Soit f : [0, 1] → R une fonction continue admettant le développement en
ondelettes suivant: X
f (t) = f (0) + cn ∆n (t),
n≥0

où la convergence de la série est supposée uniforme sur [0, 1]. S’il existe α ∈ (0, 1) tel
que pour j entier assez grand, on ait |c2j +k | ≤ 2−αj , où k ∈ {0, . . . , 2j − 1}, alors f est
α−höldérienne.
Démonstration. Supposons sans perte de généralité et pour simplifier que c0 = 0 et que
|c2j +k | ≤ 2−αj pour tout j ∈ N et tout k ∈ {0, . . . , 2j − 1} (le cas général est immédiat,
bien qu’un peu pénible à écrire). Alors pour tous s, t ∈ [0, 1],
−1 j
X 2X
f (t) − f (s) = c2j +k (∆2j +k (t) − ∆2j +k (s))
j≥0 k=0
X
=: Dj (s, t).
j≥0

Rappelons que pour u ∈ [0, 1] et j ∈ N fixés, on a que ∆2j +k (u) ∈ (0, 1] pour exactement
une valeur de k ∈ {0, . . . , 2j − 1}, notée kj,u . Ainsi, on a

Dj (s, t) = c2j +kj,t ∆2j +kj,t (t) − c2j +kj,s ∆2j +kj,s (s).
26 CHAPITRE 1. LE MOUVEMENT BROWNIEN

De cette équation on en déduit que

|Dj (s, t)| ≤ |c2j +kj,t | + |c2j +kj,s | ≤ 2 × 2−αj .

De plus, toutes les fonctions ∆2j +k étant triangulaires de pente ±2j+1 , on obtient que
pour tout k ∈ {kj,t , kj,s },

|∆2j +k (t) − ∆2j +k (s)| ≤ 2j+1 |t − s|.

Ainsi, après avoir différencié les cas kj,t = kj,s et kj,t 6= kj,s , il en résulte alors les bornes
supérieures suivantes:

2 × 2−αj ;

|Dj (s, t)| ≤
2 × 2−αj × 2j+1 |t − s|.

Enfin, pour tout J ∈ N,


J
X X
|f (t) − f (s)| ≤ 21−αj+j+1 |t − s| + 21−αj
j=0 j≥J+1
(1−α)(J+1)
2 − 1 21−α(J+1)
≤ 4 |t − s| +
21−α − 1 1 − 2−α

et en choisissant l’entier J tel que 2−(J+1) ≤ |t − s| ≤ 2−J , on obtient alors le résultat


désiré avec une constante c > 0 dépendant seulement de α.
À présent, démontrons que p.s. les trajectoires browniennes ne sont pas α−höldériennes
pour α > 1/2.

Théorème 1.3.8. Notons C(α, c, ε) l’ensemble des ω ∈ Ω tels qu’il existe s ∈ [0, 1] tel
que
|Bt (ω) − Bs (ω)| ≤ c |t − s|α , pour tout t tel que |t − s| ≤ ε.
Si α > 1/2 alors P(C(α, c, ε)) = 0 pour tout c > 0 et tout ε > 0.
Démonstration. Nous allons démontrer ce résultat en utilisant l’indépendance et la
stationnarité des accroissements browniens. Soit m ∈ N∗ fixé, que l’on choisira plus tard
de manière adéquate. Pour tout entier n ≥ m (qui aura vocation à tendre vers l’infini),
on définit la variable aléatoire
n o
Xn,k := max |B j+1 − B j | : j ∈ {k, . . . , k + m − 1} , k ∈ {0, . . . , n − m},
n n

représentant le maximum des m accroissements browniens pris entre les instants k/n et
(k + m)/n. Soit ω ∈ C(α, c, ε): il existe s ∈ [0, 1] tel que |Bt (ω) − Bs (ω)| ≤ c|t − s|α
pour tout t ∈ [0, 1] satisfaisant |t − s| ≤ ε. Prenons n assez grand de sorte que m/n ≤ ε.
Comme s ∈ [0, 1], il existe k ∈ {0, . . . , n − m} tel que s ∈ [k/n, (k + m)/n]. Ainsi, pour
1.3. COMPORTEMENT DES TRAJECTOIRES BROWNIENNES 27

tout j ∈ {k, . . . , k + m − 1}, la distance entre s et j/n ou (j + 1)/n est inférieure à m/n,
qui est inférieure à ε. D’où l’on obtient

|B j+1 (ω) − B j (ω)| ≤ |B j+1 (ω) − Bs (ω)| + |Bs (ω) − B j (ω)|


n n n n
j+1 j
≤ c| − s|α + c|s − |α
nm α n
≤ 2c .
n
Autrement dit, on a l’inclusion suivante: pour n assez grand,
n−m
[ n  m α o
C(α, c, ε) ⊂ Xn,k ≤ 2c .
k=0
n

D’où, en utilisant l’indépendance (respectivement la stationnarité) des accroissements


browniens à la deuxième (resp. troisième) ligne ci-dessous,
n−m
X   m α 
P(C(α, c, ε)) ≤ P Xn,k ≤ 2c
k=0
n
n−m
X k+m−1
Y   m α 
= P |B j+1 − B j | ≤ 2c
k=0 j=k
n n n
  m α m
= (n − m + 1) P |B 1 | ≤ 2c
n n

α 1/2−α m

= (n − m + 1) P |B1 | ≤ 2cm n .

Or, B1 suivant la loi N (0, 1), on a pour tout x assez petit que
2x
P (|B1 | ≤ x) ≤ √ ,

et l’on obtient alors en réinjectant dans l’inégalité précédente que
m
4cmα

P(C(α, c, ε)) ≤ √ n1+m(1/2−α) .

Enfin, comme α > 1/2 et m est un entier arbitraire, il suffit de prendre ce dernier tel que
m(α − 1/2) > 1 afin que le terme de droite ci-dessus tende vers 0 lorsque n → ∞. La
démonstration du théorème est achevée.
À présent, on se pose la question suivante: qu’en est-il du cas limite α = 1/2 ?
Pas d’inquiétude, cher lecteur, ce cas-là étant appréhendé avec une grande précision.
Théorème 1.3.9 (Module de continuité de Lévy). Définissons le module de continuité
du mouvement brownien par

m(ε) := sup |Bt − Bs |, ε assez petit.


|t−s|≤ε
28 CHAPITRE 1. LE MOUVEMENT BROWNIEN

Alors on a le résultat de convergence p.s. suivant:


m(ε)
lim sup p = 1.
ε→0 2ε log(1/ε)
Démonstration. Démontrer l’égalité revient bien évidemment à établir les inégalités
≤ et ≥, dont les deux démonstrations utilisent le lemme de Borel-Cantelli. Cependant,
nous n’allons démontrer que la partie ≥, l’autre inégalité étant plus technique et pouvant
par exemple être appréciée à sa juste valeur à travers la preuve du théorème 1.4.1 du
somptueux cours de Jacod [1]. p
Commençons par poser φ(ε) := 2ε log(1/ε) pour tout ε ∈ (0, 1) et définissons I(a) :=
R ∞ −x2 /2
a
e dx pour tout a > 0. On a
2 Z ∞
e−a /2
  
1 −x2 /2 1
= 1+ 2 e dx ≤ 1 + 2 I(a),
a a x a
ce qui entraı̂ne que
2
e−a /2
I(a) ≥ , a > 0. (1.3.1)
a + 1/a
À présent, soit δ ∈ (0, 1) et posons In := P (|B2−n | > δφ(2−n )) pour tout entier n ≥ 1. On
obtient alors de l’inégalité (1.3.1) que
r
2
In = I(2n/2 δφ(2−n ))
π
r
2 p
= I(δ 2n log(2))
π
2
e−nδ log(2)
≥ Kδ √ ,
n
où Kδ > 0 est une constante ne dépendant seulement que de δ. Ainsi, par l’indépendance
et la stationnarité des accroissements browniens,
 
−n
αn := P maxn |B kn − B k−1 n
| ≤ δφ(2 )
1≤k≤2 2 2

2n
= (1 − In )
≤ exp (−2n In )
2
!
Kδ en(1−δ ) log(2)
≤ exp − √ .
n
P
Comme δ ∈ (0, 1), la série n αn converge et par le lemme de Borel-Cantelli, pour tout ω
en dehors d’un ensemble négligeable Nδ , il existe n0 = n0 (ω) ∈ N tel que pour tout entier
n ≥ n0 , on ait
|B kn (ω) − B k−1 (ω)|
2n
maxn 2 > δ.
1≤k≤2 φ(2−n )
1.3. COMPORTEMENT DES TRAJECTOIRES BROWNIENNES 29

Il en résulte que p.s.,


m(ε) m(2−n )
lim sup ≥ lim sup −n )
> δ,
ε→0 φ(ε) n→∞ φ(2

et δ étant arbitrairement proche de 1, on obtient finalement l’inégalité désirée.


Enfin, terminons par deux résultats classiques. Le premier exhibe ce que l’on
appelle la variation quadratique du mouvement brownien, objet fondamental sur lequel
repose l’intégration stochastique, tandis que le second stipule que les trajectoires brown-
iennes ne sont pas à variation bornée.

Définition 1.3.10. La variation d’une fonction f : R+ → R sur un intervalle [0, T ] est


définie par X
Var(f, T ) := sup |f (ti ) − f (ti−1 )|,
i

où le supremum est pris sur l’ensemble des subdivisions (ti ) de [0, T ]. Elle est dite à
variation bornée sur l’intervalle [0, T ] si Var(f, T ) < ∞.

Par exemple, toute fonction lipschitzienne est à variation bornée, toute fonction
monotone également. En particulier, toute fonction à variation bornée:
- est différence de deux fonctions croissantes;
- a au plus une infinité dénombrable de points de discontinuité.
- est dérivable presque partout (au sens de la mesure de Lebesgue).
Mentionnons qu’à l’avenir les suites de subdivisions que nous considérerons seront
en général emboı̂tées bien que dans certains cas, comme ci-dessous, cela ne soit pas
nécessaire.

Proposition 1.3.11. Soit 0 = tn0 < tn1 < · · · < tnpn = t une suite de subdivisions emboı̂tées
de l’intervalle [0, t] de pas tendant vers 0, i.e. πn := sup1≤i≤pn tni − tni−1 → 0 lorsque
n → ∞. Alors, on a la convergence suivante dans L2 :
 !2 
pn
X
lim E  (Btni − Btni−1 )2 − t  = 0.
n→∞
i=1

De plus, la convergence est p.s. lorsque la subdivision est uniforme.


Démonstration. En notant ∆Bi,n := Btni − Btni−1 et ∆ti,n := tni − tni−1 , on remarque
que pour i ∈ {1, . . . , pn }, les accroissements Zi,n := (∆Bi,n )2 − ∆ti,n sont centrés et
indépendants, d’où
 !2 
pn pn
!
X X
E (∆Bi,n )2 − t  = Var Zi,n
i=1 i=1
pn
X
= Var (Zi,n )
i=1
30 CHAPITRE 1. LE MOUVEMENT BROWNIEN

pn
X
= 2 (∆ti,n )2
i=1
≤ 2tπn ,

quantité qui tend vers 0 lorsque n → ∞. Dans la dernière égalité ci-dessus, nous avons
utilisé le fait que si X est une variable aléatoire normale centrée et de variance σ 2 , alors
Var(X 2 ) = 2σ 4 .
À présent, supposons la subdivision de l’intervalle [0, t] uniforme, i.e. les ∆ti,n ne dépendent
pas de i. Par exemple, considérons les tni dep la forme tni := it/2n avec pn = 2n . Alors pour
i ∈ {1, . . . , 2n }, les accroissements Ui := 2n /t ∆Bi,n sont i.i.d. de loi normale centrée
réduite. On obtient alors par la loi forte des grands nombres que
2 n 2 n
X
2 t X 2
(∆Bi,n ) = n U
i=1
2 i=1 i

tend p.s. vers t lorsque n → +∞.

Corollaire 1.3.12. On a le résultat suivant: p.s., les trajectoires du mouvement brownien


ne sont pas à variation bornée.
Démonstration. La preuve se fait par l’absurde. Fixons-nous un intervalle [0, t], sur
lequel p.s. les trajectoires browniennes sont à variation bornée. Ainsi, en reprenant les
notations ci-dessus avec la subdivision uniforme sur [0, t] et le module de continuité de
Lévy, on a
n
X n
X
2
(∆Bi,n ) ≤ m(πn ) |∆Bi,n |
i=1 i=1
≤ m(πn ) Var(B, t),

qui tend vers 0 lorsque n → +∞, le module de continuité de Lévy étant une fonction
continue par continuité uniforme du mouvement brownien sur l’intervalle compact [0, t].
Il y a donc contradiction.
1.4. PROPRIÉTÉ DE MARKOV FORTE ET PRINCIPE DE RÉFLEXION 31

1.4 Propriété de Markov forte et principe de réflexion


(Devoir maison)
On considère B un mouvement brownien sur R+ muni de sa filtration naturelle standard
(Ft )t≥0 (regarder le chapitre 2 pour la définition). On a vu que ce processus satisfait la
(s)
propriété de Markov simple, i.e. pour tout s ≥ 0, le processus B (s) donné par Bt :=
Bs+t − Bs est un mouvement brownien indépendant de Fs . On rappelle aussi que pour
tout a ∈ R∗ , le temps d’atteinte Ta de a est défini par

Ta := inf{t ≥ 0 : Bt = a},

et nous avons démontré qu’il est p.s. fini.


1 - Dans cette question, nous étendons la propriété de Markov simple à un temps d’arrêt
fini quelconque: c’est la propriété de Markov forte. Ainsi, si τ est un temps d’arrêt p.s.
(τ )
fini, on veut montrer que le processus B (τ ) défini par Bt := Bτ +t −Bτ , est un mouvement
brownien indépendant de la tribu Fτ .
Soit d ∈ N∗ , 0 = t0 < t1 < · · · < td et f une fonction continue bornée sur Rd . Enfin, soit
A ∈ Fτ .
(a) Montrez que l’identité suivante est satisfaite:
h i
(τ ) (τ )
E 1A f (Bt1 , . . . , Btd )
X h (k 2−n ) (k 2−n )
i
= lim E 1A∩{(k−1) 2−n <τ ≤k 2−n } f (Bt1 , . . . , Btd ) ,
n→∞
k≥1

et déduisez-en que
h i
(τ ) (τ )
E 1A f (Bt1 , . . . , Btd ) = P (A) E [f (Bt1 , . . . , Btd )] .

(b) Concluez.
2 - À présent, nous allons démontrer le principe de réflexion du mouvement brownien, qui
énonce que le processus X donné par

Xt = Bt 1{t≤Ta } + (2a − Bt ) 1{t≥Ta } , t ≥ 0,

est un mouvement brownien.


(a) D’après vous, pourquoi parle-t-on de principe de réflexion ?
(b) En utilisant la propriété de Markov forte du mouvement brownien, montrez
que pour tout x ∈ R,

P (2a − Bt ≥ x; Ta ≤ t) = P (Bt ≥ x; Ta ≤ t) , t ≥ 0,

(c) Déduisez-en que Xt a même loi que Bt pour tout t ≥ 0.


(d) Pourquoi intuitivement le processus X est-il un mouvement brownien ?
32 CHAPITRE 1. LE MOUVEMENT BROWNIEN

3 - Le supremum du mouvement brownien est noté St := sups∈[0,t] Bs , où t > 0. Dans


cette dernière partie, nous donnons des informations sur St ainsi que sur le temps d’arrêt
Ta .
(a) Soient a ≥ 0 et x ≤ a. En utilisant le même type d’argument que dans la
question 2(b), montrez que

P (St ≥ a; Bt ≤ x) = P (Bt ≥ 2a − x) .

(b) Déduisez-en que St a même loi que |Bt |. Les processus S et |B| ont-ils la même
loi ?
(c) Montrez que la loi jointe du couple (St , Bt ) a pour densité

(2a − x)2
 
2(2a − x)
ft (a, x) = √ exp − 1[0,∞) (a) 1(−∞,a] (x).
2πt3 2t

(d) Calculez la densité de Ta .


Chapitre 2

Martingales

2.1 Rappels sur les martingales à temps discret


Commençons l’étude des martingales par le cas du temps discret, qui est plus aisée et
dont la généralisation au cas du temps continu n’est pas difficile.

2.1.1 Définition et premières propriétés


Définition 2.1.1. Une suite (Fn )n∈N de sous-tribus de A est appelée une filtration de
l’espace (Ω, A, P) si
F0 ⊂ F1 ⊂ · · · ⊂ Fn ⊂ · · · ⊂ A.
L’espace (Ω, A, (Fn )n∈N , P) est alors appelé un espace de probabilité filtré.

Remarque 2.1.2. La notion de tribu est liée à l’information dont nous disposons. Ainsi,
supposer cette suite de tribus croissante traduit simplement le fait que plus on avance
dans le temps, plus on a d’informations.

Définition 2.1.3. Considérons une suite de variables aléatoires réelles (Mn )n∈N . On
dit que (Mn )n∈N est adaptée à une filtration (Fn )n∈N si Mn est Fn -mesurable pour tout
n ∈ N.

Remarque 2.1.4. Notons que (Mn )n∈N est évidemment adaptée à sa filtration naturelle,
définie par Fn := σ(Mk : k ∈ {0, . . . , n}) pour tout n ∈ N.

Définition 2.1.5. Considérons une suite (Mn )n∈N adaptée à une filtration (Fn )n∈N , et
dont tous les éléments sont intégrables. On dit que la suite (Mn )n∈N est (pour (Fn )n∈N )
une
(i) martingale si E[Mn+1 | Fn ] = Mn pour tout n ∈ N.
(ii) surmartingale si E[Mn+1 | Fn ] ≤ Mn pour tout n ∈ N.
(iii) sous-martingale si E[Mn+1 | Fn ] ≥ Mn pour tout n ∈ N.

33
34 CHAPITRE 2. MARTINGALES

Remarque 2.1.6. Observons qu’une martingale est à la fois une surmartingale et une
sous-martingale. Par ailleurs, elle est forcément d’espérance constante, tandis que celle
d’une surmartingale décroı̂t et celle d’une sous-martingale croı̂t.

Donnons-nous quelques exemples bien sympathiques:


(i) Si (Xn )n∈N ∗ désigne une suite de P
variables aléatoires indépendantes et intégrables,
alors la suite (Sn )n∈N ∗ définie par Sn := ni=1 Xi est une martingale (resp. surmartin-
gale, sous-martingale) pour la filtration engendrée par la suite (Xn )n∈N ∗ lorsque pour tout
n ∈ N∗ , on a E[Xn ] = 0 (resp. E[Xn ] ≤ 0, E[Xn ] ≥ 0).
(ii) Même conclusion pour la suite Mn := Sn2 − nσ 2 , sous réserve que les Xi ont
même variance σ 2 .
(iii) Si (Xn )n∈N ∗ désigne une suite de variables aléatoires
Qn indépendantes, intégrables
et d’espérance commune égale à 1, alors la suite Mn := i=1 Xi est une martingale par
rapport à la filtration naturelle de (Xn )n∈N ∗ .
(iv) Si (Mn )n∈N ∗ est une suite de variables aléatoires intégrables, centrées, et à ac-
croissements indépendants, alors c’est une martingale par rapport à sa filtration naturelle.
(v) Si (Fn )n∈N est une filtration quelconque et X une variable aléatoire intégrable,
alors Mn := E[X | Fn ] est une martingale pour (Fn )n∈N .

Proposition 2.1.7. Soit (Mn )n∈N une suite adaptée à une filtration (Fn )n∈N , et telle que
tous ses éléments soient intégrables. Alors c’est une martingale si et seulement si pour
tout n, p ∈ N,
E[Mn+p | Fn ] = Mn .
Démonstration. La condition suffisante est triviale (prendre p = 1). Pour la condition
nécessaire, notons que l’on a pour p ∈ N∗ ,
" p #
X
E[Mn+p | Fn ] = E (Mn+i − Mn+i−1 ) + Mn | Fn
i=1
p
X
= E [E [Mn+i − Mn+i−1 | Fn+i−1 ] | Fn ] + Mn
i=1
= Mn ,

car (Fn )n∈N étant une filtration, on a Fn ⊂ Fn+i−1 pour tout i ∈ {1, . . . , p}.
Dans la suite, nous supposerons l’espace de probabilité filtré par une filtration
générique (Fn )n∈N .

Proposition 2.1.8. Soit (Mn )n∈N une sous-martingale et soit f : R → R une fonc-
tion convexe croissante. On suppose que f (Mn ) ∈ L1 pour tout n ∈ N. Alors la suite
(f (Mn ))n∈N est elle-même une sous-martingale. Si (Mn )n∈N est une martingale, alors il
suffit que f soit convexe.
Démonstration. Immédiate en utilisant l’inégalité de Jensen pour l’espérance condition-
nelle.
2.1. RAPPELS SUR LES MARTINGALES À TEMPS DISCRET 35

Remarque 2.1.9. Par exemple, si (Mn )n∈N est une martingale alors (|Mn |p )n∈N (avec
p ≥ 1 et sous réserve que chaque Mn est dans Lp ) et (Mn+ )n∈N sont des sous-martingales.

À présent, introduisons la notion de transformation prévisible d’une martingale.

Définition 2.1.10. Soit (Mn )n∈N une martingale et soit (An )n∈N ∗ une suite de variables
aléatoires réelles prévisibles, i.e. An ∈ Fn−1 pour tout n ∈ N∗ . Alors la transformation
prévisible de la martingale (Mn )n∈N par la suite (An )n∈N ∗ est définie par la suite donnée
par Mf0 = M0 et
X n
Mn := M0 +
f Ai (Mi − Mi−1 ), n ∈ N∗ .
i=1

La transformation prévisible permet de construire une nouvelle martingale à partir


d’une martingale originelle, sous certaines conditions sur la suite prévisible. Il s’agit d’une
version discrète de l’intégrale stochastique.

Théorème 2.1.11. Si les variables aléatoires réelles An sont bornées en plus d’être
prévisibles, alors la transformation prévisible (M
fn )n∈N de la martingale (Mn )n∈N par
(An )n∈N ∗ est encore une martingale.
Démonstration. Tout d’abord, remarquons que la suite (M fn )n∈N est clairement adaptée
par rapport à la filtration (Fn )n∈N , et que la bornitude des An assure simplement que les
éléments Mfn sont bien intégrables pour tout n ∈ N. Étant donné un entier n, on a par la
prévisibilité de An+1 ,
h i
E M fn+1 − M
fn |Fn = E [An+1 (Mn+1 − Mn )|Fn ]
= An+1 E [Mn+1 − Mn |Fn ]
= 0,

car (Mn )n∈N est une martingale.

2.1.2 Théorème d’arrêt


Introduisons à présent la notion de temps d’arrêt.

Définition 2.1.12. Une variable aléatoire entière τ , pouvant prendre la valeur +∞, est
un temps d’arrêt pour la filtration (Fn )n∈N si

{τ ≤ n} ∈ Fn , n ∈ N.

Notons que dans cette définition on peut remplacer l’événement {τ ≤ n} par {τ = n}, ce
qui ne sera plus le cas lorsque le temps sera continu. Pour illuster cette notion de temps
d’arrêt, prenons l’exemple d’un joueur rentrant avec une somme S0 dans un casino. On
note Sn sa fortune à l’instant n. Ce joueur décide de jouer tant qu’il a encore de l’argent
36 CHAPITRE 2. MARTINGALES

dans son portefeuille (on suppose le casino ouvert 24h sur 24). Cela signifie qu’il joue
jusqu’à l’instant
τ := inf{n ∈ N : Sn = 0},
qui est un temps d’arrêt pour la filtration naturelle de la suite (Sn )n∈N .

Définition 2.1.13. Étant donné un temps d’arrêt τ , on définit Fτ la tribu des événements
antérieurs à τ par

Fτ := {A ∈ A : A ∩ {τ = n} ∈ Fn ∀n ∈ N} .

Dans beaucoup de circonstances, ce qui nous intéresse est le comportement d’une


suite de variables aléatoires, disons (Xn )n∈N , évaluée au temps d’arrêt τ . S’il est supposé
fini p.s., alors on peut définir la variable aléatoire Xτ , qui est Fτ -mesurable, comme
X
Xτ := 1{τ =n} Xn .
n∈N

Lorsque que le temps d’arrêt est infini, nous pouvons toujours le tronquer en considérant
plutôt pour un entier n donné le temps d’arrêt n ∧ τ , qui est fini et même borné. Dans
ce cas, la variable aléatoire Xn∧τ est bien définie.

Théorème 2.1.14 (Théorème d’arrêt). Soit (Mn )n∈N une martingale et soit τ un temps
d’arrêt. Alors la suite arrêtée (Mn∧τ )n∈N est aussi une martingale.
De plus, si τ1 ≤ τ2 sont deux temps d’arrêt supposés bornés, alors on a

E [Mτ2 | Fτ1 ] = Mτ1 et E[Mτ1 ] = E[Mτ2 ] = E[M0 ].


Démonstration. Quitte à remplacer (Mn )n∈N par la martingale (Mn −M0 )n∈N , supposons
sans perte de généralité que M0 = 0, ce que l’on fera (presque) systématiquement dans
la suite de ce cours. La variable τ étant un temps d’arrêt, les variables aléatoires définies
pour tout n ∈ N∗ par An := 1{τ ≥n} forment une famille prévisible par rapport à la filtration
(Fn )n∈N . De plus, on a
n
X n∧τ
X
Ai (Mi − Mi−1 ) = (Mi − Mi−1 ) = Mn∧τ ,
i=1 i=1

ce qui entraı̂ne que la suite (Mn∧τ )n∈N est la transformation prévisible de la martingale
(Mn )n∈N par rapport à (An )n∈N ∗ . Ainsi, le théorème 2.1.11 nous permet de conclure quant
à la première affirmation. Le lecteur averti aura noté que cette propriété de martingale
peut être démontrée directement, bien évidemment.
Démontrons maintenant les deux égalités. Supposons τ2 borné par une constant positive
κ. Comme (Mn∧τ2 )n∈N est une martingale, on a pour n ≥ κ que

E [Mτ2 | Fτ1 ] = E [Mn∧τ2 | Fτ1 ]


2.2. INÉGALITÉS MAXIMALES ET THÉORÈMES DE CONVERGENCE 37
X
= E [Mn∧τ2 | Fp ] 1{τ1 =p}
p∈N
X
= Mp∧τ2 1{τ1 =p}
p∈N
X
= Mp 1{τ1 =p}
p∈N
= Mτ1 ,

où la seconde égalité se démontre en revenant à la définition de l’espérance conditionnelle.


Enfin, si τ désigne τ1 ou τ2 , comme p.s. Mn∧τ −→ Mτ et que
n→+∞

n∧τ
X
|Mn∧τ | ≤ |Mi − Mi−1 |
i=1

≤ (|Mi | + |Mi−1 |),
i=1

qui est intégrable (car les Mi le sont) et indépendant de n, le théorème de convergence


dominée entraı̂ne que
E[Mτ ] = lim E[Mn∧τ ] = 0.
n→+∞

2.2 Inégalités maximales et théorèmes de convergence


2.2.1 Inégalités maximales de Doob
Lorsque l’on étudie un processus aléatoire, une question importante en pratique est de
savoir contrôler son évolution. En particulier, il s’avère que pour les sous-martingales
positives, nous pouvons obtenir des inégalités sur son processus supremum, à savoir

Mn∗ := sup Mk , n ∈ N.
0≤k≤n

On les appelle inégalités maximales (de Doob). Dans cette partie, nous établissons
deux inégalités maximales pour les sous-martingales positives qui nous serviront comme
ingrédient de base dans le développement du calcul stochastique. En particulier, une fois
que tous les résultats ci-dessous seront démontrés, ils seront immédiatement valables pour
des martingales, en remplaçant Mn∗ par sup0≤k≤n |Mk |.

Théorème 2.2.1. Soit (Mn )n∈N une sous-martingale positive. Alors pour tout n ∈ N,

λ P(Mn∗ ≥ λ) ≤ E[Mn 1{Mn∗ ≥λ} ] ≤ E[Mn ], λ > 0.


38 CHAPITRE 2. MARTINGALES

Par ailleurs, si (Mn )n∈N a tous ses éléments dans Lp , où p ≥ 1, alors pour tout n ∈ N,
E[|Mn |p ]
P(Mn∗ ≥ λ) ≤ , λ > 0.
λp
Démonstration. Établissons tout d’abord la première inégalité. Notons que pour une
sous-martingale, on a

Mk ≤ E[Mn | Fk ], k ≤ n, n, k ∈ N,

ce qui entraı̂ne que pour tout A ∈ Fk , en multipliant par 1A et en prenant l’espérance,

E[Mk 1A ] ≤ E[Mn 1A ].

Par ailleurs, on peut écrire l’identité suivante: pour tout λ > 0,

P(Mn∗ ≥ λ) = P(τλ ≤ n), n ∈ N,

où τλ est le temps d’arrêt τλ := inf{n ∈ N : Mn ≥ λ}. Ainsi, étant donné que sur
{τλ ≤ n}, on a Mτλ ≥ λ, on obtient en passant à l’espérance et en utilisant l’inégalité
précédente que

λ P(τλ ≤ n) ≤ E[Mτλ 1{τλ ≤n} ]


Xn
= E[Mk 1{τλ =k} ]
k=0
Xn
≤ E[Mn 1{τλ =k} ] car {τλ = k} ∈ Fk
k=0
= E[Mn 1{τλ ≤n} ],

ce qui conclut la démonstration de la première inégalité.


Pour la seconde inégalité, on notera que si (Mn )n∈N est une martingale ou une sous-
martingale positive et telle que Mn ∈ Lp pour tout n ∈ N, alors (|Mn |p )n∈N est une
sous-martingale positive et l’inégalité précédente s’applique, ce qui termine la preuve.
À présent, donnons une seconde inégalité maximale, comparant l’espérance du
processus supremum avec celle du processus originel.
Théorème 2.2.2 (Doob Lp ). Soit p > 1. Supposons que (Mn )n∈N soit une sous-martingale
positive telle que Mn ∈ Lp pour tout n ∈ N. Alors pour tout n ∈ N, Mn∗ ∈ Lp et
 p
∗ p p
E[(Mn ) ] ≤ E[Mnp ].
p−1
Démonstration. Tout d’abord, le fait que Mn∗ ∈ Lp est une conséquence des inégalités
n
!p n
X X
∗ p
(Mn ) ≤ Mk ≤ (n + 1) p−1
Mkp .
k=0 k=0
2.2. INÉGALITÉS MAXIMALES ET THÉORÈMES DE CONVERGENCE 39

En se ramenant à la première inégalité maximale du théorème 2.2.1, il vient


Z ∞
∗ p
E[(Mn ) ] = p xp−1 P(Mn∗ ≥ x) dx
Z0 ∞
≤ p xp−2 E[Mn 1{Mn∗ ≥x} ] dx
0
Z Mn∗
= p E[Mn xp−2 dx]
0
p
= E[Mn (Mn∗ )p−1 ]
p−1
p
≤ E[Mnp ]1/p E[(Mn∗ )p ](p−1)/p ,
p−1
où dans la dernière inégalité nous avons utilisé l’inégalité de Hölder avec les exposants p
et q = p/(p − 1). Enfin, on regroupe les termes comme il faut dans l’inégalité ci-dessus et
ceci achève la démonstration.

2.2.2 Convergence des martingales


Dans ce paragraphe, nous nous attaquons à la convergence des martingales, sous diverses
hypothèses d’intégrabilité. Pour la théorie du calcul stochastique que l’on va voir dans
les prochains chapitres, un théorème important concerne les martingales bornées dans
L2 . Énonçons ce premier résultat, dont la preuve repose essentiellement sur une inégalité
maximale de Doob.
Théorème 2.2.3. Soit (Mn )n∈N une martingale bornée dans L2 , i.e.

sup E Mn2 < +∞.


 
n∈N

Alors la suite (Mn )n∈N converge p.s. et dans L2 vers une variable aléatoire M∞ ∈ L2 .
Démonstration. Pour toute paire arbitraire de rationnels a < b, notons l’ensemble
 
Aa,b := ω ∈ Ω : lim inf Mn (ω) ≤ a < b ≤ lim sup Mn (ω) .
n→+∞ n→+∞

Ainsi, la suite (Mn )n∈N va converger p.s. (éventuellement vers l’infini) à partir du moment
où l’on montre que P(∪a,b∈Q Aa,b ) = 0. Afin de faire le rapprochement avec les inégalités
maximales, observons que l’on a
 
b−a
Aa,b ⊂ ω ∈ Ω : sup |Mk (ω) − Mm (ω)| ≥ , m ∈ N.
k≥m 2
En effet, si ω ∈ Aa,b , alors pour tout m ∈ N,

b − a ≤ sup Mk (ω) − inf Mk (ω)


k≥m k≥m
40 CHAPITRE 2. MARTINGALES

= sup |Mk (ω) − Ml (ω)|


k,l≥m
≤ 2 sup |Mk (ω) − Mm (ω)|.
k≥m

Considérons à présent les accroissements définis par dk := Mk − Mk−1 , k ∈ N∗ . Comme la


suite (Mn )n∈N est de carré intégrable, on en déduit que les (dk )k∈N ∗ sont orthogonaux entre
eux (exercice). Comme précédemment nous pouvons supposer sans perte de généralité
que M0 = 0, et l’on obtient alors
 !2 
X n X n
2
E d2k ,
 
E[Mn ] = E  dk  =
k=1 k=1

qui est la somme partielle d’une série convergente par l’hypothèse de L2 -bornitude. Par
ailleurs, le processus (Mk+m − Mm )k∈N étant une martingale (pour la filtration translatée
(Fk+m )k∈N ), la suite (Mk0 )k∈N définie pour tout k ∈ N par Mk0 := (Mk+m − Mm )2 est une
sous-martingale positive et l’inégalité de Doob du théorème 2.2.1, combinée au lemme de
Fatou, s’applique de la manière suivante:
(b − a)2
   
b−a 0
P sup |Mk − Mm | ≥ = P sup Mk ≥
k≥m 2 k≥0 4
4
≤ lim inf E [Mk0 ]
(b − a)2 k→∞
4
= 2
sup E [Mk0 ]
(b − a) k≥0
k+m
4 X  
= sup E d2i
(b − a)2 k≥0 i=m
4 X  
= E d2i .
(b − a)2 i≥m

Enfin, le terme de droite tend vers 0 lorsque m → +∞, ce qui démontre que P(Aa,b ) = 0,
et donc que P(∪a,b∈Q Aa,b ) = 0.
Pour démontrer la seconde assertion, notons M∞ la limite p.s. de la martingale (Mn )n∈N .
Par le lemme de Fatou, on a
 2
≤ lim inf E Mn2 ≤ sup E Mn2 < +∞,
   
E M∞
n→+∞ n∈N

d’où M∞ est non seulement finie mais aussi dans L2 . Enfin, la convergence dans L2 est
immédiate d’après ce qui précède:
X
E (M∞ − Mn )2 = E[d2k ] −→ 0.
 
n→+∞
k≥n+1
2.2. INÉGALITÉS MAXIMALES ET THÉORÈMES DE CONVERGENCE 41

Remarque 2.2.4. Mentionnons que ce résultat reste valable lorsqu’on remplace L2 par
Lp pour tout p > 1.

Il s’avère que l’on peut obtenir une complète caractérisation de la convergence


des martingales dans l’espace L1 . Pour ce faire, introduisons tout d’abord le concept
d’intégrabilité uniforme.

Définition 2.2.5. Une famille de variables aléatoires réelles (Xi )i∈I est dite uniformément
intégrable si
 
lim sup E |Xi | 1{|Xi |>a} = 0.
a→+∞ i∈I

L’intérêt d’introduire cette notion est qu’elle va nous permettre d’obtenir la conver-
gence dans L1 à partir de la convergence p.s., lorsque le théorème de convergence dominée
ne s’applique pas.

Proposition 2.2.6. Si une suite (Xn )n∈N est uniformément intégrable et converge p.s.
vers une variable aléatoire X∞ , alors X∞ ∈ L1 et la convergence a aussi lieu dans L1 .
Démonstration. Notons pour tout a > 0 la quantité
 
ρ(a) := sup E |Xn | 1{|Xn |>a} .
n∈N

Tout d’abord par le lemme de Fatou,


   
E |X∞ | 1{|X∞ |>a} ≤ lim inf E |Xn | 1{|Xn |>a}
n→+∞
≤ ρ(a),

ce qui entraı̂ne que X∞ ∈ L1 et même E[|X∞ |] ≤ ρ(a) + a. Maintenant, on majore


|Xn − X∞ | de la manière suivante:

|Xn − X∞ | ≤ |Xn − X∞ | 1{|Xn |≤a} + |X∞ | 1{|Xn |>a} + |Xn | 1{|Xn |>a} .

Les deux premiers termes sont majorés respectivement par a + |X∞ | et |X∞ |, tous deux
dans L1 , donc le théorème de convergence dominée entraı̂ne que
     
E |Xn − X∞ | 1{|Xn |≤a} −→ 0 et E |X∞ | 1{|Xn |>a} −→ E |X∞ | 1{|X∞ |>a} ≤ ρ(a),
n→+∞ n→+∞

tandis que le troisième et dernier terme est majoré en espérance par ρ(a). Ainsi, on
obtient que
lim sup E [|Xn − X∞ |] ≤ 2ρ(a),
n→+∞

et nous concluons la preuve en observant que ρ(a) → 0 lorsque a → +∞.


42 CHAPITRE 2. MARTINGALES

La proposition suivante exhibe des critères intéressants en pratique pour établir la


propriété d’intégrabilité uniforme.

Proposition 2.2.7. Les assertions suivantes sont vérifiées.


(i) Si une famille de variables aléatoires réelles (Xi )i∈I est bornée par une variable
aléatoire intégrable, alors elle est uniformément intégrable.
(ii) S’il existe p > 1 tel que la famille de variables aléatoires (Xi )i∈I soit bornée
dans Lp , i.e.
sup E [|Xi |p ] < +∞,
i∈I

alors elle est uniformément intégrable.


(iii) Une famille de variables aléatoires réelles (Xi )i∈I est uniformément intégrable
si et seulement si elle est bornée dans L1 et équicontinue, i.e. pour tout ε > 0, il existe
η > 0 tel que
P(A) < η =⇒ sup E [|Xi | 1A ] < ε.
i∈I

Démonstration. Le point (i) est immédiat en utilisant le théorème de convergence


dominée, tandis que pour le point (ii), on utilise les inégalités de Hölder puis de Cheby-
shev.
Établissons le point (iii). On a pour tout A ∈ A et tout a > 0,

E[|Xi | 1A ] ≤ a P(A) + E[|Xi | 1{|Xi |>a} ].

Ainsi, en prenant A = Ω, ceci entraı̂ne par intégrabilité uniforme que supi∈I E[|Xi |] <
+∞. Montrons maintenant l’équicontinuité. Soit ε > 0. On choisit alors a de telle sorte
que supi∈I E[|Xi | 1{|Xi |>a} ] < ε/2. De l’inégalité ci-dessus, il s’ensuit
ε
sup E[|Xi | 1A ] ≤ a P(A) + .
i∈I 2

Enfin, le choix de η := ε/(2a) nous permet d’établir l’équicontinuité.


Réciproquement, posons M := supi∈I E [|Xi |] < +∞. Alors pour tout i ∈ I, l’inégalité
de Chebyshev nous dit que
M
sup P(|Xi | > a) ≤ ,
i∈I a
et par suite, le choix de a assez grand et l’équicontinuité achèvent la démonstration de
l’intégrabilité uniforme.

Remarque 2.2.8. En particulier, si une variable aléatoire réelle est intégrable, alors
on peut adapter la preuve précédente pour montrer, en utilisant le théorème de conver-
gence dominée, qu’elle est équicontinue. Ceci se généralise à une famille finie de variables
aléatoires.

À présent, nous sommes en mesure d’établir la caractérisation de la convergence


dans L1 des martingales.
2.2. INÉGALITÉS MAXIMALES ET THÉORÈMES DE CONVERGENCE 43

Théorème 2.2.9. Soit (Mn )n∈N une martingale. Alors les assertions suivantes sont
équivalentes:
(i) il existe une variable aléatoire Z ∈ L1 telle que

Mn = E[Z | Fn ], n ∈ N.

(ii) la suite (Mn )n∈N est uniformément intégrable.


(iii) la suite (Mn )n∈N converge p.s. et dans L1 vers une variable M∞ ∈ L1 .
Dans ce cas, on a Z = M∞ et la martingale (Mn )n∈N est dite fermée (par M∞ ).
Démonstration. (i) ⇒ (ii) : étant donné un entier n, considérons l’ensemble An :=
{|Mn | > a}. D’après les inégalités de Chebyshev puis de Jensen, on a

supn∈N E [|Mn |] E [|Z|]


sup P(An ) ≤ ≤ .
n∈N a a

Par ailleurs, An étant Fn -mesurable, l’inégalité de Jensen entraı̂ne aussi

E [|Mn | 1An ] ≤ E [|Z| 1An ] .

La variable aléatoire Z étant équicontinue car intégrable, pour tout ε > 0, il existe η > 0
tel que pour tout n ∈ N,
P(An ) < η =⇒ E [|Z| 1An ] < ε.
Il suffit enfin de choisir a assez grand de sorte que supn∈N P(An ) < η, et on aura alors
E [|Mn | 1An ] <  pour tout n ∈ N, autrement dit l’intégrabilité uniforme.
(ii) ⇒ (iii) : on admet la démonstration de la convergence p.s., qui n’est pas difficile
mais utilise un formalisme assez pénible à introduire. Il s’agit de considérer ce que l’on
appelle le “nombre de montées d’une martingale à travers un intervalle fixé”. Le lecteur
intéressé trouvera une preuve de ce résultat dans n’importe quel ouvrage traitant de la
convergence des martingales. Une fois la convergence p.s. établie, la convergence dans L1
est immédiate par la proposition 2.2.6.
(iii) ⇒ (i) : notons que pour tous n, p ∈ N et tout A ∈ Fn , la propriété de martingale et
l’inégalité de Cauchy-Schwarz entraı̂nent que

|E [(M∞ − Mn ) 1A ]| = |E [(M∞ − Mn+p ) 1A ]|


≤ E [|M∞ − Mn+p )|]
−→ 0.
p→+∞

Finalement, on obtient que E [(M∞ − Mn ) 1A ] = 0 pour tout A ∈ Fn , donc que Mn =


E[M∞ | Fn ].

Remarque 2.2.10. On en déduit par les théorèmes 2.2.3 et 2.2.9 que toute martingale
bornée dans un Lp , où p > 1, est fermée.
44 CHAPITRE 2. MARTINGALES

2.3 Martingales à temps continu


À présent, nous allons nous focaliser dans le reste de ce cours sur les processus en temps
continu. En particulier, nous allons généraliser au cadre des martingales à temps continu
toutes les définitions, propriétés et résultats vus dans la partie précédente. Dans la suite
tout processus (Xt )t≥0 sera noté X.

2.3.1 Définition et premières propriétés


Définition 2.3.1. Une famille (Ft )t≥0 de sous-tribus de A est une filtration de l’espace
(Ω, A, P) si
Fs ⊂ Ft , 0 ≤ s ≤ t.
L’espace (Ω, A, (Ft )t≥0 , P) est alors appelé un espace de probabilité filtré.
On note F∞ := σ(Ft : t ≥ 0). Si chaque tribu Ft contient les ensembles négligeables de
F∞ , la filtration est dite complète. Définissons la tribu
\
Ft+ := Ft+ε .
ε>0

Alors (Ft+ )t≥0 est une nouvelle filtration. On dit que la filtration (Ft )t≥0 est continue
à droite si Ft+ = Ft pour tout t ≥ 0. Enfin une filtration est dite standard si elle est
complète et continue à droite.
Remarque 2.3.2. On peut toujours se ramener au cas d’une filtration complète en rem-
plaçant Ft par F̄t := σ(Ft , N ), où N désigne la classe des ensembles négligeables de
F∞ . De plus, remarquons que la filtration (Ft+ )t≥0 est la plus petite filtration continue à
droite contenant (Ft )t≥0 . Enfin, si l’on considère la filtration naturelle d’un processus X
à trajectoires continues, i.e. pour tout t ≥ 0, Ft := σ(Xs : s ∈ [0, t]), il se peut qu’elle ne
soit pas continue à droite.
Soit B un mouvement brownien, Ft0 := σ(Bs : s ∈ [0, t]) et F∞ 0
:= σ(Bt : t ≥ 0).
0
Si N désigne la classe des ensembles négligeables de F∞ , on définit
Ft := σ(Ft0 , N ).
La filtration (Ft )t≥0 s’appelle la filtration standard du mouvement brownien, et comme
son nom l’indique, c’est une filtration standard car elle est continue à droite (résultat
admis): Ft+ = Ft pour tout t ≥ 0.
Définition 2.3.3. Un processus X est adapté à une filtration (Ft )t≥0 si Xt est Ft -
mesurable pour tout t ≥ 0.
Définition 2.3.4. Considérons un processus M adapté à une filtration (Ft )t≥0 , et dont
tous les éléments sont intégrables. On dit que M est, par rapport à (Ft )t≥0 , une
(i) martingale si E[Mt | Fs ] = Ms pour tout 0 ≤ s ≤ t.
(ii) surmartingale si E[Mt | Fs ] ≤ Ms pour tout 0 ≤ s ≤ t.
(iii) sous-martingale si E[Mt | Fs ] ≥ Ms pour tout 0 ≤ s ≤ t.
2.3. MARTINGALES À TEMPS CONTINU 45

Encore une fois, donnons-nous quelques exemples encore plus sympathiques que dans le
cadre discret. Pour cela, on considère un processus à accroissements indépendants X, i.e.
pour tout 0 ≤ s < t, la variable aléatoire Xt − Xs est indépendante de la tribu Fs , où
(Ft )t≥0 est sa filtration naturelle. Le lecteur attentif aura remarqué que cette définition est
légèrement différente de celle donnée pour le mouvement brownien au chapitre précédent,
dans la proposition 1.1.11. Il s’avère qu’en fait ces deux définitions coı̈ncident lorsque l’on
prend la filtration standard du mouvement brownien.
(i) Si le processus X est intégrable alors Mt := Xt − E[Xt ] est une martingale par
rapport à (Ft )t≥0 .
(ii) Si X est centré et de carré intégrable, alors même conclusion pour le processus
Mt := Xt2 − E[Xt2 ].
(iii) Si X est exponentiellement intégrable d’ordre θ > 0, alors même conclusion
(θ)  
pour le processus Mt := eθXt /E eθXt .
En particulier, on voit que le mouvement brownien est une martingale par rapport à sa
filtration standard.
Dans la suite de ce cours, on supposera l’espace de probabilité filtré par une filtra-
tion générique (Ft )t≥0 .
Proposition 2.3.5. Soit M une sous-martingale et soit f : R → R une fonction convexe
croissante. On suppose que f (Mt ) ∈ L1 pour tout t ≥ 0. Alors le processus (f (Mt ))t≥0
est elle-même une sous-martingale. Si M est une martingale, alors il suffit que f soit
convexe.

2.3.2 Théorème d’arrêt et inégalités maximales de Doob


Comme dans le cadre discret, introduisons à présent la notion de temps d’arrêt relative-
ment à une filtration.
Définition 2.3.6. Une variable aléatoire τ , pouvant prendre la valeur +∞, est un temps
d’arrêt pour la filtration (Ft )t≥0 si

{τ ≤ t} ∈ Ft , t ≥ 0.

Dans ce cas, on définit la tribu Fτ des événements antérieurs à τ par

Fτ := {A ∈ A : A ∩ {τ ≤ t} ∈ Ft ∀t ≥ 0} .

Notons que si τ n’était pas un temps d’arrêt, Fτ ne serait pas une tribu (Ω ∈ / Fτ ).
De plus, on remarque que la définition de Fτ est quelque peu différente du cas où le
temps est discret, où la notion de continuité à droite n’a pas de sens (comme on l’a vu
précédemment, on peut utiliser comme définition d’un temps d’arrêt que {τ = n} ∈ Fn
ou {τ ≤ n} ∈ Fn pour tout n ∈ N). Dans le cas continu, {τ = t} ∈ Ft pour tout t ≥ 0
n’implique pas que τ est un temps d’arrêt pour (Ft )t≥0 .
Voici maintenant une liste de propriétés classiques satisfaites par les temps d’arrêt,
dont les démonstrations sont laissées au lecteur passionné. En particulier, certains résultats
46 CHAPITRE 2. MARTINGALES

nous prouvent à quel point il est agréable de considérer une filtration standard plutôt
qu’une filtration quelconque.

Proposition 2.3.7. (i) Si τ (ω) = t pour tout ω ∈ Ω, alors τ est un temps d’arrêt et
Fτ = Ft (il n’y a donc pas d’ambiguı̈té de notation).
(ii) Le temps d’arrêt τ est Fτ -mesurable.
(iii) Si τ1 ≤ τ2 , alors Fτ1 ⊂ Fτ2 .
(iv) Les variables min{τ1 , τ2 } et max{τ1 , τ2 } sont des temps d’arrêt et Fmin{τ1 ,τ2 } =
F τ1 ∩ F τ2 .
(v) Les événements {τ1 < τ2 }, {τ1 ≤ τ2 } et {τ1 = τ2 } sont dans Fτ1 ∩ Fτ2 .
(vi) Si (τn )n∈N est une suite croissante de temps d’arrêt, alors τ := limn→∞ τn est
aussi un temps d’arrêt (éventuellement infini).
(vii) La variable τ est un temps d’arrêt pour la filtration (Ft+ )t≥0 si et seulement
si pour tout t ≥ 0, {τ < t} ∈ Ft .
(viii) Si (Ft )t≥0 n’est pas continue à droite, il existe des temps d’arrêt pour (Ft+ )t≥0
qui ne le sont pas pour (Ft )t≥0 .
(ix) Tout temps d’arrêt pour (Ft+ )t≥0 est limite d’une suite décroissante de temps
d’arrêt pour (Ft )t≥0 .
(x) Si (Ft )t≥0 est continue à droite, alors on peut remplacer {τ ≤ t} par {τ < t}
dans la définition de la tribu Fτ .
Soit X un processus adapté à la filtration (Ft )t≥0 . Étant donné un borélien A, on note le
temps d’entrée dans A par τA := inf{t ≥ 0 : Xt ∈ A}, où l’on convient que inf ∅ = ∞.
(xi) Si A est fermé et X à trajectoires continues, alors τA est un temps d’arrêt
pour (Ft )t≥0 .
(xii) Si A est ouvert et X à trajectoires continues, alors τA est un temps d’arrêt
pour (Ft+ )t≥0 .

À partir de maintenant, vu que l’on va sans cesse manipuler des temps d’arrêt, la
filtration (Ft )t≥0 sera supposée standard.

Théorème 2.3.8 (Théorème d’arrêt). Soit M une martingale continue et soit τ un temps
d’arrêt p.s. fini. Alors le processus arrêté M τ donné par Mtτ = Mt∧τ est aussi une
martingale.
De plus, si σ ≤ τ sont deux temps d’arrêt bornés, alors on a

E [Mτ | Fσ ] = Mσ et E[Mτ ] = E[Mσ ] = E[M0 ].

Remarque 2.3.9. Si l’on suppose que la martingale est uniformément intégrable, alors
on peut s’affranchir de l’hypothèse de bornitude sur les temps d’arrêt. Cette remarque
est évidemment valable pour le théorème d’arrêt en temps discret.
Démonstration. Les deux points que nous devons vérifier sont l’intégrabilité du processus
M τ ainsi que la propriété de martingale, i.e. pour tout 0 ≤ s ≤ t,

E [Mt∧τ | Fs ] = Ms∧τ .
2.3. MARTINGALES À TEMPS CONTINU 47

Pour ce faire, notons pour tout entier n ≥ 1 l’ensemble discret

Sn (s, t) := {s + (t − s)k/2n : k ∈ Z},

qui contient les éléments s et t, et désignons par τn le plus petit élément de Sn (s, t)
supérieur ou égal à τ , i.e.

τn = inf{u ∈ Sn (s, t) : u ≥ τ }.

On remarque que Sn (s, t) ⊂ Sn+1 (s, t) et que (τn )n≥1 est une suite de temps d’arrêt qui
tend p.s. vers τ en décroissant. Ainsi le processus (Mu )u∈Sn (s,t)+ (resp. (|Mu |)u∈Sn (s,t)+ )
est une martingale (resp. sous-martingale) à temps discret par rapport à la filtration
discrète (Fu )u∈Sn (s,t)+ , où Sn (s, t)+ désigne l’ensemble des éléments positifs ou nuls de
Sn (s, t). Ainsi, par le théorème d’arrêt 2.1.14, les temps d’arrêt t et t ∧ τn étant dans
Sn (s, t)+ et bornés, on a
E [Mt | Ft∧τn ] = Mt∧τn , (2.3.1)
et par l’inégalité de Jensen, on obtient

E [|Mt∧τn |] ≤ E [|Mt |] .

En faisant tendre n vers l’infini, le lemme de Fatou entraı̂ne l’intégrabilité du processus


M τ . Par ailleurs, comme s, t, τn ∈ Sn (s, t)+ , le théorème d’arrêt 2.1.14 nous dit que

E [Mt∧τn | Fs ] = Ms∧τn .

Il reste à faire tendre n proprement vers l’infini de chaque côté de l’égalité. Par continuité
de la martingale, le terme de droite tend p.s. vers Ms∧τ . De même, comme Mt∧τn tend p.s.
vers Mt∧τ , il nous suffit de montrer, par unicité de la limite, la convergence dans L1 pour
établir l’égalité désirée. En adaptant la preuve du début du théorème 2.2.9, l’égalité (2.3.1)
entraı̂ne l’uniforme intégrabilité de la suite (Mt∧τn )n≥1 . Ainsi, par la proposition 2.2.6, la
convergence dans L1 est démontrée, ce qui achève la démonstration de la première partie
du théorème.
À présent, si τ et σ sont deux temps d’arrêt bornés (disons par κ), alors adaptant le même
raisonnement que précédemment, il existe deux suites décroissantes de temps d’arrêt
(τn )n≥1 et (σn )n≥1 convergeant p.s. respectivement vers τ et σ, et telles que p.s., σn ≤
τn pour tout entier n ≥ 1 et τn ≤ κ + 1 pour n assez grand. Alors par le théorème
d’arrêt 2.1.14 appliqué à la restriction de la martingale à l’ensemble (discret) des valeurs
possibles pour un couple (σn , τn ),

E [Mτn | Fσn ] = Mσn .

Ceci entraı̂ne que pour tout A ∈ Fσ ⊂ Fσn ,

E [1A Mτn ] = E [1A Mσn ] . (2.3.2)


48 CHAPITRE 2. MARTINGALES

Par ailleurs, on a aussi pour n assez grand que

Mσn = E [Mκ+1 | Fσn ] et que Mτn = E [Mκ+1 | Fτn ] .

Ainsi, les suites (Mσn )n≥1 et (Mτn )n≥1 sont uniformément intégrables. Enfin, comme elles
convergent p.s. respectivement vers Mσ et Mτ , on en déduit par la proposition 2.2.6 la
convergence dans L1 , et donc on obtient en faisant tendre n → ∞ dans (2.3.2) l’égalité
désirée:
E [Mτ | Fσ ] = Mσ .

On vient de voir qu’il fallait travailler un peu afin d’établir le théorème d’arrêt
en temps continu. En revanche, l’adaptation des inégalités maximales de Doob au temps
continu est immédiate, comme on va le voir ci-dessous. Dans la suite, on note pour une
sous-martingale positive son processus supremum

MT∗ := sup Mt , T > 0.


t∈[0,T ]

En particulier, une fois que tous les résultats ci-dessous seront démontrés, ils seront
immédiatement valables pour des martingales, en remplaçant MT∗ par supt∈[0,T ] |Mt |.
Théorème 2.3.10 (Inégalités maximales de Doob). Soit M une sous-martingale positive
continue et ayant tous ses éléments dans Lp , où p ≥ 1. Alors pour tout T > 0 on a
l’inégalité suivante :
E [MTp ]
P (MT∗ > λ) ≤ , λ > 0,
λp
et si p > 1, on a aussi  p
p
∗ p
E [(MT ) ] ≤ E [MTp ] .
p−1
Démonstration. Étant donné T > 0, notons pour tout n ∈ N l’ensemble Sn [0, T ] :=
{kT /2n : k = 0, 1, . . . , 2n }. Alors par continuité du processus M , on a

MT∗ = lim sup Mt .


n→+∞ t∈S [0,T ]
n

Ainsi, en utilisant les deux inégalités maximales de Doob du théorème 2.2.1 pour la sous-
martingale positive à temps discret (Mt )t∈Sn [0,T ] puis le lemme de Fatou, on obtient pour
tout λ > 0, !
E [MTp ]
P (MT∗ > λ) ≤ lim inf P sup Mt > λ ≤ ,
n→+∞ t∈Sn [0,T ] λp
et aussi " #  p
p
E [(MT∗ )p ] ≤ lim inf E sup Mtp ≤ E [MTp ] .
n→+∞ t∈Sn [0,T ] p−1
2.3. MARTINGALES À TEMPS CONTINU 49

2.3.3 Convergence des martingales


Dans ce paragraphe, nous adaptons au cadre du temps continu les théorèmes de conver-
gence des martingales à temps discret.
Théorème 2.3.11. Soit M une martingale continue bornée dans Lp , i.e.

sup E[|Mt |p ] < +∞


t≥0

pour un p > 1. Alors elle converge p.s. et dans Lp vers une variable aléatoire M∞ ∈ Lp .
De plus, la martingale est fermée par M∞ , i.e. Mt = E[M∞ | Ft ], t ≥ 0.
Démonstration. Démontrons simplement le cas de la convergence Lp . Pour tout m ∈ N,
on a
kMt − M∞ kp ≤ kMt − Mm kp + kMm − M∞ kp , t ≥ 0.
Le processus (|Mt − Mm |p )t≥m étant une sous-martingale pour la filtration translatée
(Fm+t )t≥0 , on a pour tout entier n vérifiant n > t ≥ m que

kMt − Mm kp ≤ kMn − Mm kp ,

et donc il vient pour tout m ∈ N:

lim sup kMt − M∞ kp ≤ kMm − M∞ kp + sup kMn − Mm kp .


t→+∞ n≥m

Enfin, par la version Lp du théorème 2.2.3, la martingale discrète Mm converge vers M∞


dans Lp et on en déduit que les deux termes de droite tendent vers 0 lorsque m tend vers
l’infini.

Théorème 2.3.12. Soit M une martingale continue. Alors les assertions suivantes sont
équivalentes:
(i) M est fermée par une variable aléatoire Z ∈ L1 .
(ii) M est uniformément intégrable.
(iii) M converge p.s. et dans L1 vers une variable M∞ ∈ L1 .
Dans ce cas, on a Z = M∞ .
Démonstration. Les démonstrations de (i) ⇒ (ii) et (iii) ⇒ (i) sont les mêmes que celles
du théorème 2.2.9 pour les martingales à temps discret.
(ii) ⇒ (iii) : Une fois la convergence p.s. démontrée, la convergence dans L1 se déduit
de l’uniforme intégrabilité par la proposition 2.2.6, comme dans le cadre discret. Ainsi,
démontrons la convergence p.s. de la martingale. Tout d’abord, définissons la suite
croissante de temps d’arrêt

τn := inf{t ≥ 0 : |Mt | ≥ n}, n ∈ N,

et notons que par le théorème d’arrêt 2.3.8, le processus M τn est une martingale bornée
par n. Ainsi, par le théorème 2.3.11, elle converge p.s. lorsque t → ∞. Étant donné que
50 CHAPITRE 2. MARTINGALES

l’on a Mt = Mt∧τn lorsque τn = ∞, on en déduit que la martingale M converge p.s. sur


{τn = ∞}. À présent, on sait que l’uniforme intégrabilité entraı̂ne la bornitude dans L1
et donc par l’inégalité maximale de Doob du théorème 2.3.10, on a pour tout n ∈ N∗ ,

P(τn < ∞) = lim P(τn ≤ T )


T →∞
= lim P (MT∗ ≥ n)
T →∞
supT >0 E [|MT |]
≤ .
n
Ainsi, il en résulte que P(∩n∈N {τn < ∞}) = 0. Enfin, la martingale M convergeant p.s.
sur ∪n∈N {τn = ∞}, qui est donc un événement de probabilité 1, on en déduit qu’elle
converge p.s., ce qui achève la démonstration.
Chapitre 3

Semimartingales continues

Dans le chapitre précédent, nous avons vu le cas des martingales. Il s’avère que ces
processus font partie d’une classe plus générale de processus stochastiques, appelés semi-
martingales, pour lesquels nous serons en mesure dans le prochain chapitre d’établir une
théorie de l’intégration stochastique. Par définition, une semimartingale continue est la
somme d’une martingale locale et d’un processus à variation bornée, tous deux conti-
nus. Après avoir défini la notion de martingale locale, nous introduirons la variation
quadratique d’une semimartingale, qui jouera dans cette théorie de l’intégration un rôle
prépondérant.

3.1 Martingales locales


3.1.1 Définition et premières propriétés
Par soucis de concision, les martingales (locales) que nous considérerons dans la suite de
ce chapitre seront, sauf mention du contraire, toujours continues et issues de 0.

Définition 3.1.1. Un processus M adapté à la filtration (Ft )t≥0 est une martingale locale
s’il existe une suite croissante (τn )n∈N de temps d’arrêt tendant vers l’infini et telle que
pour tout n ∈ N, le processus arrêté M τn = (Mt∧τn )t≥0 est une martingale. On dit alors
que la suite (τn )n∈N réduit M ou est une suite localisante pour M .

Remarque 3.1.2. Au contraire des martingales classiques, nous n’imposons pas d’hypothèse
d’intégrabilité sur les martingales locales.

À présent, établissons quelques propriétés classiques des martingales locales, qui


sont bien utiles en pratique. Les démonstrations sont laissées en exercice.

Proposition 3.1.3. (i) Une martingale est une martingale locale (la suite τn = n est
localisante).
(ii) Si M est une martingale locale, alors pour tout temps d’arrêt τ , le processus
arrêté M τ est aussi une martingale locale (utiliser le théorème d’arrêt).

51
52 CHAPITRE 3. SEMIMARTINGALES CONTINUES

(iii) Si (τn )n∈N réduit une martingale locale et que (θn )n∈N est une suite de temps
d’arrêt tendant vers l’infini, alors la suite (τn ∧ θn )n∈N est aussi localisante.
(iv) L’espace des martingales locales est un espace vectoriel.
Dans la suite, nous donnons quelques propriétés supplémentaires des martingales
locales que l’on utilise fréquemment en pratique.
Proposition 3.1.4. Les propriétés suivantes sont satisfaites:
(i) Une martingale locale positive M telle que M0 ∈ L1 est une surmartingale.
(ii) Une martingale locale bornée ou telle qu’il existe Z ∈ L1 telle que pour tout
t ≥ 0, |Mt | ≤ Z, est une martingale (supposer que Mt ∈ L1 pour tout t ≥ 0 ne suffit pas;
en revanche la condition E[sups∈[0,t] |Ms |] < ∞ pour tout t ≥ 0 est suffisante, et bien utile
en pratique).
(iii) Si M est une martingale locale, alors la suite (τn )n∈N définie par
τn := inf{t ≥ 0 : |Mt | ≥ n} est localisante.
(iv) Si une martingale locale est à variation bornée, alors elle est p.s. identique-
ment nulle.
Démonstration. (i) : Soit (τn )n∈N une suite localisante et soient s ≤ t. On a pour tout
n ∈ N,

Ms∧τn = E [Mt∧τn | Fs ] .

Puisque la martingale locale est positive, on peut appliquer le lemme de Fatou pour les
espérances conditionnelles et on obtient

Ms ≥ E [Mt | Fs ] .

Enfin, en prenant s = 0 puis en passant à l’espérance, on voit que Mt ∈ L1 pour tout


t ≥ 0. Il s’agit donc bien d’une surmartingale.
(ii) : Même raisonnement que précédemment, en utilisant cette fois le théorème de con-
vergence dominée.
(iii) : C’est une conséquence immédiate de (ii).
(iv) : Ce cas est plus délicat. Supposons la martingale locale M à variation bornée. Alors
pour tout t ≥ 0, le processus variation (Var(M, t))t≥0 est fini et la suite de temps d’arrêt
(τn )n∈N définis par τn := inf{t ≥ 0 : Var(M, t) ≥ n} tend vers l’infini. Il en résulte
par l’item (ii) de la proposition 3.1.3 que pour tout n ∈ N, le processus arrêté M τn est
une martingale locale dont la variation (et donc le processus lui-même) est bornée par n.
Ainsi, c’est une vraie martingale.
Soit maintenant 0 = tk0 < tk1 < · · · < tkpk = t une suite de subdivisions emboı̂tées de
l’intervalle [0, t] de pas tendant vers 0 lorsque k → ∞. Alors par la propriété de martin-
gale,
pk h i
X
2
E Mt2k ∧τn − Mt2k
 
E Mt∧τ =
n i i−1 ∧τn
i=1
3.1. MARTINGALES LOCALES 53

pk h i h i
X
= E (Mtki ∧τn − Mtki−1 ∧τn )2 + 2 E Mtki−1 ∧τn (Mtki ∧τn − Mtki−1 ∧τn )
i=1
pk h i
X
= E (Mtki ∧τn − Mtki−1 ∧τn )2
i=1
" #
≤ nE sup |Mtki ∧τn − Mtki−1 ∧τn | ,
i∈{1,...,pk }

et cette dernière quantité tend vers 0 lorsque k → ∞ par (uniforme) continuité des
trajectoires du processus et en utilisant le théorème
 2 de convergence dominée (le processus
étant borné par n). On en conclut alors que E Mt∧τn = 0 et donc par le lemme de Fatou
quand n → ∞ que E [Mt2 ] = 0.

3.1.2 Variation quadratique


À présent, intéressons-nous à la notion de variation quadratique.

Théorème 3.1.5. Soit M une martingale locale. Alors il existe un unique processus
croissant continu et adapté, appelé la variation quadratique de M et noté ([M, M ]t )t≥0 ,
tel que M 2 − [M, M ] soit une martingale locale. De plus, si 0 = tk0 < tk1 < · · · < tkpk = t
est une suite de subdivisions emboı̂tées de l’intervalle [0, t] de pas tendant vers 0 lorsque
k → ∞, on a la convergence en probabilité suivante:
pk
X
[M, M ]t = lim (Mtki − Mtki−1 )2 .
k→∞
i=1

Par exemple, en utilisant la sémantique nouvellement introduite, on a vu au pre-


mier chapitre que la variation quadratique du mouvement brownien était [B, B]t = t pour
tout t ≥ 0. Notons aussi que la variation quadratique étant un processus croissant, elle
est à variation bornée.
Démonstration. Pour l’unicité, notons que si A et B sont deux processus satisfaisant les
conditions données, alors le processus différence donné par

At − Bt = (Mt2 − Bt ) − (Mt2 − At ),

doit être à la fois une martingale locale et à variation bornée, comme différence de deux
processus croissants. Ainsi, par la proposition 3.1.4, on a p.s. At = Bt pour tout t ≥ 0.
Pour l’existence, remarquons qu’il suffit de démontrer le résultat pour les martingales
bornées nulles en 0, quitte à réduire la martingale locale par τn := inf{t ≥ 0 : |Mt − M0 | ≥
n}, n ∈ N. En effet, supposons l’existence démontrée pour la martingale bornée M τn .
Grâce à la partie unicité, il existe un processus croissant continu et adapté [M, M ] tel que
[M τn , M τn ] = [M, M ]τn . De plus, le processus (M 2 )τn −[M, M ]τn étant une martingale par
54 CHAPITRE 3. SEMIMARTINGALES CONTINUES

construction (à venir), le processus M 2 − [M, M ] est précisément une martingale locale.
Pour la convergence, on a pour tout ε > 0,
pk pk
! !
X X
P |[M, M ]t − (Mtki − Mtki−1 )2 | > ε ≤ P |[M τn , M τn ]t − (Mtτkn − Mtτkn )2 | > ε
i i−1
i=1 i=1
+P (τn ≤ t) ,
et la première quantité tend vers 0 lorsque k → ∞, tandis que la seconde tend vers 0
quand n → ∞, la suite (τn )n∈N tendant p.s. vers l’infini.
Ainsi, supposons la martingale locale M bornée et notons K une borne supérieure. Soit
0 = t0 < t1 < t2 < · · · une suite strictement croissante tendant vers l’infini (une subdi-
vision de R+ ), que l’on va noter ∆. Pour t ≥ 0, il existe k ∈ N tel que tk ≤ t < tk+1 .
Notons alors le processus issu de 0:
k
X
Vt∆ (M ) := (Mti − Mti−1 )2 + (Mt − Mtk )2 ,
i=1

ou juste Vt∆ s’il n’y a pas d’ambiguı̈té sur la martingale, le terme supplémentaire en t
nous assurant de la continuité du processus adapté V ∆ . On va montrer que le processus
M 2 − V ∆ est une martingale (continue). Soit s ≤ t. Si tk ≤ s ≤ t < tk+1 , alors
Vt∆ − Vs∆ = (Mt − Mtk )2 − (Ms − Mtk )2
= Mt2 − Ms2 − 2Mtk (Mt − Ms ).
En particulier, M étant une martingale, on a
E Vt∆ − Vs∆ | Fs = E Mt2 | Fs − Ms2 .
   

Maintenant, si tk−1 ≤ s < tk , alors


E Vt∆ − Vs∆ | Fs = E (Mtk − Mtk−1 )2 | Fs + E (Mt − Mtk )2 | Fs
     

−E (Ms − Mtk−1 )2 | Fs
 

= E Mt2 | Fs − Ms2 .
 

Enfin, si s < tk−1 alors il existe n < k − 1 tel que tn ≤ s < tn+1 , et dans ce cas on a après
calculs que
k
X
E Vt∆ − Vs∆ | Fs = E (Mti − Mti−1 )2 | Fs + E (Mt − Mtk )2 | Fs
     
i=n+1

−E (Ms − Mtn )2 | Fs
 

= E Mt2 | Fs − Ms2 .
 

Ainsi, le processus M 2 − V ∆ est bien une martingale (continue), et de plus, on a pour


tous s ≤ t,
E Vt∆ − Vs∆ | Fs = E Mt2 − Ms2 | Fs = E (Mt − Ms )2 | Fs ,
     
(3.1.1)
3.1. MARTINGALES LOCALES 55

identité ne dépendant pas de ∆, et qui va nous servir dans la suite. Remarquons que le
processus V ∆ vérifie toutes les propriétés que doit satisfaire le crochet droit [M, M ], sauf
la croissance. En effet, comme on va le voir dans la suite, V ∆ est croissant le long de la
subdivision ∆ mais en aucun cas croissant sur R+ .
À présent, fixons t ≥ 0 et soit 0 = tk0 < tk1 < · · · < tkpk = t une suite de subdivi-
sions emboı̂tées de l’intervalle [0, t] de pas tendant vers 0 lorsque k → ∞, et telle que
∪k≥1 (tkn )n∈{0,...,pk } soit dense dans [0, t]. Comme précédemment, pour tout s ∈ [0, t], il
existe n ≤ pk tel que tkn ≤ s < tkn+1 . Notons alors
n
X
Vsk (M ) := (Mtki − Mtki−1 )2 + (Ms − Mtkn )2 ,
i=1

ou juste Vsk s’il n’y a pas d’ambiguı̈té sur la martingale. Pour montrer que
pk
X
Vtk = (Mtki − Mtki−1 )2
i=1

converge dans L2 , on va montrer que c’est une suite de Cauchy. Tout d’abord si k < l, le
processus (Vsl − Vsk )s∈[0,t] est une martingale (issue de 0) par ce qui précède, et en prenant
l’espérance dans (3.1.1) appliquée à V l − V k à la place de M ,
h i
l k 2
= E Vtl (V l − V k )
 
E Vt − Vt
≤ 2 E Vtl (V l ) + 2 E Vtl (V k ) ,
   

où l’on a utilisé l’inégalité (x + y)2 ≤ 2(x2 + y 2 ). Notons que l’on a simplement
pl
X
Vtl (V l ) = (Vtll − Vtll )2
i i−1
i=1
pl
X
= (Mtli − Mtli−1 )4
i=1
≤ Vtl (M ) sup |Mtli − Mtli−1 |2 ,
i∈{1,...,pl }

et donc par l’inégalité de Cauchy-Schwarz,


" #
2 h 2 i
E Vtl (V l ) ≤ E Vtl (M ) |Mtli − Mtli−1 |4 .

E sup
i∈{1,...,pl }

Ainsi, comme la martingale M est (uniformément) continue et bornée par K, le théorème


de convergence dominée entraı̂ne que le terme de droite tend vers 0 lorsque l → ∞, et
donc que Vtl (V l ) tend vers 0 dans L2 , sous réserve que la suite (Vtl (M ))l∈N ∗ soit bornée
dans L2 , ce que l’on va vérifier un peu plus tard.
56 CHAPITRE 3. SEMIMARTINGALES CONTINUES

Pour le terme Vtl (V k ), on va le traiter de la manière suivante. Considérons un point tli−1


et tkmi−1 le point le plus proche de tli−1 tel que tkmi−1 ≤ tli−1 < tli ≤ tkmi−1 +1 . Alors on a

Vtkl − Vtkl = (Mtli − Mtkm )2 − (Mtli−1 − Mtkm )2


i i−1 i−1 i−1

= (Mtli − Mtli−1 ) (Mtli − 2Mtkm + Mtli−1 ),


i−1

ce qui entraı̂ne alors que


pl
X
Vtl (V k ) = (Vtkl − Vtkl )2
i i−1
i=1
pl
X
= (Mtli − Mtli−1 )2 (Mtli − 2Mtkm + Mtli )2
i−1
i=1
≤ Vtl (M ) sup |Mtli − 2Mtkm + Mtli |2 .
i−1
i∈{1,...,pl }

En utilisant le même raisonnement que précédemment, on en déduit que Vtl (V k ) tend vers
0 dans L2 lorsque k, l → ∞, sous réserve encore une fois que la suite (Vtl )l∈N ∗ soit bornée
dans L2 , ce que l’on va démontrer à présent:
pl
!2
X
(Vtl )2 = (Mtli − Mtli−1 )2
i=1
pl
pl pl
X X X
2 2
= 2 (Mtli − Mtli−1 ) (Mtlj − Mtlj−1 ) + (Mtli − Mtli−1 )4
i=1 j=i+1 i=1
pl pl pl
X X X
= 2 (Vtll − Vtll ) (Vtll − Vtll ) + (Mtli − Mtli−1 )4
i i−1 j j−1
i=1 j=i+1 i=1
pl pl
X X
= 2 (Vtll − Vtll ) (Vtllp − Vtll ) + (Mtli − Mtli−1 )4
i i−1 l i
i=1 i=1
pl pl
X X
= 2 (Vtll − Vtll ) (Vtl − Vtll ) + (Mtli − Mtli−1 )4 .
i i−1 i
i=1 i=1

Ainsi, en utilisant (3.1.1) avec s = tli , on obtient en passant à l’espérance que


pl h h pl
ii X h i
 l 2 X
l l l l 4
E (Vt ) = 2 E (Vtl − Vtl ) E Vt − Vtl | Ftli + E (Mtli − Mtli−1 )
i i−1 i
i=1 i=1
pl pl
X h h ii X h i
l l 2
= 2 E (Vtl − Vtl ) E (Mt − Mtli ) | Ftli + E (Mtli − Mtli−1 )4
i i−1
i=1 i=1
pl pl
X h i X h i
l l 2
= 2 E (Vtl − Vtl ) (Mt − Mtli ) + E (Mtli − Mtli−1 )4
i i−1
i=1 i=1
3.1. MARTINGALES LOCALES 57
" !#
≤ E Vtl 2 sup 2
|Mt − Mtli | + sup 2
|Mtli − Mtli−1 |
i∈{1,...,pl } i∈{1,...,pl }

≤ 12 K 2 E Vtl
 

= 12 K 2 E Mt2
 

≤ 12 K 4 ,

où dans l’avant-dernière ligne on a utilisé le fait que le processus M 2 − V l étant une
martingale, son espérance est constante et même nulle car ces deux processus sont issus
de 0. Ainsi, la conclusion est la suivante: pour tout t ≥ 0 fixé, la suite (Vtl )l∈N ∗ est de
Cauchy dans L2 qui est complet, donc converge vers une variable aléatoire dépendant de
t, que l’on note [M, M ]t .
À présent, montrons que t → [M, M ]t est continue sur R+ . Comme V l − V k est une
martingale de carré intégrable, l’inégalité de Doob L2 entraı̂ne que pour tout t ≥ 0,
" #
E sup (Vsl − Vsk )2 ≤ 4 E (Vtl − Vtk )2 −→ 0.
 
s∈[0,t] k,l→∞

Alors il existe une sous-suite (kn )n∈N ∗ tendant vers l’infini lorsque n → ∞ telle que
" #
1
E sup (Vskn+1 − Vskn )2 ≤ ,
s∈[0,t] n4

et donc on obtient par l’inégalité de Cauchy-Schwarz que


" #
X
E sup |Vskn+1 − Vskn | < ∞,
n∈N ∗ s∈[0,t]

donc que p.s.,


X
sup |Vskn+1 − Vskn | < ∞.
n∈N ∗ s∈[0,t]

Ainsi, comme p.s. le critère de Cauchy uniforme est vérifié pour la suite de processus
(V kn )n∈N ∗ , la convergence p.s. de la suite de processus (V kn )n∈N ∗ est uniforme sur [0, t]
et donc le processus limite [M, M ] est continu sur [0, t], pour tout t ≥ 0, donc continu sur
R+ .
Ensuite, bien que le processus V k ne soit pas croissant, on a pour tous tkn < tkm , Vtkk ≤ Vtkk
n m
donc par passage à la limite, [M, M ] est croissant sur ∪k≥1 (tkn )n∈{0,...,pk } (supposé dense
dans [0, t]), donc sur [0, t] par continuité.
Enfin, comme le processus M 2 − V k est une martingale, on a pour tout s ≤ t et tout
As ∈ Fs ,
E 1As (Mt2 − Vtk ) = E 1As (Ms2 − Vsk ) ,
   
58 CHAPITRE 3. SEMIMARTINGALES CONTINUES

et comme Vsk et Vtk convergent dans L2 respectivement vers [M, M ]s et [M, M ]t lorsque
k → ∞, on peut passer à la limite dans l’identité précédente pour obtenir

E 1As (Mt2 − [M, M ]t ) = E 1As (Ms2 − [M, M ]s ) ,


   

ou en d’autres termes, que M 2 − [M, M ] est une martingale. La démonstration du


théorème 3.1.5 est enfin achevée.

Remarque 3.1.6. Si τ est un temps d’arrêt, alors par unicité de la variation quadratique,
on a [M τ , M τ ] = [M, M ]τ .
Regardons maintenant comment les propriétés d’une martingale locale sont liées à
celles de sa variation quadratique. Si A est un processus croissant, la variable aléatoire
A∞ désigne de manière évidente la limite croissante de At lorsque t → ∞.
Théorème 3.1.7. Soit M une martingale locale.
(i) Si c’est une vraie martingale bornée dans L2 , alors E [[M, M ]∞ ] < ∞ et le
processus M 2 − [M, M ] est une martingale uniformément intégrable.
(ii) Si E [[M, M ]∞ ] < ∞, alors M est une vraie martingale bornée dans L2 .
(iii) Le processus M est une vraie martingale de carré intégrable si et seulement
si E [[M, M ]t ] < ∞ pour tout t ≥ 0. De plus, si ces conditions sont satisfaites, alors le
processus M 2 − [M, M ] est une martingale.
Démonstration. (i) : Si M est une martingale bornée dans L2 , alors par le théorème 2.3.11,
elle converge p.s. et dans L2 vers une variable aléatoire notée M∞ . De plus, par l’inégalité
de Doob L2 ,
 
2
≤ 4 sup E Mt2 < ∞.
 
E sup Mt
t≥0 t≥0

Pour tout entier n ≥ 1, définissons le temps d’arrêt τn := inf{t ≥ 0 : [M, M ]t ≥ n}. Alors
le processus (M τn )2 − [M, M ]τn est une martingale locale. De plus, on a pour tout t ≥ 0
que [M, M ]t∧τn ≤ n et on en déduit que (M τn )2 − [M, M ]τn est dominée par la variable
intégrable supt≥0 Mt2 + n. Par conséquent, c’est une vraie martingale et on a
 2 
E [[M, M ]t∧τn ] = E Mt∧τ n
.

En faisant tendre t → ∞ (et en utilisant les théorèmes de convergence monotone et


dominée pour les membres de gauche et de droite, respectivement) on trouve

E [[M, M ]τn ] = E Mτ2n ,


 

et enfin en faisant tendre n → ∞ on trouve, avec les deux mêmes arguments, que
 2
E [[M, M ]∞ ] = E M∞ < ∞.

Enfin, la martingale locale M 2 −[M, M ] étant dominée par la variable intégrable supt≥0 Mt2 +
[M, M ]∞ , il s’agit donc d’une vraie martingale (uniformément intégrable).
3.1. MARTINGALES LOCALES 59

(ii) : On suppose maintenant que E [[M, M ]∞ ] < ∞. Notons la suite de temps d’arrêt
τn := inf{t ≥ 0 : |Mt | ≥ n} de sorte que pour tout t ≥ 0, |Mt∧τn | ≤ n. Ainsi, la
martingale locale M τn est en fait une vraie martingale. Par ailleurs, la martingale locale
(M τn )2 − [M, M ]τn étant dominée par la variable intégrable n2 + [M, M ]∞ , c’est aussi une
vraie martingale uniformément intégrable, et on a pour tout t ≥ 0,
 2 
E Mt∧τ n
= E [[M, M ]t∧τn ]
≤ E [[M, M ]∞ ] ,
quantité qui est supposée finie. Ainsi, la famille (Mt∧τn )n∈N est bornée dans L2 donc
uniformément intégrable. En passant à la limite L1 quand n → ∞ dans l’égalité
E [Mt∧τn | Fs ] = Ms∧τn , s ∈ [0, t],
on en déduit que M est une vraie martingale, qui est bornée dans L2 par le lemme de
Fatou.
(iii) : D’après (i) et (ii), M est une vraie martingale bornée dans L2 si et seulement si
E [[M, M ]∞ ] < ∞. Il en résulte que pour tout a ≥ 0, M a est une vraie martingale bornée
dans L2 si et seulement si E [[M, M ]a ] < ∞. Enfin, si ces conditions sont remplies, (i)
montre que (M a )2 − [M, M ]a est une vraie martingale.
On en déduit immédiatement le résultat suivant.
Corollaire 3.1.8. Une martingale locale admet p.s. une variation quadratique nulle si et
seulement si elle est elle-même p.s. identiquement égale à 0.

3.1.3 Crochet droit de deux martingales locales


Par polarisation, nous sommes en mesure d’introduire le crochet droit de deux martingales
locales à partir de la variation quadratique de leur somme.
Définition 3.1.9. Le crochet droit de deux martingales locales M et N est défini par
1
[M, N ]t := ([M + N, M + N ]t − [M, M ]t − [N, N ]t ) , t ≥ 0.
2
Donnons quelques propriétés du crochet droit, dont les démonstrations sont immédiates
d’après ce qui précède.
Proposition 3.1.10. On a les propriétés suivantes:
(i) : Le processus [M, N ] est l’unique processus adapté à variation bornée tel que
M N − [M, N ] soit une martingale locale.
(ii) : L’application (M, N ) → [M, N ] est bilinéaire symétrique.
(iii) : Si 0 = tk0 < tk1 < · · · < tkpk = t est une suite de subdivisions emboı̂tées de
l’intervalle [0, t] de pas tendant vers 0 lorsque k → ∞, on a la convergence en probabilité
suivante:
pk
X
[M, N ]t = lim (Mtki − Mtki−1 ) (Ntki − Ntki−1 ).
k→∞
i=1
60 CHAPITRE 3. SEMIMARTINGALES CONTINUES

(iv) : Pour tout temps d’arrêt τ , [M τ , N τ ] = [M τ , N ] = [M, N τ ] = [M, N ]τ .


(v) : Si M et N sont deux vraies martingales bornées dans L2 , alors le processus
M N − [M, N ] est une vraie martingale uniformément intégrable.
Enfin, avant d’introduire les semimartingales, donnons un résultat important,
connu sous le nom d’inégalité de Kunita-Watanabe. Tout d’abord, si A est un processus
continu à variation bornée, alors l’intégrale par rapport à ce processus existe au sens de
Stieltjes. De plus, le processus variation (Var(A, t))t≥0 est bien défini, croissant et même
continu. Ainsi, comme il est à variation bornée, intégrer au sens de Stieltjes par rapport
à ce processus variation a bien un sens. Pour simplifier l’écriture, on notera dans la suite
de ce cours la mesure associée
dVar(A, t) = |dAt |.
Notons alors que l’on a
Z t Z t Z t
dAs = |At − A0 | ≤ Var(A, t) = dVar(A, s) = |dAs |.
0 0 0

On considère dans la suite le cas ou A = [M, N ] avec M et N deux martingales locales.


Proposition 3.1.11 (Inégalité de Kunita-Watanabe). Soient M et N deux martingales
locales et soient H et K deux processus. Alors
Z ∞ sZ sZ
∞ ∞
|Ht | |Kt | |d[M, N ]t | ≤ Ht2 d[M, M ]t Kt2 d[N, N ]t .
0 0 0

Démonstration. Soient 0 ≤ s < t et soit s = t0 < · · · < tp = t une subdivision


de l’intervalle [s, t]. En utilisant la définition du crochet droit ainsi que l’inégalité de
Cauchy-Schwarz, on a
p p q q
X X
[M, N ]tk − [M, N ]tk−1 ≤ [M, M ]tk − [M, M ]tk−1 [N, N ]tk − [N, N ]tk−1
k=1 k=1
v v
u p u p
uX uX
≤ t [M, M ]tk − [M, M ]tk−1 t [N, N ]tk − [N, N ]tk−1
k=1 k=1
p p
= [M, M ]t − [M, M ]s [N, N ]t − [N, N ]s ,
d’où l’on obtient que
Z t p p
|d[M, N ]u | ≤ [M, M ]t − [M, M ]s [N, N ]t − [N, N ]s
s

Par un argument de classe monotone, on peut généraliser cette inégalité à toute partie
borélienne bornée A de R+ ,
Z sZ sZ
|d[M, N ]u | ≤ d[M, M ]u d[N, N ]u .
A A A
3.2. SEMIMARTINGALES CONTINUES 61
P P
Ensuite, si h = i αi 1Ai et k = j βj 1Bj sont deux fonctions étagées positives, où les Ai
sont disjoints, tout comme les Bj , on a par l’inégalité précédente ainsi que par Cauchy-
Schwarz,
Z ∞ X Z
h(t)k(t) |d[M, N ]u | = αi βj |d[M, N ]u |
0 i,j Ai ∩Bj
s Z s Z
X X
≤ αi2 d[M, M ]u βj2 d[N, N ]u
i Ai ∩(∪j Bj ) j (∪i Ai )∩Bj
sZ sZ
∞ ∞
≤ h(t)2 d[M, M ]t k(t)2 d[N, N ]t ,
0 0

et donc l’inégalité est vérifiée pour les fonctions étagées positives. Enfin, en utilisant le
fait que toute fonction mesurable positive peut être approchée (simplement) par une suite
croissante de fonctions étagées positives, on obtient l’inégalité de Kunita-Watanabe en
toute généralité.

3.2 Semimartingales continues


À présent, introduisons la classe des semimartingales continues.
Définition 3.2.1. Un processus X est une semimartingale continue s’il s’écrit sous la
forme
Xt = X0 + Mt + At , t ≥ 0,
où M est une martingale locale et A un processus (continu) adapté et à variation bornée,
tous deux partant de 0.
Remarquons que cette décomposition est unique à cause du théorème 3.1.5. Si Y
est une autre semimartingale continue de décomposition Yt = Y0 + Nt + Bt , on pose par
définition

[X, Y ]t := [M, N ]t , t ≥ 0.

Proposition 3.2.2. Si 0 = tk0 < tk1 < · · · < tkpk = t est une suite de subdivisions emboı̂tées
de l’intervalle [0, t] de pas tendant vers 0 lorsque k → ∞, on a la convergence en probabilité
suivante:
pk
X
[X, Y ]t = lim (Xtki − Xtki−1 ) (Ytki − Ytki−1 ).
k→∞
i=1
Démonstration. Traitons seulement le cas X = Y pour simplifier. On a
pk pk pk
X X X
2 2
(Xtki − Xtki−1 ) = (Mtki − Mtki−1 ) + (Atki − Atki−1 )2
i=1 i=1 i=1
62 CHAPITRE 3. SEMIMARTINGALES CONTINUES

pk
X
+2 (Mtki − Mtki−1 )(Atki − Atki−1 ).
i=1

Or on sait déjà par le théorème 3.1.5 qu’en probabilité,


pk
X
lim (Mtki − Mtki−1 )2 = [M, M ]t = [X, X]t .
k→∞
i=1

D’autre part, on a
pk
X
(Atki − Atki−1 )2 ≤ Var(A, t) sup |Atki − Atki−1 |,
i=1 i∈{1,...,pk }

qui tend p.s. vers 0 lorsque k → ∞ par (uniforme) continuité du processus A sur [0, t].
Enfin, le même raisonnement montre que
pk
X
(Atki − Atki−1 )(Mtki − Mtki−1 ) ≤ Var(A, t) sup |Mtki − Mtki−1 |,
i=1 i∈{1,...,pk }

qui tend p.s. vers 0 lorsque k → ∞ par (uniforme) continuité de M sur [0, t]. Ainsi,
comme la convergence p.s entraı̂ne la convergence en probabilité, et que l’on a aussi pour
toutes variables aléatoires X, Y, Z et tout ε > 0,

P(|X + Y + Z| > ε) ≤ P(|X| > ε/3) + P(|Y | > ε/3) + P(|Z| > ε/3),

la preuve est achevée.


Chapitre 4

Intégration stochastique

Ce chapitre constitue l’objet central d’un cours de calcul stochastique. Le calcul d’Itô est
considéré comme l’un des thèmes les plus importants de la théorie des probabilités, et per-
met par exemple de construire de manière systématique de nouvelles martingales à partir
de martingales originelles, exactement comme dans le cadre discret de la transformation
prévisible vue au chapitre 2. Le but principal est de donner un sens à l’intégrale
Z t
It (H) = Hs dMs , t ≥ 0, (4.0.1)
0

où M est une martingale continue et H un processus adapté, tous deux satisfaisant de
“bonnes” propriétés d’intégrabilité. Étant donné que (Mt )t≥0 n’est pas à variation bornée,
cette intégrale ne peut être définie dans le sens classique de l’intégration à la Stieltjes.
L’idée première est assez naturelle: il s’agit de définir cette intégrale sur une classe de
processus simples pour lesquels nous sommes capables de faire des calculs, et de l’étendre
à une classe plus générale par un argument de densité-continuité. En revanche, si l’on
souhaite voir (It (H))t≥0 comme un processus, alors il va falloir (se préparer à) travailler
davantage.

4.1 Construction de l’intégrale stochastique


4.1.1 Définition de l’intégrale stochastique
Afin de donner un sens à l’identité (4.0.1), introduisons quelques notations. Notons B
la tribu borélienne de R+ et M2 l’espace des martingales continues bornées dans L2 et
nulles en 0. On le munit du produit scalaire suivant:

< X, Y >M2 := E [X∞ Y∞ ] = E [[X, Y ]∞ ] ,

de sorte qu’il devienne un espace de Hilbert (démonstration non triviale). On considère


dans la suite une martingale M ∈ M2 , et pour tout t ≥ 0, on note Ft × B la tribu
engendrée par les produits A × B, où A ∈ Ft et B ∈ B.

63
64 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Définition 4.1.1. On définit l’espace de Hilbert H2 (M ) comme l’ensemble des processus


H adaptés à la filtration (Ft )t≥0 et dans L2 (dP × d[M, M ]), i.e.
Z ∞ 
2 2
kHkH2 (M ) := E Ht d[M, M ]t < ∞.
0

Par ailleurs, on note H02 (M ) le sous-espace de H2 (M ) formé des processus simples, c’est-
à-dire des processus H de la forme
X
Ht (ω) = ak (ω) 1(tk ,tk+1 ] (t), t ≥ 0,
k≥0

où ak est une v.a. bornée et Ftk -mesurable, et 0 = t0 < t1 < · · · < tn < · · · est une suite
croissant vers l’infini.
On remarque que le processus [M, M ] étant croissant (donc à variation bornée),
l’intégrale par rapport à ce processus est simplement celle de Stieltjes. L’intérêt d’introduire
les processus simples réside dans le résultat suivant.
Lemme 4.1.2. Le sous-espace H02 (M ) est dense dans H2 (M ).
Démonstration. Par le théorème du supplémentaire orthogonal d’un fermé dans un
espace de Hilbert, il suffit de montrer que si H ∈ H2 (M ) est orthogonal à H02 (M ), alors
ce processus est nul. Supposons donc H ∈ H2 (M ) orthogonal à H02 (M ), i.e.
Z ∞ 
E Ht Kt d[M, M ]t = 0, K ∈ H02 (M ).
0

Étant donnés 0 ≤ s < t, soient F une variable aléatoire Fs -mesurable bornée et L ∈


H02 (M ) le processus défini par Lu = F 1(s,t] (u). On a alors
Z ∞   Z t 
0 =< H, L >H2 (M ) = E Hu Lu d[M, M ]u = E F Hu d[M, M ]u .
0 s

Posons pour tout t ≥ 0, Z t


Xt := Hu d[M, M ]u ,
0
qui est p.s. absolument convergente et même bornée dans L1 (par l’inégalité de Cauchy-
Schwarz et le fait que H ∈ H2 (M ) et M ∈ M2 ). De plus, l’identité précédente montre
que pour tout s < t et toute variable aléatoire Fs -mesurable bornée F ,
E [F (Xt − Xs )] = 0.
En d’autres termes, le processus X est une martingale continue. D’autre part, puisque X
est défini comme une intégrale par rapport au processus croissant [M, M ], c’est aussi un
processus à variation bornée. Il en résulte par la proposition 3.1.4 que p.s. ce processus
est nul, et donc que p.s.,
H = 0, d[M, M ] p.p.,
i.e. H = 0 dans H2 (M ).
4.1. CONSTRUCTION DE L’INTÉGRALE STOCHASTIQUE 65

Ainsi, en définissant l’intégrale stochastique sur l’espace des processus simples


H02 (M ),on peut espérer l’étendre par densité aux processus dans H2 (M ).
Notons à présent qu’il est tout à fait logique de demander à ce que l’intégrale stochastique
satisfasse, pour tout 0 ≤ a < b,
Z b
dMs = Mb − Ma ,
a

et la linéarité nous force alors à définir l’intégrale stochastique de la manière suivante.


Définition 4.1.3. On définit sur l’espace H02 (M ) l’intégrale stochastique I comme suit:

I : H02 (M ) → L2 P
H 7→ I(H) := k≥0 ak (Mtk+1 − Mtk ).

Le fait que l’espace d’arrivée est L2 se déduit des calculs suivants: si H ∈ H02 (M ),
X 
E I(H)2 =
  
E ak al (Mtk+1 − Mtk )(Mtl+1 − Mtl )
k,l≥0
X 
E a2k (Mtk+1 − Mtk )2

=
k≥0
X   
+2 E E ak al (Mtk+1 − Mtk )(Mtl+1 − Mtl ) | Ftl
k<l
X 
E a2k [M, M ]tk+1 − [M, M ]tk

=
k≥0
X   
+2 E ak al (Mtk+1 − Mtk )E Mtl+1 − Mtl | Ftl
k<l
X 
E a2k [M, M ]tk+1 − [M, M ]tk

=
k≥0
Z ∞ 
= E Ht2 d[M, M ]t
0
2
= kHkH2 (M ) ,

quantité qui est supposée finie. Ci-dessus, on a utilisé la Ftl -mesurabilité de ak al (Mtk+1 −
Mtk ) pour k < l, ainsi que le fait que le processus M 2 − [M, M ] est une martingale.
Plus important encore, on voit que l’on a obtenu l’isométrie suivante, connue sous le nom
d’isométrie d’Itô.
Lemme 4.1.4 (Isométrie d’Itô sur H02 (M )). Pour tout processus simple H ∈ H02 (M ),

kI(H)kL2 = kHkH2 (M ) .

On en déduit que l’intégrale stochastique I est un opérateur linéaire continu de


H02 (M ) vers L2 . En particulier, I transforme les suites de Cauchy de H02 (M ) en suites de
66 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Cauchy de L2 , ce qui va nous permettre d’étendre l’intégrale stochastique aux éléments de


H2 (M ). Regardons ceci plus en détail. Étant donné un processus H ∈ H2 (M ), il existe
une suite de processus simples (H n )n∈N ⊂ H02 (M ) telle que

lim kH − H n kH2 (M ) = 0.
n→∞

L’idée est donc de définir l’intégrale stochastique I(H) comme la limite dans L2 de I(H n ).
Cependant, cet objet est-il bien défini, i.e. la suite (I(H n ))n∈N converge-t-elle et si oui,
la limite est-elle définie de manière unique ? Énonçons le théorème suivant.
Théorème 4.1.5. Soit H ∈ H2 (M ). Alors l’intégrale stochastique I(H) déterminée par

I(H) = L2 − lim I(H n ),


n→∞

où (H n )n∈N ⊂ H02 (M ) est une suite de processus simples convergeant vers H dans H2 (M ),
est bien définie. On la note Z ∞
I(H) := Ht dMt .
0
De plus, on a l’isométrie d’Itô:

kI(H)kL2 = kHkH2 (M ) .
Démonstration. Démontrons tout d’abord le premier point. Si H ∈ H2 (M ) alors il existe
une suite de processus simples (H n )n∈N ⊂ H02 (M ) qui converge vers H dans H2 (M ). En
particulier, elle est de Cauchy et par l’isométrie d’Itô sur H02 (M ), on en déduit que
(I(H n ))n∈N est aussi une suite de Cauchy dans L2 qui est complet, donc convergente.
De plus, si (K n )n∈N ⊂ H02 (M ) est une autre suite de processus convergeant vers H dans
H2 (M ), l’inégalité triangulaire entraı̂ne que

lim kH n − K n kH2 (M ) = 0,
n→∞

et par l’isométrie d’Itô sur H02 (M ), on obtient que

lim kI(H n ) − I(K n )kL2 = 0.


n→∞

Enfin, l’inégalité triangulaire nous permet de démontrer que les deux limites sont en
fait les mêmes. Ainsi, l’intégrale stochastique I(H) est bien définie pour tout processus
appartenant à l’espace H2 (M ).
À présent, l’isométrie d’Itô sur H2 (M ) se démontre immédiatement: si (H n )n∈N ⊂ H02 (M )
converge vers H dans H2 (M ), alors par l’isométrie d’Itô sur H02 (M ),

kI(H n )kL2 = kH n kH2 (M ) .

Enfin, les deux côtés de cette égalité admettant une limite par l’inégalité triangulaire, on
obtient l’identité désirée en faisant tendre n vers l’infini.
4.1. CONSTRUCTION DE L’INTÉGRALE STOCHASTIQUE 67

4.1.2 L’intégrale stochastique vue comme une martingale


Ainsi, l’intégrale stochastique I est un opérateur linéaire continu de H2 (M ) vers L2 .
À présent, il est légitime de se demander si en faisant varier la borne supérieure dans
l’intégrale, on obtient alors un processus. L’idée est de faire apparaı̂tre un processus
(déterministe) de troncation mt ∈ H2 (M ) défini pour tout t ≥ 0 par
mts (ω) = 1[0,t] (s), s ≥ 0,
et tel que mt H ∈ H2 (M ). Dans ce cas, il est raisonnable de penser que l’élément X donné
par
Xt = I(mt H), t ≥ 0,
est bien un processus. Cependant l’intégrale stochastique I(mt H) est seulement définie
comme un élément de L2 , donc peut être spécifiée arbitrairement sur tout ensemble
négligeable At ∈ Ft . Autrement dit, la définition de I(mt H) est ambiguë sur les en-
sembles négligeables de Ft . Si nous ne devions considérer qu’un nombre dénombrable de
tels ensembles At , cette ambiguité ne poserait pas de problème car l’union dénombrable
d’ensembles négligeables est encore négligeable. Malheureusement, l’intervalle R+ n’étant
pas dénombrable, l’union de tels ensembles At sur R+ peut être Ω tout entier. Aı̈e aı̈e
aı̈e !! Il s’avère qu’en fait ce problème admet une solution qui devrait rassurer le lecteur
inquiet.
Théorème 4.1.6. Pour tout processus H ∈ H2 (M ), il existe une martingale X ∈ M2
telle que
P(Xt = I(mt H) ∀t ≥ 0) = 1.
On note alors Z t
Xt := Hs dMs , t ≥ 0.
0

Démonstration. Étant donné un processus H ∈ H2 (M ), il existe une suite (H n )n∈N ⊂


H02 (M ) telle que kH −H n kH2 (M ) → 0. On définit alors la suite de processus (X n )n∈N ⊂ L2
comme Xtn := I(mt H n ), t ≥ 0. Notons que cette suite de processus adaptés admet la
représentation explicite suivante: pour tout t ∈ (tnk , tnk+1 ],
k−1
X
Xtn = ank (Mt − Mtnk ) + ani (Mtni+1 − Mtni ),
i=0

où les ani sont Ftni -mesurables. On vérifie sans peine que pour tout n ∈ N, X n est une
martingale continue et bornée dans L2 : X n ∈ M2 . En particulier, elle admet une limite
n
X∞ ∈ L2 lorsque t → ∞. De surcroı̂t, comme mt Hn → Hn dans H2 (M ) lorsque t → ∞,
on a que Xtn → I(Hn ) dans L2 et par unicité de la limite, on obtient que X∞ n
= I(Hn ).
Ainsi, quels que soient m, n ∈ N, par l’inégalité maximale de Doob appliquée à la sous-
martingale |X n − X m |, on a pour tout ε > 0,
n m 2
 
n m E [|X∞ − X∞ |]
P sup |Xt − Xt | > ε ≤ 2
t≥0 ε
68 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

E [|I(H n ) − I(H m )|2 ]


=
ε2
n m 2
kH − H kH2 (M )
= ,
ε2
par l’isométrie d’Itô. La suite (H n )n∈N étant de Cauchy dans H2 (M ), on a que kH n −
H m kH2 (M ) → 0 lorsque m, n → ∞, et donc il existe une sous-suite (nk )k∈N tendant vers
l’infini telle que pour tout k ∈ N,
1
kH nk+1 − H nk k2H2 (M ) ≤ .
23k
D’où en prenant ε = 2−k , on obtient que
 
nk+1 nk 1 1
P sup |Xt − Xt | > k ≤ k ,
t≥0 2 2

qui est sommable: par le lemme de Borel-Cantelli, pour tout ω en dehors d’un ensemble
négligeable, il existe N = N (ω) ∈ N tel que pour tout k ≥ N ,

n 1
sup |Xt k+1 − Xtnk | ≤ ,
t≥0 2k

donc que
n
X
sup |Xt k+1 − Xtnk | < ∞.
t≥0
k∈N

Ainsi, p.s. la suite (Xtnk )k∈N est une suite de Cauchy uniformément sur R+ , donc elle
converge p.s. uniformément sur R+ vers un processus adapté X qui est alors continu.
Comme pour tout t ≥ 0, mt Hn → mt H dans H2 (M ), l’isométrie d’Itô entraı̂ne que Xtn →
I(mt H) dans L2 et par unicité de la limite, on a pour tout t ≥ 0, P(Xt = I(mt H)) = 1.
L’union dénombrable d’ensembles négligeables restant négligeable, on a

P(Xt = I(mt H) ∀t ∈ [0, ∞) ∩ Q) = 1,

et par continuité du processus X,

P(Xt = I(mt H) ∀t ∈ [0, ∞)) = 1.

De plus, le processus X vérifie bien la propriété de martingale. En effet, comme X nk la


vérifie pour tout k ∈ N, alors en combinant les convergences p.s. et L2 , on peut passer à
la limite en k de chaque coté de l’égalité

E [Xtnk | Fs ] = Xsnk .

Enfin, si l’on applique l’isométrie d’Itô, on a pour tout t ≥ 0,

E Xt2 = E I(mt H)2


   
4.1. CONSTRUCTION DE L’INTÉGRALE STOCHASTIQUE 69
Z ∞ 
t
= E (m
d[M, M ]s H)2s
0
Z t 
2
= E Hs d[M, M ]s
0
≤ kHk2H2 (M ) .

Ainsi, la martingale continue X est bornée dans L2 : elle est donc dans M2 , ce qui termine
la démonstration.
Remarquons que l’on peut relier la norme dans M2 de l’intégrale stochastique X
à celle dans H2 (M ) du processus intégré H de la manière suivante:
kXk2M2 = E X∞
 2
= E I(H)2 = kHk2H2 (M ) .
 

On a donc obtenu une interprétation trajectorielle de l’intégrale stochastique, au sens où


c’est une martingale continue de carré intégrable. Sa valeur en 0 étant nulle, on a que
Z t 
E Hs dMs = 0, t ≥ 0.
0

Regardons ce que l’on obtient dans le cas brownien. On dit que le processus B est un
mouvement brownien relativement à la filtration (Ft )t≥0 si c’est un mouvement brownien
adapté et à accroissements indépendants par rapport à cette filtration. Rappelons que
B∈ / M2 mais en revanche B T ∈ M2 où T > 0 est un horizon déterministe fixé. Ainsi,
quitte à réduire la martingale par T , la théorie de l’intégrale stochastique est valable
aussi sur [0, T ] en lieu et place de R+ . En considérant l’espace M2 [0, T ] des martingales
continues de carré intégrable sur [0, T ] et H2 (B, T ) l’espace H2 (B T ), on obtient que pour
tout processus H ∈ H2 (B, T ),
"Z 2 #
t Z t 
2
E Hs dBs =E Hs ds , 0 ≤ t ≤ T.
0 0

4.1.3 Variation quadratique de l’intégrale stochastique


Regardons à présent comment se comporte l’intégrale stochastique par rapport à la vari-
ation quadratique.
Proposition 4.1.7. Soit N ∈ M2 . Alors pour tout H ∈ H2 (M ), on a l’identité suivante:
Z ·  Z t
Hs dMs , N = Hs d[M, N ]s , t ≥ 0, (4.1.1)
0 t 0

où l’intégrale de droite est une intégrale


R · de Stieltjes. En particulier, si N est elle-même
une intégrale stochastique, i.e. N := 0 Ks dM̃s où M̃ ∈ M2 et K ∈ H2 (M̃ ), alors
Z · Z ·  Z t
Hs dMs , Ks dM̃s = Hs Ks d[M, M̃ ]s , t ≥ 0.
0 0 t 0
70 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Démonstration. Tout d’abord, en utilisant la linéarité de [·, N ], la relation est clairement


vérifiée pour les processus simples H ∈ H02 (M ): pour tout t ≥ 0,
Z ·  " #
X 
Hs dMs , N = ak Mtk+1 ∧· − Mtk ∧· , N
0 t k≥0 t
X   
= ak Mtk+1 ∧· , N t
− [Mtk ∧· , N ]t
k≥0
X  
= ak [M, N ]tk+1 ∧t − [M, N ]tk ∧t
k≥0
Z t
= Hs d[M, N ]s .
0

Il reste à étendre cette égalité à l’espace H2 (M ). Soit H ∈ H2 (M ) et (H n )n∈N ⊂ H02 (M )


une suite de processus simples convergeant vers H dans H2 (M ). Notons X (resp. X n )
l’intégrale stochastique de H (resp. H n ) par rapport à M . Soit t ≥ 0. En utilisant l’égalité
précédente pour la suite (H n )n∈N puis les inégalités de Kunita-Watanabe et Cauchy-
Schwarz, on a
 Z t  Z t 
n n
E [X, N ]t − Hs d[M, N ]s ≤ E [|[X − X , N ]t |] + E (Hs − Hs ) d[M, N ]s
0 0
n
≤ kX − X kM2 kN kM2 + kH n − HkH2 (M ) kN kM2
= 2 kH n − HkH2 (M ) kN kM2 ,
qui tend vers 0 lorsque n tend vers l’infini, d’où l’égalité désirée.
Il est facile de voir que l’identité (4.1.1) caractérise l’intégrale stochastique, pro-
priété qui va nous être utile par la suite. En effet, si X ∈ M2 vérifie aussi la même
identité, alors on a pour tout N ∈ M2 ,
Z · 
Hs dMs − X, N = 0,
0
R· R·
et en prenant N := 0 Hs dMs − X ∈ M2 , on trouve que X = 0 Hs dMs . Par ailleurs, en
prenant l’espérance dans la seconde identité de la proposition précédente, on obtient que
Z t  Z t  Z t 
E Hs dMs Ks dM̃s =E Hs Ks d[M, M̃ ]s ,
0 0 0

égalité généralisant l’isométrie d’Itô. Avant d’étendre dans le paragraphe suivant la con-
struction de l’intégrale stochastique sur son vrai domaine, qui est un espace plus grand
que H2 (M ), observons comment elle se comporte lorsque l’on introduit un temps d’arrêt.
Proposition 4.1.8. Si τ est un temps d’arrêt, alors on a pour tout H ∈ H2 (M ),
Z t Z t∧τ Z t
Hs 1{s<τ } dMs = Hs dMs = Hs dMs∧τ , t ≥ 0.
0 0 0
4.2. LOCALISATION 71

Démonstration. En utilisant les propriétés du crochet vues à la proposition 3.1.10 ainsi


que (4.1.1), on a pour tout t ≥ 0,
Z ·∧τ  Z ·  Z t∧τ Z t
Hs dMs , N = Hs dMs , N = Hs d[M, N ]s = Hs 1{s<τ } d[M, N ]s ,
0 t 0 t∧τ 0 0

R ·∧τ
ce qui montre que la martingale arrêtée
R· 0
Hs dMs vérifie la propriété caractéristique
(4.1.1) de l’intégrale stochastique 0 Hs 1{s<τ } dMs . On obtient ainsi la première égalité
désirée.
La preuve de la seconde est analogue en écrivant que pour tout t ≥ 0,
Z ·  Z t Z t Z t
Hs dMs∧τ , N = Hs d[M·∧τ , N ]s = Hs d[M, N ]s∧τ = Hs 1{s<τ } d[M, N ]s .
0 t 0 0 0

Grâce au résultat précédent, nous pourrions dès maintenant définir l’intégrale


stochastique par rapport à une martingale locale M , et ce pour des processus adaptés
H vérifiant Z  ∞
E Ht2 d[M, M ]t < ∞.
0

Nous ne le ferons pas car ce qui va suivre est beaucoup plus général et englobe cette
extension.

4.2 Localisation
À présent, si l’on se donne une fonction continue f de R dans R, alors une R Tthéorie con-
sistante de l’intégration stochastique devrait donner un sens à l’intégrale 0 f (Mt ) dMt .
Cependant, elle n’a été définie jusqu’à présent que pour des processus H = f (M ) qui ap-
partiennent à l’espace H2 (M ). Or si par exemple M = B le mouvement brownien, alors
4
en prenant une fonction continue f tendant très rapidement à l’infini, comme f (x) = ex ,
on voit que le processus f (B) ∈ / H2 (B, T ), ce qui est un peu gênant. Étant donnée M
une martingale locale issue de 0, notons aussi H2 (M ) l’espace des processus adaptés H
tels que Z  ∞
E Ht2 d[M, M ]t < ∞,
0
2
et soit Hloc (M ) ⊃ H2 (M ) l’espace des processus adaptés H tels que pour tout t ≥ 0, on
ait p.s.,
Z t
Hs2 d[M, M ]s < ∞.
0
2
L’espace Hloc (M ) est en fait le bon espace à considérer dans la construction de l’intégrale
stochastique.
72 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

2
Théorème R4.2.1. Pour tout H ∈ Hloc (M ), il existe une unique martingale locale issue
·
de 0, notée 0 Ht dMt , telle que pour toute martingale locale N issue de 0,
Z ·  Z t
Hs dMs , N = Hs d[M, N ]s , t ≥ 0.
0 t 0

De plus, les égalités de la proposition 4.1.8 sont aussi vérifiées. Enfin, si M ∈ M2 et H ∈


H2 (M ), alors cette définition étend celle de l’intégrale stochastique vue précédemment.
Démonstration. Considérons
 Z t 
2
τn := inf t ≥ 0 : [M, M ]t + Hs d[M, M ]s ≥ n ∈ [0, ∞],
0

de sorte que (τn )n∈N est une suite de temps d’arrêt tendant en croissant vers l’infini.
Puisque l’on a pour tout t ≥ 0

[M τn , M τn ]t = [M, M ]t∧τn ≤ n,

la martingale locale arrêtée M τn appartient à M2 et de plus,


Z ∞ Z ∞ Z τn
2 τn τn 2
Ht d[M , M ]t = Ht d[M, M ]t∧τn = Ht2 d[M, M ]t ≤ n,
0 0 0

donc
R· H ∈ H2 (M τn ): on peut alors définir pour tout n ∈ N l’intégrale stochastique
0
Ht dMt∧τn au sens classique. Ainsi, en utilisant la propriété caractéristique (4.1.1), on
vérifie facilement que si m > n, alors
Z t Z t∧τn
Hs dMs∧τn = Hs dMs∧τm , t ≥ 0.
0 0

Cela montre qu’il existe un unique processus, noté 0
Hs dMs , tel que pour tout n ∈ N,
Z t∧τn Z t
Hs dMs = Hs dMs∧τn , t ≥ 0.
0 0
R ·∧τ R·
Puisque les processus 0 n Hs dMs sont dans M2 , 0 Hs dMs est une martingale locale.
À présent, soient N une martingale locale issue de 0 et τn0 := inf{t ≥ 0 : |Nt | ≥ n} et
enfin Tn := τn ∧ τn0 . Alors pour tout t ≥ 0,
Z ·  Z ·∧Tn 
Tn
Hs dMs , N = Hs dMs , N
0 t∧Tn 0 t
Z ·∧Tn 
Tn
= Hs dMs∧τn , N
0 t
Z · 
Tn
= Hs dMs∧τn , N
0 t
4.3. EXTENSION DE L’INTÉGRALE STOCHASTIQUE 73
Z t
= Hs d[M τn , N Tn ]s
Z0 t
= Hs d[M, N ]s∧Tn
0
Z t∧Tn
= Hs d[M, N ]s ,
0
d’où l’égalité Z ·  Z t
Hs dMs , N = Hs d[M, N ]s , t ≥ 0.
0 t 0
De plus, les égalités de la proposition 4.1.8 sont obtenues dans ce cadre par les mêmes
arguments que dans la démonstration de la Proposition 4.1.8 (ces arguments utilisent
seulement la propriété caractéristique (4.1.1) que l’on vient d’étendre).
R · R·  R·
Enfin, si M ∈ M2 et RH ∈ H2 (M ), l’égalité 0 Hs dMs , 0 Hs dMs = 0 Hs2 d[M, M ]s
·
entraı̂ne d’abord que 0 Hs dMs ∈ M2 , et ensuite la propriété caractéristique (4.1.1)
montre que les définitions des théorèmes 4.1.5 et 4.2.1 coı̈ncident.
Remarquons que si M est une martingale locale Rissue de 0 et H ∈ H2 (M ), alors en
·
appliquant le théorème 3.1.7 à l’intégrale stochastique 0 Hs dMs , on a pour tout t ≥ 0,
Z t " Z 2 #
 t Z t 
2
E Hs dMs = 0, E Hs dMs =E Hs d[M, M ]s .
0 0 0

4.3 Extension de l’intégrale stochastique aux semi-


martingales continues
Nous allons maintenant étendre l’intégrale stochastique aux semimartingales continues.
On dit qu’un processus adapté H est localement borné si p.s,
sup |Hs | < ∞, t ≥ 0.
s∈[0,t]

En particulier, tout processus continu adapté est localement borné. De plus, si H est
localement borné, alors pour tout processus A continu à variation bornée, on a p.s.
Z t
|Hs | |dAs | < ∞, t ≥ 0,
0

et 0 Hs dAs est un processus continu à variation bornée.
2
De même, si M est une martingale locale issue de 0, alors H ∈ Hloc (M ).
Définition 4.3.1. Soit X = X0 + M + A une semimartingale
R· continue et H un processus
adapté localement borné. L’intégrale stochastique 0 Hs dXs est alors définie comme la
semimartingale continue suivante:
Z t Z t Z t
Hs dXs := Hs dMs + Hs dAs , t ≥ 0.
0 0 0
74 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Proposition 4.3.2. Soit X une semimartingale continue, et soit H un processus adapté


localement borné. R·
(i) L’application (H, X) → 0 Hs dXs est bilinéaire.
(ii) Les égalités de la proposition 4.1.8 (faisant intervenir un temps d’arrêt) restent
vérifiées en remplaçant M par X.
Pour finir ce paragraphe, énonçons un lemme important qui va nous servir dans la
suite. Remarquons que ce résultat ne nécessite pas de démonstration dès que H ∈ H2 (M ),
car dans ce cas il s’agit de la construction initiale de l’intégrale stochastique comme limite
L2 de l’intégrale stochastique sur H02 (M ).
Lemme 4.3.3. Soit X une semimartingale continue et H un processus continu adapté.
Alors pour tout t > 0, toute suite de subdivisions emboı̂tées 0 = tn0 < tn1 < · · · < tnpn = t
de l’intervalle [0, t], de pas tendant vers 0 lorsque n → ∞, on a
pn Z t
X
lim H tn
i−1
(X − X
tn
i tn
i−1
)= Hs dXs ,
n→∞ 0
i=1

au sens de la convergence en probabilité.


Démonstration. Notons que pour un processus continu à variation bornée A, on a p.s.
pn Z t
X
lim Htni−1 (Atni − Atni−1 ) = Hs dAs ,
n→∞ 0
i=1

donc il suffit simplement de traiter la partie martingale locale après avoir remarqué que
pour tout ε > 0,

P (|X + Y | > ε) ≤ P (|X| > ε/2) + P (|Y | > ε/2) .

Ainsi, supposons sans perte de généralité que X = M est une martingale locale issue de
0. Pour chaque n ∈ N∗ , définissons le processus adapté H n par
pn
X
Hsn := Htni−1 1(tni−1 ,tni ](s) .
i=1

On observe tout d’abord que Hsn → Hs p.s. lorsque n → ∞. De plus, ce processus


ressemble à un élément de H02 (M ), mais n’a aucune raison d’y appartenir car Htni−1 n’est
pas forcément borné. On veut donc montrer que quel que soit ε > 0,
Z t 
n
P (Hs − Hs ) dMs > ε −→ 0.
0 n→∞

Étant donné un paramètre p ∈ N∗ , posons

τp := inf{s ≥ 0 : |Hs | + [M, M ]s ≥ p},


4.4. FORMULE D’ITÔ 75

qui est une suite croissante de temps d’arrêt tendant p.s. vers l’infini. Remarquons que
les processus H τp , (H n )τp sont bornés par p, tout comme [M, M ]τp , donc dans H2 (M τp ).
Ainsi, pour tout p fixé,
"Z 2 #
t Z t 
n τp n 2 τp τp
E (Hs − Hs ) dMs = E (Hs − Hs ) d[M , M ]s
0 0
Z t 
= E (Hsn 2
− Hs ) d[M, M ]s∧τp
0
Z t∧τp 
= E (Hsn 2
− Hs ) d[M, M ]s ,
0

et par convergence dominée ce dernier terme tend vers 0 lorsque n → ∞. Ainsi, en


utilisant la proposition 4.1.8, on obtient que
Z t∧τp Z t∧τp
2 n
L − lim Hs dMs = Hs dMs .
n→∞ 0 0

Enfin, on achève la preuve en remarquant, via l’inégalité de Chebyshev, que pour tout
ε > 0,
Z t   Z t∧τp 
n n
P (Hs − Hs ) dMs > ε = P (Hs − Hs ) dMs > ε; τp > t
0 0
Z t 
n
+P (Hs − Hs ) dMs > ε; τp ≤ t
0
 Z t∧τp 
n
≤ P (Hs − Hs ) dMs > ε + P (τp ≤ t)
0
"Z 2 #
t∧τp
1 n
≤ 2E (Hs − Hs ) dMs + P (τp ≤ t) ,
ε 0

qui tend vers 0 lorsque n puis p tendent vers 0.


En particulier, on notera que si H = f (X) où f est une fonction continue, alors
on a la convergence en probabilité:
pn Z t
X
lim f (X tn
i−1
) (X − X
tn
i tn
i−1
)= f (Xs ) dXs , t ≥ 0.
n→∞ 0
i=1

4.4 Formule d’Itô


À présent, nous allons énoncer et démontrer l’un des résultats les plus importants de la
théorie du calcul stochastique, la formule d’Itô. Ces travaux ont été publiés entre 1942 et
1950 et sont dus au mathématicien japonais récemment décédé, Kiyoshi Itô. Elle montre
76 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

qu’une fonction de classe C 2 de d semimartingales continues est encore une semimartin-


gale continue, et exprime explicitement sa décomposition.
Rappelons que dans le cadre de l’intégration au sens de Stieltjes, un des théorèmes fonda-
mentaux de cette théorie est le suivant: étant donné A un processus continu à variation
bornée et une fonction f : R → R de classe C 1 , on a
Z t
f (At ) − f (A0 ) = f 0 (As ) dAs , t ≥ 0.
0

De même, si B est un autre processus continu à variation bornée, la formule d’intégration


par parties est vérifiée:
Z t Z t
At Bt − A0 B0 = As dBs + Bs dAs , t ≥ 0.
0 0

Évidemment, ces formules ne sont plus valables dès que l’on sort du cadre des processus à
variation bornée. Cependant, en reprenant le même type de démonstration via la formule
de Taylor et en contrôlant de manière adéquate le reste quadratique (qui est négligeable
dans le cas précédent), on est en mesure d’obtenir la fameuse formule d’Itô, faisant donc
apparaı̂tre un terme supplémentaire: la variation quadratique.
Théorème 4.4.1. Soit X 1 , . . . , X d des semimartingales continues et soit f : Rd → R
une fonction de classe C 2 . Alors pour tout t ≥ 0,
d Z t
X ∂f
f (Xt1 , . . . , Xtd ) = f (X01 , . . . , X0d ) + (Xs1 , . . . , Xsd ) dXsi
i=1 0 ∂xi
d t
∂ 2f
Z
1 X
+ (Xs1 , . . . , Xsd ) d[X i , X j ]s . (4.4.1)
2 i,j=1 0 ∂xi ∂xj
Démonstration. Traitons seulement le cas d = 1, la généralisation au cas multidimen-
sionnel étant immédiate (les termes faisant apparaı̂tre les crochets [X i , X j ] se traitent
de la même façon que celui pour le crochet [X, X] qui va suivre), et notons X := X 1 .
Considérons pour tout t ≥ 0 une suite 0 = tn0 < · · · < tnpn = t de subdivisions emboı̂tées
de [0, t] de pas tendant vers 0 lorsque n → ∞. Alors par la formule de Taylor,
pn  
X
f (Xt ) = f (X0 ) + f (Xtni ) − f (Xtni−1 )
i=1
pn  
X
0 fn,i 2
= f (X0 ) + f (Xtni−1 ) (Xtni − Xtni−1 ) + (Xtni − Xtni−1 ) ,
i=1
2

où fn,i est une variable aléatoire satisfaisant

inf f 00 (Xtni−1 + θ (Xtni − Xtni−1 )) ≤ fn,i ≤ sup f 00 (Xtni−1 + θ (Xtni − Xtni−1 )).
θ∈[0,1] θ∈[0,1]
4.4. FORMULE D’ITÔ 77

D’après le lemme 4.3.3, on a la convergence en probabilité suivante:


pn Z t
X
0
lim f (Xtni−1 ) (Xtni − Xtni−1 ) = f 0 (Xs ) dXs .
n→∞ 0
i=1

Montrons alors qu’en probabilité,


pn Z t
X
lim fn,i (Xtni − Xtni−1 ) = 2
f 00 (Xs ) d[X, X]s .
n→∞ 0
i=1

Tout d’abord, commençons par observer que pour m < n,


pn pm
X X X
2
fn,i (Xtni − Xtni−1 ) = fn,i (Xtni − Xtni−1 )2 ,
i=1 j=1 i∈{1,...,pn }
tm <tn ≤tm
j−1 i j

ce qui entraı̂ne l’inégalité suivante:

pn pm pn
X X X X
2 2
fn,i (Xtni − Xtni−1 ) − fm,j (Xtni − Xtni−1 ) ≤ Zm,n (Xtni − Xtni−1 )2 ,
i=1 j=1 i∈{1,...,pn } i=1
tm <tn ≤tm
j−1 i j

où la variable aléatoire Zm,n est donnée par

Zm,n := sup sup |fn,i − fm,j |.


j∈{1,...,pm } i∈{1,...,pn }
tm <tn ≤tm
j−1 i j

f 00 , on vérifie que Zm,n → 0 p.s. quand n puis m → ∞. Comme


Grâce à la continuité de P
par la proposition 3.2.2, pi=1 n
(Xtni − Xtni−1 )2 tend vers [X, X]t en probabilité, il en résulte
Ppn
que Zm,n i=1 (Xtni − Xtni−1 )2 tend vers 0 en probabilité quand n puis m → ∞ (exercice).
Ainsi, pour tout ε > 0, on peut choisir m assez grand de sorte que pour tout n > m,
pn
!
X
P Zm,n (Xtni − Xtni−1 )2 > ε/3 < ε/3.
i=1

Ensuite, pour cette valeur fixée de m, la convergence suivante en probabilité est vérifiée:
pm pm  
X X X
lim fm,j (Xtni − Xtni−1 )2 = fm,j [X, X]tm
j
− [X, X] m
tj−1
n→∞
j=1 i∈{1,...,pn } j=1
tm <tn ≤tm
j−1 i j
Z t
= hm (s) d[X, X]s ,
0
78 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

où hm (s) := pj=1 00


Pm
fm,j 1(tm m (s), qui tend clairement vers f (Xs ) p.s. lorsque m → ∞.
j−1 ,tj ]
Ainsi, quitte à prendre m encore plus grand, on peut supposer que
Z t Z t 
00
P hm (s) d[X, X]s − f (Xs ) d[X, X]s > ε/3 < ε/3.
0 0

Enfin, en combinant ce qui précède, on obtient pour n > m assez grand,


pn Z t !
X
P fn,i (Xtni − Xtni−1 )2 − f 00 (Xs ) d[X, X]s > ε < ε,
i=1 0

d’où la convergence en probabilité désirée. Enfin, on achève la démonstration de la formule


d’Itô de la manière suivante. La convergence en probabilité entraı̂nant la convergence p.s.
d’une sous-suite, (4.4.1) est vérifiée en tant qu’égalité p.s. pour chaque t ≥ 0 fixé, puis
pour tout t ∈ [0, ∞) ∩ Q, p.s., et enfin, les deux membres de l’égalité étant continus, pour
tout t ≥ 0 p.s., ce qui termine la preuve.
Si M est une martingale locale, alors pour toute fonction f : R → R de classe C 2 ,
Z t
1 t 00
Z
0
f (Mt ) = f (M0 ) + f (Ms ) dMs + f (Ms ) d[M, M ]s , t ≥ 0.
0 2 0
| {z } | {z }
martingale locale continu à variation bornée

En particulier, si f 0 (M ) ∈ H2 (M ), alors la martingale locale est une vraie martingale.


Par exemple, la formule d’Itô appliquée à la fonction f (x) = x2 entraı̂ne que
Z t
2 2
Mt − [M, M ]t = M0 + 2 Ms dMs , t ≥ 0.
0

Ainsi, non seulement on retrouve le fait que le processus M 2 − [M, M ] est une martingale,
mais de plus on donne sa valeur sous forme d’intégrale sochastique.
Une autre application intéressante de la formule d’Itô est la formule d’intégration par
parties, généralisant celle vue ci-dessus dans le cadre des processus à variation bornée.

Corollaire 4.4.2. Si X et Y sont deux semimartingales continues, alors


Z t Z t
Xt Yt = X0 Y0 + Ys dXs + Xs dYs + [X, Y ]t , t ≥ 0.
0 0

À présent, regardons plus en détail le cas brownien. En appliquant la formule d’Itô


bidimensionnelle au mouvement brownien B ainsi qu’à la semimartingale déterministe
Xt := t, on obtient pour toute fonction f : (x, t) ∈ R × R+ 7→ f (x, t) ∈ R de classe C 2 en
x et C 1 en t,
Z t Z t
1 ∂ 2f

∂f ∂f
f (Bt , t) = f (0, 0) + (Bs , s) dBs + + (Bs , s) ds, t ≥ 0.
0 ∂x 0 ∂t 2 ∂x2
4.4. FORMULE D’ITÔ 79

En effet, vu que B est une martingale et X un processus continu à variation bornée, la


définition du crochet entraı̂ne pour tout t ≥ 0,
1
[B, X]t = ([B + X, B + X]t − [B, B]t − [X, X]t )
2
1
= ([B, B]t − [B, B]t − 0)
2
= 0,
et en reprenant la démonstration de la formule d’Itô dans ce cadre “dégénéré”, il suffit
de prendre f seulement C 1 en t. On remarque alors que le processus f (B, X) est une
martingale locale si et seulement si l’équation aux dérivées partielles
∂f 1 ∂ 2f
+ = 0,
∂t 2 ∂x2
est satisfaite. Ceci se généralise à la dimension supérieure. On appelle mouvement brown-
ien dans Rd pour la filtration (Ft )t≥0 un vecteur d-dimensionnel B̃ := (B 1 , . . . , B d ) de mou-
vements browniens indépendants et tel que B̃ soit adapté et à accroissements indépendants
pour cette filtration. Remarquons que lorsque i 6= j, on a pour tout t ≥ 0,
1
[B i , B j ]t = [B i + B j , B i + B j ]t − [B i , B i ]t − [B j , B j ]t

2
1
= (2t − t − t)
2
= 0,
car la somme de deux mouvements browniens indépendants est “presque” un mouvement
brownien (processus gaussien continu centré mais de fonction de covariance K(s, t) =
2 s ∧ t). Ainsi, pour toute fonction f : Rd × R+ → R de classe C 2 sur Rd et C 1 sur R+ ,
Z t Z t 
∂f 1
f (B̃t , t) = f (0R d , 0) + < ∇f (B̃s , s), dB̃s > + + ∆f (B̃s , s) ds, t ≥ 0,
0 0 ∂t 2
où l’on a utilisé la notation vectorielle. De même que précédemment, f (B̃, X) est une
martingale locale si et seulement si l’EDP suivante est vérifiée:
∂f 1
+ ∆f = 0,
∂t 2
propriété illustrant le lien étroit entre la théorie des probabilités et les EDP.
Donnons une autre illustration de la formule d’Itô, les inégalités de Burkhölder-Davis-
Gundy.
Théorème 4.4.3. Pour tout réel p > 0, il existe des constantes cp , Cp > 0 telle que pour
toute martingale locale M issue de 0,
∗ p
cp E [M, M ]p/2 ) ] ≤ Cp E [M, M ]p/2
   
∞ ≤ E [(M∞ ∞ ,

où comme dans le chapitre 2, M∞ := supt≥0 |Mt |.
80 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Remarquons que si τ est un temps d’arrêt quelconque, alors en remplaçant M par la


martingale arrêtée M τ , on obtient les mêmes inégalités avec τ à la place de ∞.
Démonstration. Nous n’allons démontrer les bornes supérieure et inférieure que dans les
cas p ≥ 2 et p ∈ {2} ∪ [4, ∞), respectivement. La généralisation pourra être consultée au
théorème 4.1 de la bible probabiliste de Revuz-Yor [4]. Par ailleurs, on peut se restreindre
sans perte de généralité au cas d’une martingale bornée, quitte à remplacer M par M τn
pour tout n ∈ N, où τn := inf{t ≥ 0 : |Mt | ≥ n}, auquel cas M ∈ M2 .
Commençons par le cas p = 2. On a par l’inégalité de Doob L2 ,
 2
E [[M, M ]∞ ] = E M∞
 ∗ 2
≤ E (M∞ )
≤ 4 sup E Mt2
 
t≥0
= 4 E [[M, M ]∞ ] .
À présent, démontrons la borne supérieure pour p > 2. La fonction x 7→ |x|p étant C 2 , la
formule d’Itô entraı̂ne pour tout t ≥ 0,
Z t
1 t
Z
p p−1
|Mt | = p|Ms | sign(Ms ) dMs + p(p − 1)|Ms |p−2 d[M, M ]s .
0 2 0
Notons que l’intégrale stochastique est aussi dans M2 car M est bornée. En passant à
l’espérance et en utilisant les inégalités de Hölder,
Z t 
p p(p − 1) p−2
E [|Mt | ] = E |Ms | d[M, M ]s
2 0
p(p − 1)  ∗ p−2 
≤ E (Mt ) [M, M ]t
2
p(p − 1) h
p/2
i2/p
≤ E [(Mt∗ )p ](p−2)/p E [M, M ]t .
2
Ainsi, par l’inégalité de Doob Lp , on obtient
 p
p−1
E [(Mt∗ )p ] ≤ E [|Mt |p ]
p
p(p − 1) h
p/2
i2/p
≤ E [(Mt∗ )p ](p−2)/p E [M, M ]t ,
2
et en simplifiant cette dernière expression, le résultat désiré est démontré (par convergence
monotone, on peut passer à la limite dans l’inégalité lorsque t → ∞).
Pour démontrer la borne inférieure dans le cas p ≥ 4, on procède de manière similaire.
Notons que la constante cp qui va apparaı̂tre dans ce qui suit désigne une constante ne
dépendant que de p, mais changeant éventuellement de ligne à ligne. Tout d’abord, de
l’identité Z t
2
Mt = 2 Ms dMs + [M, M ]t , t ≥ 0,
0
4.4. FORMULE D’ITÔ 81

on obtient en utilisant l’inégalité triviale |x + y|p ≤ cp (|x|p + |y|p ),


"Z p/2
#!
h i t
p/2
E [M, M ]t ≤ cp E [(Mt∗ )p ] + E Ms dMs
0
"Z p/4 #!
t
≤ cp E [(Mt∗ )p ] + E Ms2 d[M, M ]s
0
 h i
p/4
≤ cp E [(Mt∗ )p ] + E (Mt∗ )p/2 [M, M ]t
q r h !
i
p/2
≤ cp E [(Mt∗ )p ] + E [(Mt∗ )p ] E [M, M ]t ,

où pour obtenir les seconde et quatrième inégalités, on a utilisé la borne supérieure de
l’inégalité de BDG juste démontrée, ainsi que Cauchy-Schwarz, respectivement. Si main-
tenant on note r h q
i
p/2
x := E [M, M ]t et y := E [(Mt∗ )p ],

alors l’inégalité précédente se réécrit comme

x2 − cp xy − cp y 2 ≤ 0,

ce qui entraı̂ne que x est plus petit que la racine carrée positive de l’équation x2 − cp xy −
cp y 2 = 0, qui est de la forme cp y. La démonstration est achevée en faisant tendre t vers
l’infini.
En application des inégalités de BDG, on obtient pour le mouvement brownien B
et pour tout temps d’arrêt τ ,
" #
 p/2 
≤ E sup |Bt | ≤ Cp E τ p/2 .
p
 
cp E τ
t∈[0,τ ]

La formule d’Itô nous permet d’exhiber de nouvelle martingales locales, comme la classe
des martingales exponentielles, généralisant celles rencontrées au début du chapitre 2 pour
les processus à accroissements indépendants. On dit qu’un processus à valeurs dans C
est une martingale locale si ses parties réelle et imaginaire le sont. La démonstration du
prochain résultat est laissée en exercice.
Corollaire 4.4.4. Soit M une martingale locale et soit λ ∈ C. Alors le processus donné
par
λ2
 
E (λM )t := exp λMt − [M, M ]t , t ≥ 0,
2
est une martingale locale à valeurs dans C.
Maintenant, énonçons le théorème de Lévy, stipulant que toute martingale locale
dont le crochet est celui d’un mouvement brownien, est en fait un mouvement brownien.
82 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Théorème 4.4.5 (Lévy). Soit M un processus continu issu de 0 et adapté par rapport à
la filtration (Ft )t≥0 . Alors les assertions suivantes sont équivalentes:
(i) M est un mouvement brownien pour la filtration (Ft )t≥0 .
(ii) M est une martingale locale par rapport à (Ft )t≥0 , et de crochet [M, M ]t = t.
Démonstration. Seul le point (ii) ⇒ (i) est à démontrer. Ainsi, supposons que M soit une
martingale locale de crochet [M, M ]t = t. Étant donné θ ∈ R, le corollaire 4.4.4 indique
que le processus E (iθM ) est une martingale locale, qui est bornée sur tout intervalle [0, T ],
T > 0 arbitraire, donc une vraie martingale sur [0, T ] (et donc sur R+ ). D’où pour tous
0 ≤ s ≤ t,
θ2 t θ2 s
h i
E eiθMt + 2 | Fs = eiθMs + 2 ,
ou encore que
θ 2 (t−s)
E eiθ(Mt −Ms ) | Fs = e− 2 ,
 

Ainsi, on en déduit que Mt − Ms ∼ N (0, t − s) mais aussi que Mt − Ms est indépendante


de la tribu Fs . Il reste à démontrer que M est un processus gaussien, ce qui est clair car
si d ∈ N∗ , α ∈ Rd et 0 = t0 < · · · < td , alors
d d X i d d
!
X X X X
αi Mti = αi (Mtj − Mtj−1 ) = αi (Mtj − Mtj−1 ),
i=1 i=1 j=1 j=1 i=j

qui est donc la somme de variables aléatoires gaussiennes indépendantes, donc une variable
gaussienne.
Terminons ce paragraphe par le théorème de Dubins-Schwarz, énonçant que toute
martingale locale issue de 0 est un mouvement brownien changé de temps.
Théorème 4.4.6 (Dubins-Schwarz). Soit M une martingale locale issue de 0 et telle que
p.s., [M, M ]∞ = ∞. Alors il existe un mouvement brownien B tel que p.s.,

Mt = B[M,M ]t , t ≥ 0.

Avant de démontrer ce résultat, mentionnons que ce théorème reste vrai dans le cas ou
p.s., [M, M ]∞ < ∞, quitte à grossir l’espace de probabilité sous-jacent. Par ailleurs,
notons que le mouvement brownien ci-dessus l’est par rapport à une filtration changée de
temps. En effet, si l’on définit le temps d’arrêt (fini d’après l’hypothèse sur le crochet):

τr = inf{t ≥ 0 : [M, M ]t > r}, r ≥ 0,

qui est l’inverse généralisé du crochet (ce dernier n’est pas forcément strictement crois-
sant), alors Br = Mτr qui est adapté par rapport à la filtration (Gr )r≥0 donnée par
Gr = Fτr . On peut montrer que cette filtration est standard.
Démonstration. Tout d’abord, notons que la fonction r → τr est croissante, continue à
droite, et admet une limite à gauche (fonction dite càdlàg). On a aussi que

τr− := lim τs = inf{t ≥ 0 : [M, M ]t ≥ r},


s↑r
4.5. THÉORÈME DE GIRSANOV 83

avec par convention que τ0− = 0. De plus, on remarque que τr 6= τr− si et seulement si
[M, M ]s = r pour tout s ∈ [τr− , τr ]. Ainsi, la fonction r → τr est continue si et seulement
si [M, M ] est strictement croissant. Enfin, notons que [M, M ] et (τr )r≥0 ne jouent pas un
rôle complètement symétrique car on a toujours que

[M, M ]τr = [M, M ]τr− = r,

alors qu’en général on a seulement que τ[M,M ]t ≥ t: τ[M,M ]t > t si t est dans un intervalle
de constance du crochet [M, M ], i.e.

[M, M ]t = [M, M ]τ[M,M ]t .

Posons Br = Mτr pour tout r ≥ 0. On peut montrer (exercice) que les intervalles de
constance de M et [M, M ] sont p.s. les mêmes. D’où p.s. pour tout r ≥ 0,

Br = Mτr = Mτr− = lim Mτs = lim Bs .


s↑r s↑r

Comme les trajectoires de B défini ci-dessus sont clairement continues à droite, on en


déduit que le processus B est continu. Vérifions à présent que B et (Br2 − r)r≥0 sont des
martingales pour la filtration (Gr )r≥0 . Soient 0 ≤ r ≤ s ≤ n. Vu que l’on a

E [[M, M ]τ∞n ] = n < ∞,

le théorème 3.1.7 nous dit que M τn est une vraie martingale bornée dans L2 donc uni-
formément intégrable, et de surcroı̂t (M 2 )τn − [M, M ]τn est aussi une martingale uni-
formément intégrable. Ainsi, le théorème d’arrêt entraı̂ne

E [Bs | Gr ] = E Mττsn | Fτr = Mττrn = Br ,


 

E Bs2 − s | Gr = E (Mττsn )2 − [M τn , M τn ]τs | Fτr = (Mττrn )2 − [M τn , M τn ]τr = Br2 − r.


   

Par ailleurs, ceci démontre par unicité de la variation quadratique que [B, B]s = s et le
théorème de Lévy implique que B est bien un mouvement brownien pour la filtration
(Gr )r≥0 . Finalement, par définition de B, on a pour tout t ≥ 0,

B[M,M ]t = Mτ[M,M ]t .

Ainsi, dans le cas où τ[M,M ]t > t, on a que t est dans un intervalle de constance de [M, M ],
donc de M , et on en déduit alors que p.s. pour tout t ≥ 0, Mt = B[M,M ]t .

4.5 Théorème de Girsanov


L’objectif de ce dernier paragraphe est d’étudier comment se transforment les notions de
semimartingales et de martingales lorsque l’on remplace la probabilité générique P par une
probabilité Q absolument continue par rapport à P. On rappelle que F∞ := σ(Ft : t ≥ 0).
Commençons par donner deux lemmes qui vont nous servir dans la suite.
84 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Lemme 4.5.1. Soit Q une probabilité absolument continue (sur F∞ ) par rapport à P,
de dérivée de Radon-Nikodym dQ/dP. Pour tout t ∈ [0, ∞), notons Dt la restriction de
dQ/dP à la tribu Ft , que l’on suppose continue. Alors,
(i) le processus D est une P-martingale continue uniformément intégrable.
(ii) pour tout temps d’arrêt τ , Dτ est la restriction de dQ/dP à la tribu Fτ .
(iii) si l’on suppose que les deux probabilités sont équivalentes, i.e. P est aussi une
probabilité absolument continue par rapport à Q, alors p.s. Dt > 0 pour tout t ≥ 0.
Démonstration. (i): Pour tout A ∈ Ft , on a
    
dQ dQ
Q(A) = EQ [1A ] = EP 1A = EP 1A EP | Ft .
dP dP

Ainsi, par unicité de la dérivée de Radon-Nikodym, on a que p.s.,


 
dQ
Dt = EP | Ft ,
dP

ce qui entraı̂ne que le processus D est une P-martingale continue fermée (par dQ/dP)
donc uniformément intégrable. On note dans la suite D∞ := dQ/dP.
(ii): Si τ est un temps d’arrêt, alors pour tout A ∈ Fτ , on a par le théorème d’arrêt,

Q(A) = EQ [1A ] = EP [1A D∞ ] = EP [1A Dτ ] ,

d’où la conclusion puisque Dτ est Fτ -mesurable.


(iii): Considérons le temps d’arrêt τ := inf{t ≥ 0 : Dt = 0}. Par continuité, on a
p.s. Dτ = 0 sur A := {τ < ∞} ∈ Fτ . Enfin, l’égalité Q(A) = EP [1A Dτ ] entraı̂ne que
Q(A) = 0, donc que P(A) = 0 par absolue continuité de P par rapport à Q.

Lemme 4.5.2. Soit D une martingale locale strictement positive. Alors il existe une
unique martingale locale L telle que
 
1
D = exp L − [L, L] = E (L).
2

De plus, le processus L est donné par la formule


Z t
dDs
Lt = log(D0 ) + , t ≥ 0.
0 Ds
Démonstration. L’unicité est une conséquence de la proposition 3.1.4. Pour l’existence, il
suffit d’appliquer la formule d’Itô à la fonction logarithme, le processus D étant strictement
positif. On remarquera qu’il est inutile de se fatiguer à calculer le crochet [D, D] car L
défini comme ci-dessus satisfait d[L, L] = d[D, D]/D2 .
4.5. THÉORÈME DE GIRSANOV 85

À présent, nous sommes en mesure d’énoncer le théorème de Girsanov.


Théorème 4.5.3 (Girsanov). Soit Q une probabilité équivalente à P sur la tribu F∞ .
Considérons D la martingale (supposée continue) associée à Q par le lemme 4.5.1, ainsi
que L la martingale locale associée à D par le lemme 4.5.2. Alors si M est une P-
f := M − [M, L] est une Q-martingale locale.
martingale locale, le processus M
Démonstration. Tout d’abord, montrons que si τ est un temps d’arrêt et si X est
un processus continu adapté tel que (XD)τ est une P-martingale, alors X τ est une Q-
martingale. Par le lemme 4.5.1, on a
EQ [|Xt∧τ |] = EP [|Xt∧τ Dt∧τ |] < ∞,
donc que Xt∧τ ∈ L1 (Q). Ensuite, soient 0 < s < t et A ∈ Fs . Puisque A ∩ {τ > s} ∈ Fs
(car τ est un temps d’arrêt), on a, en utilisant le fait que (XD)τ est une P-martingale,
   
EP 1A∩{τ >s} Xt∧τ Dt∧τ = EP 1A∩{τ >s} Xs∧τ Ds∧τ .
Par le lemme 4.5.1,
dQ dQ
Dt∧τ = |Ft∧τ et Ds∧τ = |Fs∧τ ,
dP dP
et donc puisque A ∩ {τ > s} ∈ Fs∧τ ⊂ Ft∧τ (utiliser Fs∧τ = Fs ∩ Fτ et revenir à la
définition de Fτ ), il vient
   
EQ 1A∩{τ >s} Xt∧τ = EQ 1A∩{τ >s} Xs∧τ .
D’autre part, il est immédiat que
     
EQ 1A∩{τ ≤s} Xt∧τ = EQ 1A∩{τ ≤s} Xτ = EQ 1A∩{τ ≤s} Xs∧τ ,
d’où on en déduit que pour tout A ∈ Fs ,
EQ [1A Xt∧τ ] = EQ [1A Xs∧τ ] ,
c’est-à-dire que X τ est une Q-martingale.
Une conséquence de ce qui précède est que si XD est une P-martingale locale, alors X
est une Q-martingale locale. Maintenant, si M est une P-martingale locale, on applique
ce qui précède avec X = M f, en remarquant que par la formule d’Itô, pour tout t ≥ 0,
Z t Z t
Mt Dt = M0 D0 +
f f Ms dDs +
f Ds dM
fs + [M
f, D]t
Z0 t Z0 t Z t
= M0 D0 + Ms dDs +
f Ds dMs − Ds d[M, L]s + [M, D]t
0 0 0
Z t Z t
= M0 D0 + M
fs dDs + Ds dMs ,
0 0

car d[M, L] = d[M, D]/D d’après le lemme 4.5.2. On voit ainsi que M fD est une P-
martingale locale, donc que M
f est une Q-martingale locale, ce qui termine la preuve.
86 CHAPITRE 4. INTÉGRATION STOCHASTIQUE

Faisons quelques remarques sur ce résultat très important.


(i) Une P-martingale locale M reste une Q-semimartingale continue, dont la décom-
position est
M =M f + [M, L].

On voit ainsi que la classe des P-semimartingales continues est contenue dans celle des
Q-semimartingales continues. En fait, ces deux classes coı̈ncident car P et Q jouent des
rôles symétriques dans le théorème de Girsanov. En effet, si l’on applique le théorème
à M = (−L), le processus (−L)] = (−L) − [(−L), L] est une Q-martingale locale avec
] (−L)]
[(−L), ] = [L, L]. D’où
   
1 ] ] 1 1 1
E ((−L)) = exp (−L) − [(−L), (−L)] = exp −L + [L, L] =
] ] = .
2 2 E (L) D

Cela montre que l’on peut échanger les rôles de P et Q quitte à remplacer D par 1/D et
]
L par (−L).
(ii) Remarquons que la valeur du crochet est la même sous P et Q (ceci a été
] car il est toujours donné par
implicitement utilisé pour déterminer le crochet de (−L))
l’approximation en probabilité des théorème 3.1.5 et proposition 3.2.2, respectivement.
(iii) L’application TP →Q : M → TP →Q (M ) := M f est un opérateur linéaire de
l’espace des martingales locales par rapport à P vers celui des martingales locales par
rapport à Q. On vérifie facilement que TQ →P ◦ TP →Q = Id. De plus, l’opérateur TP →Q
commute avec l’intégrale stochastique: si H est un processus localement borné, alors pour
tout t ≥ 0,
Z t Z t Z t
Hs dTP →Q (M )s = Hs dMs −
Hs d[M, L]s
0 0 0
Z t Z · 
= Hs dMs − Hs dMs , L
0 0 t
Z · 
= TP →Q Hs dMs .
0 t

(iv) Enfin, mentionnons que le théorème de Girsanov reste vrai lorsque l’on rem-
place ∞ par un horizon fini T > 0, ce qui est souvent utilisé en pratique.
Finissons ce chapitre en appliquant le théorème de Girsanov au mouvement brownien.
Soit H un processus satisfaisant la condition de Novikov :
  Z ∞ 
1 2
E exp Ht dt < ∞.
2 0

En notant L l’intégrale stochastique de H par rapport à B, qui est une martingale uni-
formément intégrable, on peut montrer que E (L) l’est aussi (ardu). En particulier on a
E [E (L)∞ ] = E [E (L)0 ] = 1 et donc en définissant la probabilité Q comme dQ = E (L)∞ dP,
4.5. THÉORÈME DE GIRSANOV 87

e donné pour tout t ≥ 0 par


le théorème de Girsanov entraı̂ne que le processus B
 Z ·  Z t Z t
Bt := Bt − B,
f Hs dBs = Bt − Hs d[B, B]s = Bt − Hs ds,
0 t 0 0

est non seulement une martingale locale par rapport à Q, mais aussi, en calculant son
crochet, un Q-mouvement brownien par le théorème de Lévy.
88 CHAPITRE 4. INTÉGRATION STOCHASTIQUE
Chapitre 5

Équations différentielles
stochastiques

La plupart des processus continus importants en pratique satisfont une équation de la


forme Z t Z t
X t = x0 + b(s, Xs ) ds + σ(s, Xs ) dBs ,
0 0
ou sous une forme différentielle,

dXt = b(t, Xt ) dt + σ(t, Xt ) dBt ;
X 0 = x0 .

Comme nous l’avons vu avec la formule d’Itô dans le chapitre précédent, il existe un lien
étroit entre la théorie des probabilités et celles plus anciennes des équations aux dérivées
partielles, et ce type d’équations différentielles stochastiques (EDS) ci-dessus permet de
passer de l’une à l’autre. Pour illustrer notre propos, nous allons d’abord introduire
trois EDS classiques et montrer comment leurs solutions peuvent être trouvées par des
méthodes simples. En revanche, dès que l’on complexifie un peu l’équation, comme dans
le cas déterministe, il s’avère que ces méthodes de résolution ne sont plus accessibles et
se posent alors les questions d’existence et d’unicité de ces solutions.

5.1 Trois exemples classiques


5.1.1 Le mouvement brownien géométrique
Commençons par une équation linéaire des plus connues:

dXt = µ Xt dt + σXt dBt ;
X0 = x0 > 0;

où les constantes µ et σ sont dans R et (0, ∞), respectivement. Pour résoudre cette EDS,
nous allons utiliser la formule d’Itô et rechercher une solution de la forme Xt = f (Bt , t).

89
90 CHAPITRE 5. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

On obtient alors:
 
1
dXt = fx (Bt , t) dBt + fxx (Bt , t) + ft (Bt , t) dt,
2
où fx et ft désignent les dérivées premières de f en espace et en temps, respectivement,
et fxx est la dérivée seconde en espace. Par identification des coefficients, on a:
µ f (x, t) = 12 fxx (x, t) + ft (x, t);


σ f (x, t) = fx (x, t);

Une solution de la seconde équation est de la forme f (x, t) = exp (σx + g(t)), où g est
une fonction arbitraire. Ainsi, en la réinjectant dans la première équation, on trouve que
g doit satisfaire g 0 (t) = µ − σ 2 /2. Il en résulte alors qu’une solution de l’EDS est
σ2
   
Xt = x0 exp σ Bt + µ − t .
2
Pour le moment, nous devons admettre qu’il puisse y avoir d’autres solutions à cette
EDS. On verra plus tard qu’en fait il s’agit de l’unique solution. Ce processus, appelé
communément mouvement brownien géométrique, est l’un des plus utilisés dans le calcul
stochastique, et en particulier en finance et en économie (c’est le fameux modèle de Black-
Scholes). Concernant ce processus, on notera un étrange phénomène: on a E[Xt ] = x0 eµt
tandis que comme p.s., Bt /t → 0 lorsque t → ∞, on montre que p.s., Xt → 0 dans le cas
où σ 2 > 2µ: Xt tend p.s. vers 0 alors qu’en moyenne il tend vers l’infini très rapidement,
à une vitesse exponentielle.

5.1.2 Le processus d’Ornstein-Uhlenbeck


La méthode d’identification que l’on vient de proposer dans le cas du mouvement brownien
géométrique est souvent efficace, mais elle peut très bien se révéler inutile pour des cas très
simples, comme celui que nous allons regarder maintenant. L’EDS que l’on va considérer
est la suivante: 
dXt = −α Xt dt + σ dBt ;
X0 = x0 ∈ R;
où α, σ > 0. Ce modèle a été introduit au début des années 30 par les physiciens Ornstein
et Uhlenbeck lorsqu’ils ont étudié la théorie cinétique des gaz, et plus précisément le
comportement en vitesse de ces molécules. Notons tout de même que cette équation était
écrite légèrement différemment, “à la physicienne”, car le calcul stochastique introduit par
Itô n’est né que 10 ans après. Bien que la solution de cette EDS soit simple, comme nous
allons le voir ultérieurement, elle n’est pas de la forme précédente f (Bt , t) car elle dépend
de toute la trajectoire du mouvement brownien jusqu’à l’instant t, et non seulement de
Bt . Ainsi, pour appliquer la méthode d’identification précédente, on va la chercher sous
la forme  Z t 
Xt = a(t) x0 + b(s) dBs ,
0
5.1. TROIS EXEMPLES CLASSIQUES 91

où a et b sont des fonctions régulières à déterminer et a(0) = 1. En appliquant la formule


d’Itô, ou plutôt la formule d’intégration par parties, on obtient:
 Z t 
0
dXt = a (t) x0 + b(s) dBs dt + a(t)b(t) dBt .
0

Par ailleurs, si l’on suppose que a(t) > 0 pour tout t > 0, alors X est solution de l’EDS
( 0 (t)
dXt = aa(t) Xt dt + a(t)b(t) dBt ;
X0 = x0 ∈ R;
et en revenant à l’EDS initiale, on obtient les équations
( 0
a (t)
a(t)
= −α;
a(t) b(t) = σ.
Finalement, la solution de l’EDS est
Z t
−αt
X t = x0 e +σ e−α(t−s) dBs , t ≥ 0.
0

5.1.3 Le pont brownien


Considérons l’EDS suivante sur [0, 1):
Xt

dXt = − 1−t dt + dBt ;
X0 = 0.
Par la méthode précédente, on obtient le système
( 0
a (t) 1
a(t)
= − 1−t ;
a(t) b(t) = 1;
ce qui entraı̂ne que la solution de cette équation est donnée par
Z t
dBs
Xt = (1 − t) , t ∈ [0, 1).
0 1−s
En utilisant la méthode que l’on a appliquée pour démontrer le théorème de Lévy au
chapitre précédent (avec la filtration naturelle standard du mouvement brownien), on
démontre aisément (exercice) que ce processus est gaussien centré et de fonction de covari-
ance K(s, t) = s (1−t) pour tous 0 ≤ s ≤ t < 1 (utiliser l’isométrie d’Itô et l’indépendance
des accroissements browniens). Comme il est continu sur [0, 1), on montre (comme pour
l’invariance du mouvement brownien par retournement du temps) que p.s., Xt → 0 lorsque
t → 1. Ainsi, ce processus part de 0 et y revient p.s. au temps t = 1: on parle alors de
pont brownien. Notons qu’il existe plusieurs représentations du pont brownien. En effet,
nous pouvions tout à fait introduire ce processus autrement: par exemple, le processus
Bt − t B1 convient car il est gaussien, continu sur [0, 1], centré et a la même fonction
de covariance. Par contre, il diffère du premier car il n’est pas adapté par rapport à la
filtration naturelle standard du mouvement brownien, alors que X l’est.
92 CHAPITRE 5. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

5.2 Théorème d’existence et d’unicité de la solution


Le but de cette dernière partie est d’énoncer et de démontrer le théorème d’existence et
d’unicité des solutions des EDS du type de celle introduite en premier lieu dans ce chapitre.
Il existe plusieurs notions d’existence et d’unicité pour les solutions d’EDS. Cependant,
nous n’étudierons pas la notion de solution faible (pour l’unicité faible : toutes les solutions
ont même loi), ni de solution forte (la solution est adaptée par rapport à la filtration
standard du mouvement brownien sous-jacent), ni de l’interprétation markovienne de ce
processus (ceci ferait l’objet d’un cours au moins aussi dense que celui-ci). Notons tout de
même que le théorème de Yamada-Watanabe stipule que l’existence et l’unicité définies
ci-dessous entraı̂ne que la solution est en fait une solution forte.

Théorème 5.2.1. Étant donné un horizon fini T > 0, considérons l’EDS suivante sur
[0, T ]:

dXt = b(t, Xt ) dt + σ(t, Xt ) dBt ;
X 0 = x0 .
Supposons les coefficients b et σ localement bornés en temps et lipschitziens en espace, i.e.
pour tout t ∈ [0, T ],

|b(t, x) − b(t, y)|2 + |σ(t, x) − σ(t, y)|2 ≤ K |x − y|2 . (5.2.1)

Alors on a le résultat suivant :


(i) existence : il existe une solution X sur [0, T ] continue et adaptée, qui de plus
est bornée dans L2 :
sup E Xt2 < ∞.
 
t∈[0,T ]

(ii) unicité : si X et Y sont deux telles solutions de cette EDS (avec le même
mouvement brownien et le même point initial), alors elles sont égales p.s., i.e.

P (Xt = Yt ∀ t ∈ [0, T ]) = 1.

Avant de démontrer ce résultat, notons qu’il existe des généralisations à la dimen-


sion supérieure, où B est un mouvement brownien dans Rm , le processus solution X est
à valeurs dans Rd , σ est une fonction à valeurs dans l’ensemble des matrices réelles de
taille d × m, et enfin b est une fonction à valeurs dans Rd . Notons aussi que la condition
initiale n’est supposée déterministe que pour simplifier, ceci pouvant être généralisé à une
v.a. F0 −mesurable, de carré intégrable et indépendante du mouvement brownien B. Par
ailleurs, la conclusion de ce théorème reste valable dans le cadre d’hypothèses affaiblies.
Par exemple b et σ peuvent être supposées localement lipschitziennes en espace et satis-
faisant une condition de croissance linéaire convenable pour éviter une explosion en temps
fini.
Pour attaquer la preuve du théorème, rappelons tout d’abord le lemme de Gronwall.
5.2. THÉORÈME D’EXISTENCE ET D’UNICITÉ DE LA SOLUTION 93

Lemme 5.2.2. Soit g : [0, T ] → R une fonction positive mesurable bornée. Supposons
qu’il existe deux constantes a, b ≥ 0 telles que pour tout t ∈ [0, T ],
Z t
g(t) ≤ a + b g(s) ds.
0

Alors on a pour tout t ∈ [0, T ],


g(t) ≤ a ebt .
Démonstration. En itérant la condition sur g, on trouve que pour tout entier n ≥ 1,
n Z t Z s1 Z sn
X (bt)n n+1
g(t) ≤ a +b ds1 ds2 · · · g(sn+1 ) dsn+1 .
k=0
n! 0 0 0

Ainsi, g étant majorée par une constante A, on obtient que le reste intégral dans le terme
de droite est majoré par A(bt)n+1 /(n + 1)! et donc tend vers 0 lorsque n → ∞.
À présent, nous sommes en mesure de démontrer le théorème d’existence et d’unicité.
Démonstration. (ii) Unicité.
Soient X et Y deux solutions de l’EDS ci-dessus. Alors pour tout t ∈ [0, T ],
Z t Z t
Xt − Yt = (b(s, Xs ) − b(s, Ys )) ds + (σ(s, Xs ) − σ(s, Ys )) dBs .
0 0

Notons que les fonctions σ et b étant lipschitziennes et les processus X et Y bornés dans L2
sur [0, T ], l’intégrale stochastique est bien définie, i.e. σ(·, X)−σ(·, Y ) ∈ H2 (B, T ). Ainsi,
en utilisant successivement les inégalités (u + v)2 ≤ 2 (u2 + v 2 ) et de Cauchy-Schwarz,
l’isométrie d’Itô et enfin l’inégalité (5.2.1), on obtient:
"Z 2 #
t
E (Xt − Yt )2 ≤ 2 E
 
(b(s, Xs ) − b(s, Ys )) ds
0
"Z 2 #
t
+2 E (σ(s, Xs ) − σ(s, Ys )) dBs
0
Z t 
2
≤ 2t E (b(s, Xs ) − b(s, Ys )) ds
Z0 t 
2
+2 E (σ(s, Xs ) − σ(s, Ys )) ds
0
Z t
E (Xs − Ys )2 ds.
 
≤ 2K max{T, 1}
0

D’où par le lemme de Gronwall appliqué avec a = 0, on obtient que P(Xt = Yt ) = 1 pour
tout t ∈ [0, T ]. Enfin, comme

P(Xt = Yt ∀t ∈ [0, T ] ∩ Q) = 1,
94 CHAPITRE 5. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

on obtient le résultat escompté en utilisant la continuité de ces deux processus.


(i) Existence.
Afin de démontrer l’existence d’une solution à l’EDS, nous allons utiliser une méthode
qui est classique en théorie des équations différentielles ordinaires, l’itération de Picard.
Ainsi, soit X (0) := x0 et définissons par récurrence la suite de processus (X (n) )n≥0 par
Z t Z t
(n+1) (n)
Xt = x0 + b(s, Xs ) ds + σ(s, Xs(n) ) dBs , t ∈ [0, T ]. (5.2.2)
0 0

Comme d’habitude, pour montrer que cette suite de processus converge vers une limite
qui satisfait l’énoncé du théorème, on va montrer que p.s. elle est de Cauchy pour la
norme uniforme sur [0, T ].
Tout d’abord, remarquons que l’itération donnée ci-dessus est bien définie. En effet, si
X (n) est un processus continu, adapté et borné dans L2 sur [0, T ], l’inégalité (5.2.1) ainsi
que le fait que σ et b soient localement bornées en temps nous donnent facilement que
σ(·, X (n) ) et b(·, X (n) ) sont bornés dans L2 sur [0, T ] (et donc comme ils sont continus
et adaptés, ils appartiennent à l’espace H2 (B, T )). Ainsi, on obtient que X (n+1) est un
processus continu, adapté et borné dans L2 sur [0, T ]. Et comme X (0) = x0 est trivialement
continu, adapté et borné dans L2 sur [0, T ], tous les processus X (n) le sont.
À présent, par la même méthode que celle utilisée pour l’unicité, où cette fois l’inégalité
de Doob L2 est invoquée pour contrôler le supremum, il n’est pas difficile de montrer que
pour tout n ∈ N∗ et tout t ∈ [0, T ],
Z t
gn (t) ≤ C gn−1 (s) ds,
0

où C := 8K max{T, 1} et
" #
gn (t) := E sup |Xs(n+1) − Xs(n) |2 .
s∈[0,t]

Ainsi, comme g0 est majorée par une constante M sur [0, T ], alors en itérant l’inégalité
ci-dessus comme dans la preuve du lemme de Gronwall, on obtient la borne
M (CT )n
0 ≤ gn (T ) ≤ , n ∈ N.
n!
En sommant sur n et par l’inégalité de Cauchy-Schwarz, il vient
" #
X Xp
E sup |Xs(n+1) − Xs(n) | ≤ gn (T ) < ∞,
n∈N s∈[0,T ] n∈N

donc que p.s., X


sup |Xs(n+1) − Xs(n) | < ∞.
n∈N s∈[0,T ]
5.2. THÉORÈME D’EXISTENCE ET D’UNICITÉ DE LA SOLUTION 95

Il en résulte que la suite de processus (X (n) )n∈N est de Cauchy p.s. pour la norme uniforme
sur [0, T ]: elle converge alors p.s. uniformément sur [0, T ] vers un processus adapté X
continu sur [0, T ], satisfaisant pour tout n ∈ N,
(n)
X (k+1) (k)
Xt = X t + (Xt − Xt ), t ∈ [0, T ].
k≥n

En particulier, on a par l’inégalité triangulaire que



 k supt∈[0,T ] |Xt − Xt(n) |kL2 ≤
P p
k≥n gk (T ) −→ 0;
n→∞
 k sup P p
t∈[0,T ] |Xt |kL2 ≤ |x0 | + k∈N gk (T ) < ∞,

et donc X est borné dans L2 sur [0, T ].


Maintenant, il reste à montrer que X vérifie bien l’EDS donnée ci-dessus. Notons que par
ce qui précède et l’inégalité (5.2.1), on a que b(·, X) et σ(·, X) ∈ H2 (B, T ) et de plus,

 kb(·, X) − b(·, X (n) )kH2 (B,T ) −→ 0;
n→∞
 kσ(·, X) − σ(·, X (n) )kH2 (B,T ) −→ 0.
n→∞

Ainsi, par l’isométrie d’Itô, on obtient pour tout t ∈ [0, T ]:


"Z 2 #
t
σ(s, Xs ) − σ(s, Xs(n) ) dBs

E −→ 0.
0 n→∞

La convergence dans L2 entraı̂nant la convergence p.s. d’une sous-suite, alors pour tout
t ∈ [0, T ], on a p.s.,
 Rt (n ) Rt
 0 b(s, Xs k ) ds −→ 0 b(s, Xs ) ds;
k→∞
 t σ(s, Xs(nk ) ) dBs −→ R t σ(s, Xs ) dBs ,
R
0 k→∞ 0

d’où en remplaçant n par nk dans l’identité (5.2.2) et en passant à la limite p.s. lorsque
k → ∞, on obtient pour tout t ∈ [0, T ], p.s.,
Z t Z t
X t = x0 + b(s, Xs ) ds + σ(s, Xs ) dBs .
0 0

Enfin, en prenant t ∈ [0, T ] ∩ Q on peut intervertir avec le “p.s.” et les deux membres de
cette égalité étant continus sur [0, T ], on obtient le résultat désiré, à savoir
 Z t Z t 
P X t = x0 + b(s, Xs ) ds + σ(s, Xs ) dBs ∀t ∈ [0, T ] = 1.
0 0

La démonstration est achevée.


96 CHAPITRE 5. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
Annexe A

Examen du 3 février 2011

La durée de l’examen est de 3 heures. Seul le polycopié est autorisé lors de l’épreuve.
Vous pourrez considérer comme acquis tous les résultats démontrés en cours.
Le barême donné ci-dessous est approximatif.

Tout au long de cet examen, (Ω, A, P) est un espace de probabilité sur lequel est défini
un mouvement brownien B sur R+ , muni de sa filtration naturelle standard (Ft )t≥0 .

Exercice 1 - Temps d’atteinte du mouvement brownien (8 pts)


Dans cet exercice, on considère le temps d’arrêt suivant: pour tous a, b > 0,

T(−a,b) := inf{t ≥ 0 : Bt = −a ou Bt = b}.

1 - En faisant apparaı̂tre des accroissements browniens bien choisis, déterminez une con-
stante ε ∈]0, 1[ telle que pour tout n ∈ N∗ ,

P(T(−a,b) > n) ≤ εn ,

et déduisez-en que T(−a,b) est presque sûrement fini.


2 - Montrez que E[(T(−a,b) )p ] < ∞ pour tout p ∈ N∗ .
3 - En utilisant une martingale arrêtée convenable, dont vous montrerez qu’elle est uni-
formément intégrable, vérifiez que

b P(BT(−a,b) = b) = a P(BT(−a,b) = −a).

4 - Déterminez les valeurs des deux probabilités précédentes.


2
5 - Montrez que le processus arrêté (Bt∧T (−a,b)
− t ∧ T(−a,b) )t≥0 est une martingale uni-
formément intégrable, et déduisez-en l’espérance de T(−a,b) .
6 - Pour tout θ ∈ R, considérons la fonction fθ : R → R donnée par

fθ (x) := eθb − e−θa e−θx + eθa − e−θb eθx ,


 

97
98 ANNEXE A. EXAMEN DU 3 FÉVRIER 2011

(θ) θ2 t
et introduisons le processus Mt := fθ (Bt ) e− 2 , t ≥ 0. Montrez que le processus arrêté
(θ)
(Mt∧T(−a,b) )t≥0 est une martingale uniformément intégrable.
7 - Montrez que la transformée de Laplace de T(−a,b) est donnée pour tout λ > 0 par
√ √
 −λT  sinh(a 2λ) + sinh(b 2λ)
E e (−a,b) = √ .
sinh((a + b) 2λ)
8 - On considère dans cette dernière partie le temps d’arrêt unilatère (qui est fini presque
sûrement d’après le cours):
Ta := inf{t ≥ 0 : Bt = a}, a ∈ R∗ .
Adaptez la méthode précédente pour montrer que sa transformée de Laplace est donnée
pour tout λ > 0 par √
E e−λTa = e−|a| 2λ .
 

Exercice 2 - Loi du supremum du mouvement brownien translaté


(5 pts)
Étant donné un paramètre µ > 0, on considère le processus X donné par
Xt := Bt − µt, t ≥ 0.
Il s’agit d’un mouvement brownien translaté (“drifté” selon la terminologie du cours). Le
but de cet exercice est de déterminer la loi de
Z := sup Xt .
t≥0

Pour un niveau a strictement positif, notons TaX le temps d’atteinte de a par X, i.e.
TaX := inf{t ≥ 0 : Xt = a}.
1 - Montrez que Z est presque sûrement fini.
2 - Soit T > 0 un horizon fini, fixé. Déterminez Q une probabilité équivalente à P sur FT
et un Q-mouvement brownien B e sur [0, T ] tels que pour tout t ∈ [0, T ],
2
Z  
X
 µ T
P Ta ≤ t = exp −µB fT − dQ,
{Ta ≤t} 2

où Ta désigne le temps d’atteinte de a par le mouvement brownien B.


e
3 - Montrez que pour tout t ∈ [0, T ],
Z  2 
X
 −µa µ Ta
P Ta ≤ t = e exp − dQ.
{Ta ≤t} 2
4 - En utilisant la question 8 de l’exercice 1, déterminez la loi de Z.
99

Exercice 3 - Convergence en loi du processus d’Ornstein-Uhlenbeck


(7 pts)
Considérons l’équation différentielle stochastique réelle suivante:
 √
dXt = 2α dBt − α Xt dt, t > 0;
X0 = x ∈ R;

où α > 0. On reconnaı̂t le processus d’Ornstein-Uhlenbeck vu en cours. Dans la suite, on


notera X x ce processus lorsqu’il est issu de x. On souhaite non seulement montrer qu’il
converge en loi lorsque t → ∞ vers une variable aléatoire à identifier, mais aussi connaı̂tre
la vitesse de convergence (lorsque l’on se restreint à une certaine classe de fonctions).
1 - Pourquoi s’attend-on à ce que le processus “ne parte pas à l’infini” en temps long? 2
- Déterminez la loi de la variable aléatoire Xtx pour tout t > 0 fixé.
3 - Montrez que ce processus converge en loi lorsque t → ∞ vers une variable aléatoire Y
dont on précisera la loi, notée µ.
4 - Pour un nombre K > 0, notons LipK l’ensemble des fonctions f : R → R bornées et
K-lipschitziennes sur R, c’est-à-dire telles que pour tous u, v ∈ R,

|f (u) − f (v)| ≤ K |u − v|.

Pour tout t ≥ 0 fixé, si f ∈ LipK , montrez que la fonction x 7→ E [f (Xtx )] est dans un
espace LipKt , où Kt est une constante dépendant de t, que vous déterminerez.
5 - Montrez que l’identité suivante est satisfaite:
Z Z
x
E [f (Xt )] µ(dx) = f (x) µ(dx).
R R

On dit alors que µ est une mesure invariante pour le processus.


6 - Établissez l’inégalité suivante:

sup |E [f (Xtx )] − E [f (Y )]| ≤ K e−αt E [|Y − x|] , t ≥ 0.


f ∈LipK

Quelle est votre interprétation de ce résultat ?


100 ANNEXE A. EXAMEN DU 3 FÉVRIER 2011
Annexe B

Examen du 6 janvier 2012

La durée de l’examen est de 4 heures. Seul le polycopié est autorisé lors de l’épreuve.
Vous pourrez considérer comme acquis tous les résultats vus en cours.
Le barême donné ci-dessous est approximatif.

Tout au long de cet examen, (Ω, A, P) est un espace de probabilité sur lequel seront
définis les processus, tous supposés adaptés par rapport à une filtration standard générique
(Ft )t≥0 .

Exercice 1 - Récurrence/transience du mouvement brownien mul-


tidimensionnel (7,5 pts)
Considérons un mouvement brownien B à valeurs dans l’espace euclidien (Rd , | · |). Il est
dit issu d’un point x ∈ Rd lorsqu’il s’agit d’un mouvement brownien standard translaté
de x. On note alors Px la probabilité sachant B0 = x et Ex l’espérance par rapport à Px .
Étant donné α > 0, le temps d’atteinte de α est le temps d’arrêt τα défini par
τα := inf{t ≥ 0 : |Bt | = α} (avec la convention inf ∅ = ∞).
On dit que le mouvement brownien est:
- récurrent si pour tout r > 0 et tout point initial x ∈ R2 satisfaisant |x| ≥ r, la
probabilité Px (τr < ∞) vaut 1;
- transitoire sinon.
Pour étudier ces propriétés, nous allons considérer la couronne
Ar,R := {x ∈ Rd : r ≤ |x| ≤ R}, 0 < r < R,
ainsi que le temps d’arrêt τ := τr ∧ τR = min{τr , τR }.
Partie 1 - Le cas d = 2
Soit f ∈ C 2 (R2 \ {0}, R) la fonction définie par
q 
f (x) := log (|x|) = log 2 2
x1 + x 2 , x = (x1 , x2 ) ∈ R2 \ {0}.

101
102 ANNEXE B. EXAMEN DU 6 JANVIER 2012

1 - Dessinez sur l’intervalle [0, τ ] une trajectoire typique du mouvement brownien bidi-
mensionnel, partant d’un point x appartenant à l’intérieur de la couronne Ar,R .
2 - En comparant τ avec un temps d’atteinte bien choisi d’un mouvement brownien réel,
montrez que Px (τ < ∞) = 1 pour tout x ∈ Ar,R .
3 - Montrez que ∆f = 0 sur Ar,R , où ∆ est le laplacien sur R2 : ∆ := ∂x21 + ∂x22 . On dit
alors que f est harmonique sur la couronne Ar,R .
4 - Établissez l’égalité suivante: pour tout x ∈ Ar,R ,

Ex [f (Bτ )] = log(R) + (log(r) − log(R)) Px (τr < τR ) .

5 - En utilisant la formule d’Itô, montrez que le processus M donné par

Mt = f (Bt∧τ ) − f (B0 ), t ≥ 0,

est une martingale uniformément intégrable, et déduisez-en que

Ex [f (Bτ )] = f (x), x ∈ Ar,R .

6 - Si l’on note τ∞ := limR→∞ τR , vérifiez que Px (τ∞ = ∞) = 1 pour tout x ∈ R2 .


7 - Concluez sur la récurrence/transience du mouvement brownien bidimensionnel.
Partie 2 - Le cas d ≥ 3
1 - En utilisant la même procédure que dans la partie 1, montrez que
 d−2
r
Px (τr < ∞) = , |x| ≥ r.
|x|

Indication: considérez la fonction f ∈ C 2 (Rd \ {0}, R) définie par f (x) := |x|2−d .


2 - Que vous inspire la phrase suivante de Pólya: “a drunken man will always find his
way home, but a drunken bird may not” ?

Exercice 2 - Déviation d’une fonctionnelle brownienne (5,5 pts)


Étant donnés un mouvement brownien réel standard B et f une fonction suffisamment
régulière, l’objectif est contrôler la décroissance de la queue de la fonctionnelle brownienne
centrée f (BT ) − E[f (BT )], où T > 0 est un horizon fini.
1 - Soit H un processus adapté et borné par une constante κ > 0, i.e. |Ht | ≤ κ pour tout
t ≥ 0. Rappelez brièvement pourquoi le processus M (λ) défini pour tout λ ≥ 0 par
 Z t
λ2 t
Z 
(λ) 2
Mt := exp λ Hs dBs − |Hs | ds , t ≥ 0,
0 2 0

est une surmartingale.


103

2 - En utilisant ce qui précède, montrez que pour tous réels positifs r, λ, t,


Z t
λ2 κ2 t
  
P Hs dBs > r ≤ exp −λr + .
0 2

3 - À présent, soit f ∈ C 2 (R, R) une fonction bornée et dont les dérivées successives sont
bornées. Soit T > 0 un horizon fini et notons g : R × [0, T ] → R la fonction définie
par g(x, t) := E [f (BT ) | Bt = x] (on rappelle qu’il ne s’agit là que d’une notation, le
conditionnement par rapport à un événement de probabilité 0 étant interdit).
Montrez que la fonction g peut s’écrire sous la forme
Z
g(x, t) = f (u + x) γt,T (u) du,
R

où γt,T est une certaine densité de probabilité sur R à déterminer.


4 - En utilisant la formule d’Itô, établissez la relation suivante:
Z TZ
g(BT , T ) = g(0, 0) + f 0 (u + Bs ) γs,T (u) du dBs .
0 R

5 - Déduisez de tout ce qui précède que l’on a l’inégalité suivante, dite de déviation
gaussienne (par rapport à la moyenne):

r2
 
P (f (BT ) − E[f (BT )] > r) ≤ exp − ,
2(κf )2 T

où κf > 0 est une constante à déterminer, qui dépend de la fonction f .

Exercice 3 - Temps d’atteinte de diffusions (7 pts)


Soit B un mouvement brownien réel standard et b et σ deux fonctions (localement)
lipschitziennes sur R. On considère le processus X solution de l’équation différentielle
stochastique réelle
Z t Z t
Xt = x + σ(Xs ) dBs + b(Xs ) ds, t ≥ 0.
0 0

On note L l’opérateur différentiel du second ordre agissant sur les fonctions C 2 (R, R) de
la manière suivante:
1
Lf (x) := σ(x)2 ∂x2 f (x) + b(x) ∂x f (x), x ∈ R.
2
Enfin, étant donnés deux réels α < β et x ∈ [α, β], on note le temps d’arrêt τ := τα ∧ τβ
où τr := inf{t ≥ 0 : Xt = r}, Px la probabilité sachant X0 = x et enfin Ex l’espérance
sous Px .
104 ANNEXE B. EXAMEN DU 6 JANVIER 2012

1 - Soit f ∈ C 2 (R, R) et M (f ) le processus défini par


Z t
(f )
Mt := f (Xt ) − f (X0 ) − Lf (Xs ) ds, t ≥ 0.
0

Montrez que M (f ) est une martingale locale et donnez son expression sous la forme d’une
intégrale stochastique.
2 - Déduisez-en pour tout t ≥ 0 la formule suivante, dite formule de Dynkin:
Z t∧τ 
Ex [f (Xt∧τ )] = f (x) + Ex Lf (Xs ) ds .
0

3 - Supposons qu’il existe une fonction u ∈ C 2 ([α, β], R) telle que Lu ≤ −1. Montrez que
Ex [τ ] < ∞.
4 - Dans la suite, on suppose qu’il existe une fonction u ∈ C 2 ([α, β], R) telle que Lu = −1
et u(α) = u(β) = 0. Montrez que u(x) = Ex [τ ].
5 - Si σ ne s’annule pas et si la dérive b est identiquement nulle, donnez l’expression de
Ex [τ ] en fonction de σ.
6 - Sous les mêmes conditions, montrez que l’on a
β−x x−α
Px (Xτ = α) = et Px (Xτ = β) = .
β−α β−α
7 - Dans le cas où σ = 1 et b = 0, c’est-à-dire lorsque X est le mouvement brownien issu
de x, appliquez ce qui précède pour établir l’expression suivante:

Ex [τ ] = (x − α) (β − x).

8 - Comment procéderiez-vous pour déterminer les valeurs de Px (Xτ = α) et Px (Xτ = β)


lorsque σ et b sont quelconques ?
Bibliographie

[1] J. Jacod. Mouvement brownien et calcul stochastique. Cours de M2R, 2007-2008.

[2] I. Karatzas, S. Shreve. Brownian motion and stochastic calculus. Springer, 1987.

[3] J.F. Le Gall. Calcul stochastique et processus de Markov. Cours de M2R, 2010-2011.

[4] D. Revuz et M. Yor. Continuous martingales and Brownian motion. Springer, 1999.

[5] J.M. Steele. Stochastic calculus and financial applications. Springer, 2001.

105

Vous aimerez peut-être aussi