0% ont trouvé ce document utile (0 vote)
182 vues162 pages

Introduction aux processus stochastiques

Ce document présente les notions de base des processus stochastiques, notamment les processus gaussiens et le mouvement brownien. Il introduit ensuite les martingales en temps continu, les semimartingales et l'intégration stochastique. Le but est de fournir les outils fondamentaux du calcul stochastique.

Transféré par

stepbysteptoUranus
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • variation quadratique,
  • temps d'arrêt,
  • loi de Blumenthal,
  • propriétés de Markov,
  • mouvement brownien,
  • martingales,
  • processus gaussiens
0% ont trouvé ce document utile (0 vote)
182 vues162 pages

Introduction aux processus stochastiques

Ce document présente les notions de base des processus stochastiques, notamment les processus gaussiens et le mouvement brownien. Il introduit ensuite les martingales en temps continu, les semimartingales et l'intégration stochastique. Le but est de fournir les outils fondamentaux du calcul stochastique.

Transféré par

stepbysteptoUranus
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • variation quadratique,
  • temps d'arrêt,
  • loi de Blumenthal,
  • propriétés de Markov,
  • mouvement brownien,
  • martingales,
  • processus gaussiens

Processus stochastiques

M2 Mathématiques

Jean-Christophe Breton
Université de Rennes

Septembre–Décembre 2023

Version du 4 novembre 2023


2
Table des matières

I Processus stochastiques 1
1 Processus stochastiques 3
1.1 Loi d’un processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Régularité des trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Convergence faible des lois de processus . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Rappels sur la convergence faible . . . . . . . . . . . . . . . . . . . 11
1.3.2 Équitension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Processus gaussiens 17
2.1 Lois des processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Régularité gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Espace gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Exemples de processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Mouvement brownien 29
3.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Définition, premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.1 Propriétés immédiates . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3 Constructions du mouvement brownien . . . . . . . . . . . . . . . . . . . . 33
3.3.1 Principe d’invariance de Donsker . . . . . . . . . . . . . . . . . . . 34
3.3.2 Mesure de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4 Propriétés en loi du mouvement brownien . . . . . . . . . . . . . . . . . . 39
3.5 Propriétés trajectorielles du mouvement brownien . . . . . . . . . . . . . . 41
3.5.1 Loi du 0/1 de Blumenthal . . . . . . . . . . . . . . . . . . . . . . . 41
3.5.2 Conséquences trajectorielles de la loi du 0/1 de Blumenthal . . . . . 44
3.5.3 Régularité trajectorielle brownienne . . . . . . . . . . . . . . . . . . 46
3.6 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7 Propriété de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.7.1 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.7.2 Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.7.3 Principe de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.8 Équation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.8.1 Origine physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

i
ii Table des matières

3.8.2 Origine mathématique . . . . . . . . . . . . . . . . . . . . . . . . . 57

II Martingales 61
4 Martingales en temps continu 63
4.1 Filtration et processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2 Filtrations et temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.3 Définition et exemples de martingales en temps continu . . . . . . . . . . . 72
4.4 Inégalités pour martingales en temps continu . . . . . . . . . . . . . . . . . 72
4.5 Régularisation de trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.6 Théorèmes de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.7 Théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.8 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

5 Semimartingales à trajectoires continues 87


5.1 Processus à variation bornée . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.1.1 Fonctions à variation bornée . . . . . . . . . . . . . . . . . . . . . . 87
5.1.2 Intégrale de Stieltjes . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.1.3 Processus à variation bornée . . . . . . . . . . . . . . . . . . . . . . 94
5.2 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.3 Variation quadratique d’une martingale locale . . . . . . . . . . . . . . . . 100
5.4 Semimartingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

III Intégration stochastique 119


6 Intégration stochastique 121
6.1 Par rapport à une martingale bornée dans L2 . . . . . . . . . . . . . . . . 121
6.2 Par rapport à une martingale locale . . . . . . . . . . . . . . . . . . . . . . 131
6.3 Par rapport à une semimartingale . . . . . . . . . . . . . . . . . . . . . . . 136
6.4 Cas de processus à trajectoires non continues . . . . . . . . . . . . . . . . . 140
Introduction

Ces notes de cours ont pour but d’introduire au calcul stochastique et à ses outils fon-
damentaux. Elles sont principalement destinées aux étudiants du Master 2 Mathématiques
et applications de l’Université de Rennes 1. Ces notes ont plusieurs sources d’inspiration,
dont principalement [LG1] mais aussi les notes de cours [Gué], [EGK], [Mal]. Par ailleurs,
des références standards conseillées sur le sujet sont les livres [KS], [RY] (en anglais) et
[Gal], [CM] (en français).
Le contenu de ces notes est le suivant :
On commence par quelques rappels gaussiens en introduction. La notion générale de
processus stochastique est présentée au Chapitre 1. Le Chapitre 2 introduit la classe des
processus gaussiens. Ces chapitres s’inspirent de [Dav] et des références classiques sont
[Bil2], [Kal].
Au Chapitre 3, on présente le mouvement brownien, processus stochastique central, dont
on discute de nombreuses propriéfentés.
Au Chapitre 4, on introduit la notion de martingale en temps continu. On revisite les
principales propriétés connues dans le cas des martingales discrètes.
La notion de semimartingale, essentielle dans la théorie de l’intégration stochastique, est
présentée au Chapitre 5.
Le Chapitre 6 est consacré à la construction des intégrales stochastiques et à ses principales
propriétés.
On achève ces notes avec la formule d’Itô dans le Chapitre ??. Ce résultat est essentiel et
constitue le point de départ du calcul stochastique qui est la suite naturelle de cours et
pour laquelle on renvoie à [JCB-stoch].
Les propriétés de l’intégrale stochastique, en particulier la formule d’Itô et le théorème
de Girsanov, sont des outils qui fondent le calcul stochastique.

Les prérequis de ce cours sont des probabilités de base (des fondements des probabilités
aux conséquences de la LGN et du TCL – niveau L3) pour lesquelles on pourra consulter
[JCB-proba], les martingales en temps discret (niveau M1), voir [JCB-martingale].

iii
iv ©JCB – M2 Math. – Université de Rennes
Rappels gaussiens

Dans ce chapitre, on rappelle les principaux résultats sur les variables aléatoires gaus-
siennes et sur les vecteurs aléatoires gaussiens. Ces rappels seront utiles pour généraliser le
cadre gaussien aux processus au Chapitre 2 et présenter la notion de processus gaussien.

Variables gaussiennes
Définition 0.1 Une variable aléatoire X suit la loi normale standard N (0, 1) si elle admet
pour densité
1
t ∈ R 7→ √ exp − t2 /2 .


De façon générale, une variable aléatoire X suit la loi normale N (m, σ 2 ) (m ∈ R, σ 2 > 0)
si elle admet pour densité

(t − m)2
 
1
t ∈ R 7→ √ exp − .
2πσ 2 2σ 2

Si σ 2 = 0, la loi est dégénérée, la variable aléatoire X est constante égale à m. Sa loi est
une mesure de Dirac en m : PX = δm .

Proposition 0.2 Une variable aléatoire X ∼ N (m, σ 2 ) peut se voir comme la translatée et
la dilatée de X0 ∼ N (0, 1) par X = m + σX0 .

Autrement dit si X ∼ N (m, σ 2 ), σ 2 > 0, on définit la variable aléatoire centrée réduite


e = (X−m)/σ. Elle suit la loi N (0, 1). Cette action s’appelle ′′ centrer, réduire′′ .
X

Proposition 0.3 Une variable aléatoire X de loi N (m, σ 2 ) a pour


— espérance : E[X] = m ;
— variance : Var(X) = σ 2 ; 
— fonction caractéristique : φX (t) = exp imt − σ 2 t2 /2 .
Si X ∼ N (0, σ 2 ) alors les moments de X sont donnés pas

 (2n)!
E X 2n = n σ 2n E X 2n+1 = 0.
  
et (1)
2 n!

v
vi ©JCB – M2 Math. – Université de Rennes

Démonstration :[Esquisse] Centrer, réduire pour se ramener à X ∼ N (0, 1). Calculs simples
pour E[X], Var(X). Pour la fonction caractéristique, identifier les fonctions holomorphes
2
E[ezX ] et ez /2 pour z ∈ R et considérer z = ix. Pour les moments de tous ordres faire des
intégrations par parties successives. □

L’estimation de la queue normale suivante s’avère utile : pour N ∼ N (0, 1) et x ≥ 1, on a


Z +∞ Z +∞
1 −t2 /2 1 2 1 2
P(N ≥ x) = √ e dt ≤ √ te−t /2 dt ≤ √ e−x /2 . (2)
2π x 2π x 2π
En fait, on a une estimation valable pour tout x > 0 et meilleure si x ≥ 1 :
Proposition 0.4 Soit N ∼ N (0, 1) et x > 0 alors
1
P(N ≥ x) ≤ √ exp(−x2 /2).
2πx2
Démonstration : En notant f (x) = √1 exp(−x2 /2), on a
x 2π

exp(−x2 /2) 1 exp(−x2 /2) exp(−x2 /2)


f ′ (x) = − √ − 2 √ ≤− √ .
2π x 2π 2π
D’où
Z +∞ Z +∞
1 +∞
√ exp(−u2 /2)du ≤ − f ′ (u)du = − f (u) x = f (x).

P(N ≥ x) =
x 2π x

Proposition 0.5 Soit N1 ∼ N (m1 , σ12 ) et N2 ∼ N (m2 , σ22 ) indépendantes. Alors N1 + N2 ∼


N (m1 + m2 , σ12 + σ22 ).

Démonstration : Par les fonctions caractéristiques, avec l’indépendance, on a :

φN1 +N2 (t) = φN1 (t)φN2 (t) = exp im1 t − σ12 t2 /2 exp im2 t − σ22 t2 /2
 

= exp i(m1 + m2 )t − (σ12 + σ22 )t2 /2 = φN (m1 +m2 ,σ12 +σ22 ) (t)


ce qui prouve le résultat. □


Proposition 0.6 Soit (Xn )n≥1 une suite de variables normales de loi N mn , σn2 .
1. La suite (Xn )n≥1 converge en loi ssi mn → m ∈ R et σn2 → σ 2 ∈ R+ . La loi limite
est alors N (m, σ 2 ).
2. Si la suite (Xn )n≥1 converge en probabilité vers X, la convergence a lieu dans tous
les espaces Lp , p < +∞.
vii

Démonstration : 1) D’après le théorème de Paul Lévy, la convergence en loi Xn =⇒ X est


équivalente à avoir pour tout t ∈ R :
σn2 2
 
φXn (t) = exp imn t − t → φX (t), n → +∞. (3)
2

Comme φX est continue et φX (0) = 1, il existe t ̸= 0 tel que |φX (t)| ̸= 0. Pour ce t, en
2
prenant le module dans (3), on a exp(− σ2n t2 ) → |φX (t)|. On déduit alors que limn→+∞ σn2 =
− t22 ln |φX (t)| := σ 2 existe. Par suite, on a aussi

exp imn t → exp σ 2 t2 /2 φX (t).


 

Supposons que (mn )n≥1 est non bornée. On construit alors une sous-suite mnk → +∞,
k → +∞ (ou −∞ ce qui mène à un raisonnement analogue). Alors pour tout η > 0,
1
P(X ≥ η) ≥ lim sup P(Xnk ≥ η) ≥
k→+∞ 2

puisque, pour k assez grand, P(Xnk ≥ η) ≥ P(Xnk ≥ mk ) = 1/2 (la moyenne mk étant
aussi la médiane). En faisant η → +∞, on a P(X = +∞) ≥ 1/2, ce qui est absurde car
P(X ∈ R) = limn→+∞ P(Xn ∈ R) = 1.
On a donc (mn )n≥1 bornée. Dès lors, si m et m′ sont deux valeurs d’adhérence de (mn )n≥1 ,

en passant à la limite sur les bonnes sous-suites, on doit avoir eimt = eim t pour tout t ∈ R,
ce qui exige m = m′ . Il y a donc unicité de la valeur d’adhérence, c’est à dire existence de
la limite m de mn .
Finalement, mn → m et σn → σ (n → +∞) et en passant à la limite dans (3), on a :
 σ2 
φX (t) = exp imt − t2
2
ce qui assure X ∼ N (m, σ 2 ).
2) On écrit Xn = σn Nn + mn avec Nn ∼ N (0, 1). Comme Xn converge en loi, les suites
(mn )n≥1 et (σn )n≥1 sont bornées d’après la partie 1). Par convexité pour q ≥ 1

|σn N + mn |q ≤ 2q−1 (|σn |q ||N |q + |mn |q )

et l’expression des moments de Nn , donnée en (1) assure alors

sup E |Xn |q < +∞ ∀q ≥ 1.


 
n≥1

Comme la convergence en probabilité donne la convergence ps d’une sous-suite Xnk , par le


lemme de Fatou, on a :
h i
E |X| = E lim |Xnk | ≤ lim inf E[Xnk |q ] ≤ sup E |Xnk |q ≤ sup E |Xn |q < +∞.
 q q
   
k→+∞ k→+∞ k≥1 n≥1
viii ©JCB – M2 Math. – Université de Rennes

Soit p ≥ 1, la suite |Xn − X|p converge vers 0 en probabilité et est uniformément intégrable
car bornée dans L2 (d’après ce qui précède avec q = 2p). Elle converge donc dans L1 vers
0, ce qui prouve 2) dans la Prop. 0.6. □

Le caractère universel de la loi normale est illustré par le résultat suivant. Il montre que la
loi normale standard contrôle les fluctuations par rapport à leur moyenne des effets cumulés
d’un phénomène aléatoire répété avec des répétitions indépendantes.
Dans la suite, iid signifiera indépendant(e)s et identiquement distribué(e)s, c’est à dire
de même loi. Souvent, on notera aussi vaiid pour variables aléatoires indépendantes et
identiquement distribuées.

Théorème 0.7 (TCL) Soit (Xn )n≥1 une suite de variables aléatoires iid, d’espérance m et
de variance finie σ 2 > 0. Soit Sn = X1 + · · · + Xn la somme partielle. Alors

Sn − nm
√ =⇒ N (0, 1), n → +∞.
σ2n

Remarque 0.8 — Le TCL complète la loi des grands nombres : en effet, la LGN donne
Sn /n → m, c’est à dire
√ Sn − nm ≈ 0. Le TCL donne la vitesse de cette convergence
(en loi) : elle est en n. Noter que la convergence est presque sûre dans la LGN et
en loi (donc beaucoup plus faible) dans le TCL.
— La loi N (0, 1) apparaı̂t à la limite dans le TCL alors que les variables aléatoires Xi
sont de lois arbitraires (de carré intégrable) : ce résultat justifie le rôle universel de
la loi normale. Elle modélise les petites variations de n’importe quelle loi (avec un
moment d’ordre 2) par rapport à sa moyenne.

Démonstration : D’après le théorème de Paul Lévy, il suffit de montrer la convergence


des fonctions caractéristiques. Posons Yi = (Xi − m)/σ, si bien que les variables aléatoires
Yi sont indépendantes de même loi avec E[Yi ] = 0, Var(Yi ) = Var(Xi )/σ 2 = 1. Notons

Sn
Sn′ = Y1 + · · · + Yn et Zn = Sn√−nm
n
=√ n
. On a

Sn′
       
t ′ t
φZn (t) = E exp it √ = E exp i √ Sn = φSn′ √
n n n
      n
t t t
= φY1 √ . . . φYn √ = φ Y1 √
n n n

en utilisant φY1 +···+Yn = φY1 . . . φYn = φnY1 par indépendance et identique distribution des
variables aléatoires Yi .
Comme Y1 a un moment d’ordre 2, φY1 est dérivable 2 fois avec φY1 (0) = 1, φ′Y1 (0) =
iE[Y1 ] = 0 et φ′′Y1 (0) = i2 E[Y12 ] = −1. La formule de Taylor à l’ordre 2 en 0 donne alors

x2 ′′ x2
φY1 (x) = φY1 (0) + xφ′Y1 (0) 2
+ φY1 (0) + x ϵ(x) = 1 − + x2 ϵ(x)
2 2
ix

où la fonction ϵ vérifie limx→0 ϵ(x) = 0. On a donc

n !n  n
t2 √ t2 √
 
t t 1
φZn (t) = φY1 √ = 1 − √ 2 + √ 2 ϵ(t/ n) = 1− + ϵ(1/ n)
n 2 n n 2n n
t2 √  t2 √ 
    
 1 1
= exp n ln 1 − + ϵ(1/ n) = exp n − + ϵ(1/ n)
2n n 2n n

 2 
t
= exp − + ϵ(1/ n) .
2

(Noter que la fonction reste ϵ(·) dans φY1 est à valeurs complexes si bien qu’il est un peu
rapide de prendre directement le logarithme comme précédemment. Cependant l’argument
peut être précisé sans passer par la forme exponentielle avec les logarithmes ; on renvoie à
un (bon) cours de L3 ou de M1.) On a donc pour chaque t ∈ R,

lim φZn (t) = exp − t2 /2 = φN (0,1) (t).



n→+∞

Le théorème de Paul Lévy donne alors la convergence en loi de Zn vers N (0, 1), ce qui
prouve le TCL. □

Remarque 0.9 En général, lorsque n est grand, on approxime la loi d’une somme de va-
riables aléatoires iid de L2 (Ω) par une loi normale grâce au TCL de la façon suivante : Soit
Sn = X1 + · · · + Xn la somme de variables aléatoires iid Xi avec σ 2 < +∞, on a d’après le
TCL
X1 + · · · + Xn − nE[X1 ]
√ =⇒ N (0, 1).
σ n
−nE[X1 ]
Quand n est grand, on approxime alors la loi de X1 +···+X√n
σ n
par celle de N ∼ N (0, 1).
Si bien que la loi de la somme Sn = X1 + · · · + Xn est approximée par celle de

nE[X1 ] + σ nN ∼ N nE[X1 ], σ 2 n .


Règle d’approximation : La somme Sn d’une suite de vaiid L2 de moyenne m et de variance


σ 2 s’approxime par Sn ≈ N (nm, nσ 2 ).

Application (Moivre-Laplace). Comme une variable aléatoire Xn de loi binomiale B(n, p)


peut se voir comme la somme de n variables aléatoires ϵi 1 ≤ i ≤ n, indépendantes de loi
de Bernoulli b(p), Xn = ϵ1 + · · · + ϵn , la remarque précédente montre qu’on peut approcher
la loi B(n, p) par la loi normale N np, np(1 − p) .
x ©JCB – M2 Math. – Université de Rennes

Vecteurs gaussiens
On considère des vecteurs aléatoires dans Rn . Muni de son produit scalaire canonique,
Rn est un espace n
Pn euclidien. Pour deux vecteurs a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈ R , on
note ⟨a, b⟩ = i=1 ai bi leur produit scalaire. On peut généraliser cette section à un espace
E euclidien (si dim(E) = n alors E ∼ Rn ).

Définition 0.10 (Vecteur gaussien) Un vecteur aléatoire X = (X1 , . . . , Xn ) est gaussien si


et seulement si toutes les combinaisons linéaires de ses coordonnées ⟨a, X⟩ = a1 X1 + · · · +
an Xn suivent une loi gaussienne dans R (pour tout a = (a1 , . . . , an ) ∈ Rn ).
Dans un cadre euclidien E, X vecteur à valeurs dans E est gaussien ssi pour tout a ∈ E,
⟨a, X⟩ suit une loi gaussienne.

En particulier, chaque marginale Xi suit une loi normale et a donc un moment d’ordre 2
fini. Les moments joints E[Xi Xj ], 1 ≤ i, j ≤ n, sont donc bien définis (par l’inégalité de
Cauchy-Schwarz) et on peut définir licitement la matrice de covariance :

Définition 0.11 La matrice de covariance d’un vecteur gaussien X = (X1 , . . . , Xn ) est la


matrice carrée symétrique, positive

K = Cov(Xi , Xj ) 1≤i,j≤n .

Si det K = 0, le vecteur est dit dégénéré.


L’espérance de X = (X1 , . . . , Xn ) est le vecteur des espérances de ses marginales

E[X] = E[X1 ], . . . , E[Xn ] .

Si E[X] = 0, le vecteur X est dit centré.

Fonction caractéristique gaussienne en dimension n


Pn
Si X = (X1 , . . . , Xn ) est un vecteur gaussien alors ⟨a, X⟩ = i=1 ai Xi suit une loi
normale de paramètres
 
E ⟨a, X⟩ = E[a1 X1 + · · · + an Xn ] = a1 E[X1 ] + · · · + an E[Xn ] = ⟨a, E[X]⟩,
Xn
ai aj Cov(Xi , Xj ) = at Cov(X)a.

Var ⟨a, X⟩ = Var(a1 X1 + · · · + an Xn ) =
i,j=1


La variable aléatoire ⟨a, X⟩ suit donc la loi N ⟨a, E[X]⟩, at Cov(X)a , sa fonction caracté-
ristique est donnée par
 
1 t  2
φ⟨a,X⟩ (x) = exp ix⟨a, E[X]⟩ − a Cov(X)a x .
2
xi

D’après la définition des fonctions caractéristiques d’une variable aléatoire et d’un vecteur
aléatoire
φX (x) = E ei⟨x,X⟩ = φ⟨x,X⟩ (1).
 

On en déduit :

Proposition 0.12 La fonction caractéristique d’un vecteur gaussien X = (X1 , . . . , Xn ) est


donnée par
 
1 t
φX (x) = exp i⟨x, E[X]⟩ − (x Cov(X)x)
2
 
1
= exp i⟨x, E[X]⟩ − ⟨x, Cov(X)x⟩ . (4)
2

Remarque 0.13 — La loi d’un vecteur gaussien est connue dès qu’on a le vecteur
moyenne E[X] et la matrice de covariance Cov(X).
— On parle du vecteur gaussien standard en dimension n lorsque E[X] = 0 et Cov(X) =
In . Sa fonction caractéristique se simplifie en

φX (x) = exp − ⟨x, x⟩/2 = exp − ∥x∥2 /2 .


 

— Pour un vecteur gaussien centré, on a E[X] = 0 et on montre que

⟨x, Cov(X)x⟩ = E[⟨x, X⟩2 ],

si bien que dans le cas centré la fonction caractéristique se réécrit :


   
1 1  2

φX (x) = exp − ⟨x, Cov(X)x⟩ = exp − E ⟨x, X⟩ .
2 2

— En prenant x = (x1 , 0, . . . , 0), on a

φX1 (x1 ) = φX (x) = exp iE[X1 ]x1 − Var(X1 )x21 /2 .





On retrouve que X1 ∼ N E[X  1 ], Var(X1 ) . Plus généralement, pour tout 1 ≤ i ≤ n,
on a Xi ∼ N E[Xi ], Var(Xi ) .

Comme pour les variables aléatoires gaussiennes, on peut se ramener à un vecteur gaussien
standard en centrant et en réduisant un vecteur gaussien quelconque non dégénéré. On a
en effet :

Proposition 0.14 Soit X ∼ N (m, K) un vecteur gaussien non dégénéré (ie. det K =
̸ 0)
avec m ∈ Rn et K sa matrice de covariance. Alors
√ −1
K (X − m) ∼ N (0, In ). (5)
xii ©JCB – M2 Math. – Université de Rennes

Si X ∼ N (m, K) est dégénéré, c’est que le vecteur X vit dans un sous-espace vectoriel
strict de Rn . Il faut l’étudier dans ce sous-espace vectoriel.
Démonstration : Comme le vecteur X est non dégénéré, sa matrice√ de covariance K est
définie (c’est à dire inversible). Il existe donc une matrice A = K inversible telle que
K = AAt . (Par la méthode de Cholesky, A peut être choisie triangulaire inférieure.) Il est
√ −1
donc légitime d’utiliser K dans (5).

On montre maintenant que X e = K −1 (X − m) est gaussien, standard :
h i
φXe (x) = E exp(i⟨x, X⟩) e
h √ −1 i
= E exp(i⟨x, K (X − m)⟩)
h √ −1 i
= E exp(i⟨( K )t x, X − m⟩)
h √ −1 t i  √ −1 t 
= E exp(i⟨( K ) x, X⟩) × exp −i⟨( K ) x, m⟩
 √ −1   √ −1 
= φX ( K )t x × exp −i⟨( K )t x, m⟩
√ −1 t 1 √ −1 t √ −1 t √ −1
   
= exp i⟨m, ( K ) x⟩ − ⟨( K ) x, K( K ) x⟩ × exp −i⟨( K )t x, m⟩
2
1 √ −1 t √ −1 t
 
= exp − ⟨( K ) x, K( K ) x⟩
2
1 √ −1 √ −1 t 1 √ −1 √ √ t √ −1 t
   
= exp − ⟨x, K K( K ) x⟩ = exp − ⟨x, K K( K) ( K ) x⟩
2 2
   
1 1 2
= exp − ⟨x, x⟩ = exp − ∥x∥ .
2 2

e ∼ N (0, In ).
On a donc bien X □

Remarque 0.15 Comme pour les variables aléatoires normales, un vecteur aléatoire X ∼
N (m, K) avec K inversible peut se voir comme la translatée et dilatée du vecteur gaussien
standard N ∼ N (0, In ) : √
X ∼ KN + m.

Indépendance de variables gaussiennes


Proposition 0.16 Soit (X, Y ) un couple gaussien. Alors X et Y sont indépendantes si et
seulement si Cov(X, Y ) = 0.

Démonstration : Le sens direct est vrai quelque soit la loi de X et de Y et suit de E[XY ] =
E[X]E[Y ] lorsque X ⊥⊥ Y . Pour la réciproque, on sait que, lorsque (X, Y ) est un couple
xiii

gaussien, X et Y sont indépendantes si et seulement si φ(X,Y ) (t1 , t2 ) = φX (t1 )φY (t2 ).


Supposons le couple centré pour simplifier. Le vecteur gaussien (X, Y ) a une matrice de
covariance diagonale :  2 
σX 0
0 σY2
car les termes diagonaux sont Cov(X, Y ) = Cov(Y, X) = 0. On déduit de l’expression (4)
de la fonction caractéristique de (X, Y ) que, pour tout t1 , t2 ∈ R, on a
 1   1   1 
φ(X,Y ) (t1 , t2 ) = exp − 2
t21 σX + t2 σY2 2
= exp − t21 σX × exp − t22 σY2
2 2 2
= φX (t1 )φY (t2 ),
ce qui justifie l’indépendance de X et de Y et prouve la Prop. 0.16. □

Il est aisé de généraliser de la même façon le résultat pour des vecteurs. Attention, il faut
bien veiller à ce que, considérés ensemble, les vecteurs forment encore un vecteur gaussien,
sinon l’exemple ci-dessous montre que le résultat est faux (cf. aussi un autre exemple ci-
dessous).

Exemple 0.17 On considére une variable aléatoire X ∼ N (0, 1) et une seconde variable
aléatoire ε indépendante de X et telle que P(ε = 1) = P(ε = −1) = 1/2. Alors X1 =
X, X2 = εX sont deux variables aléatoire N (0, 1). De plus, Cov(X1 , X2 ) = E[X1 X2 ] =
E[ε]E[X 2 ] = 0. Cependant X1 et X2 ne sont évidemment pas indépendantes (par exemple
parce que |X1 | = |X2 |). Dans cet exemple, le couple (X1 , X2 ) n’est pas un vecteur gaussien
dans R2 bien que ses coordonnées soit des variables gaussiennes.
Proposition 0.18 Soit (X1 , . . . , Xn , Y1 , . . . , Yp ) un vecteur gaussien de dimension n + p.
Les deux vecteurs aléatoires X = (X1 , . . . , Xn ) et Y = (Y1 , . . . , Yp ) sont indépendants si et
seulement si toutes les covariances Cov(Xi , Yj ), 1 ≤ i ≤ n, 1 ≤ j ≤ p sont nulles.

Densité gaussienne en dimension n


Soit X ∼ N (0, In ) un vecteur gaussien standard en dimension n. Comme Cov(X) = In ,
les marginales X1 , . . . , Xn sont toutes indépendantes. La loi du vecteur X = (X1 , . . . , Xn )
est donc la loi produit de ses marginales PX = PX1 ⊗ · · · ⊗ PXn . En terme de densité, la
densité de X est alors donnée par le produit tensoriel des densités marginales
fX (x1 , . . . , xn ) = fX1 (x1 ) × · · · × fXn (xn )
   
1 2 1 2
= √ exp(−x1 /2) × · · · × √ exp(−xn /2)
2π 2π
1
exp − (x21 + · · · + x2n )/2 .

= n/2
(2π)
On a justifié :
xiv ©JCB – M2 Math. – Université de Rennes

Proposition 0.19 La densité d’un vecteur gaussien X ∼ N (0, In ) standard en dimension n


est
1
exp − 1/2(x21 + · · · + x2n ) .

fX (x) = n/2
(2π)

Pour passer au cas général d’un vecteur gaussien X ∼ N (m, K) non dégénéré (ie. K =
Cov(X) inversible), on√ utilise la représentation donnée en (5) avec le vecteur gaussien réduit
N ∼ N (0, In ) : X ∼ KX0 + m. Cela permet d’utiliser la densité déjà justifiée dans la
proposition précédente : Soit A ∈ B(Rn )
√ 
P(X ∈ A) = P KX0 + m ∈ A
√ −1 
= P X0 ∈ K (A − m)
exp(−∥x∥2 /2)
Z
= √ −1 dx
K (A−m) (2π)n/2
√ −1
exp(−∥ K (y − m)∥2 /2)
Z
dy
= n/2

A (2π) det K

(avec le changement de variable y = Kx + m)
exp − ⟨(x − m), K −1 (x − m)⟩/2
Z 
= dx.
A ((2π)n det K)1/2
On a obtenu la forme générale de la densité d’un vecteur gaussien non dégénéré :
Proposition 0.20 La densité d’un vecteur gaussien X ∼ N (m, K) non dégénéré est

exp − ⟨(x − m), K −1 (x − m)⟩/2



fX (x) = .
((2π)n det K)1/2

Variables gaussiennes et vecteurs non gaussiens


On a déjà vu que si un vecteur X = (X1 , . . . , Xn ) est gaussien alors ses marginales Xi le
sont aussi, de même les combinaisons linéaires de ses marginales le sont. La réciproque est
fausse : si des variables aléatoires sont gaussiennes alors le vecteur formé par ces variables
n’est pas nécessairement gaussien. En effet, prenons X une variable aléatoire de loi N (0, 1)
et Y de loi donnée, pour a > 0 fixé, par

X si |X| ≤ a,
Y =
−X si |X| > a.

Alors Y est de loi N (0, 1) en effet

φY (t) = E[eitY ] = E[eitX 1|X|≤a ] + E[e−itX 1{|X|>a} ]


= E[eitX 1{|X|≤a} ] + E[eitX 1{|−X|>a} ] = E[eitX 1{|X|≤a} ] + E[eitX 1{|X|>a} ]
2 /2
= E[eitX (1{|X|≤a} + 1{|X|>a} )] = E[eitX ] = e−t
xv

car la loi de X est symétrique : L(X) = L(−X). Puis, la variable X + Y est donnée par

X + X = 2X si |X| ≤ a
X +Y =
X −X =0 si |X| > a
= 2X1{|X|≤a} .

La combinaison linéaire X + Y a un atome en 0 car P(X + Y = 0) ≥ P(|X| > a) > 0.


Elle ne suit donc pas une loi gaussienne. Le couple aléatoire (X, Y ) n’est donc pas gaussien
(sinon on devrait avoir X + Y de loi gaussienne !).
De plus, cet exemple montre aussi que dans la Proposition 0.16, l’hypothèse (X, Y ) gaussien
est nécessaire et il ne suffit pas de supposer que X et Y sont des variables aléatoires
gaussiennes. En effet,

Cov(X, Y ) = E[XY ] = E[X 2 1|X|≤a ] − E[X 2 1{|X|>a} ]


= E[X 2 ] − E[X 2 1{|X|>a} ] − E[X 2 1{|X|>a} ]
= 1 − 2E[X 2 1{|X|>a} ].

La fonction u(a) = E[X 2 1{|X|>a} ] tend vers 0 en +∞ par convergence dominée, est continue
et vaut E[X 2 ] = 1 en 0. Par le théorème des varleurs intermédiaires, il existe donc a ∈ R+
tel que u(a) = 1/2 et Cov(X, Y ) = 0. Pourtant, X et Y sont non indépendantes sinon la loi
du couple (X, Y ) serait
   
0 1 0
P(X,Y ) = PX ⊗ PY = N (0, 1) ⊗ N (0, 1) = N ,
0 0 1

qui est gaussienne, ce qui est faux. On a donc des variables aléatoires gaussiennes X et Y
non corrélées mais non indépendantes.
xvi ©JCB – M2 Math. – Université de Rennes
Première partie

Processus stochastiques

1
Chapitre 1

Processus stochastiques

Ce chapitre présente la notion générale de processus stochastique. On décrit d’abord les


lois des processus, leurs propriétés (Section 1.1), les trajectoires des processus (Section 1.2)
et la notion de convergence faible des processus (Section 1.3).
Définition 1.1 (Processus stochastique) Un processus stochastique X = (Xt )t∈T est une
famille de variables aléatoires Xt indexée par un ensemble T .
En général T = R+ ou R et on considère que le processus est indexé par le temps t ∈ T .
Si T est un ensemble fini, le processus est un vecteur aléatoire. Si T = N alors le processus
est une suite de variables aléatoires. Plus généralement quand T ⊂ Z, le processus est dit
discret. Pour T ⊂ Rd , on parle de champ aléatoire (drap quand d = 2).
Un processus dépend de deux paramètres : Xt (ω) dépend de t (en général le temps) et de
l’aléatoire ω ∈ Ω :
— Pout t ∈ T fixé, ω ∈ Ω 7→ Xt (ω) est une variable aléatoire sur l’espace de probabilité
(Ω, F, P) ;
— Pour ω ∈ Ω fixé, t ∈ T 7→ Xt (ω) est une fonction à valeurs réelles, appelée trajectoire
du processus. C’est un enjeu que de savoir si un processus admet des trajectoires
mesurables, continues, dérivables ou encore plus régulières.
Dans la suite, sauf mention contraire, on prendra T = R+ ou [0, 1].

1.1 Loi d’un processus


Définition 1.2 (Lois fini-dimensionnelles) On appelle lois fini-dimensionnelles d’un pro-
cessus l’ensemble des lois
L(Xt1 , . . . , Xtp ) : t1 , . . . , tp ∈ T, p ∈ N∗ .

(1.1)

Un processus X = (Xt )t∈T est à valeurs dans RT . On munit RT de la tribu cylindrique


σ(Cyl) engendrée par la famille des cylindres :
Cyl = {x : T → R : x(t1 ) ∈ A1 , . . . , x(tp ) ∈ Ap }, A1 , . . . , Ap ∈ B(R), p ∈ N∗ .


3
4 Chapitre 1. ©JCB – M2 Math. – Université de Rennes

Il s’agit de la tribu sur RT rendant mesurables les applications coordonnées Πt : x ∈ RT 7→


x(t) ∈ R. Il est légitime de regarder un processus X comme une fonction aléatoire à valeurs
dans (RT , σ(Cyl)) : 
RT , σ(Cyl)

(Ω, F) →
X: (1.2)
ω 7→ X(ω) = Xt (ω) t∈T .

On définit bien une variable aléatoire à valeurs dans RT , σ(Cyl) . T En effet pour tout
cylindre C = {x ∈ R : x(t1 ) ∈ A1 , . . . , x(tp ) ∈ Ap }, on a X (C) = pi=1 Xt−1
T −1
i
(Ai ). Mais
−1 −1
chaque Xti étant une variable aléatoire, on a X ti (Ai ) ∈ F et X (C) ∈ F. Comme Cyl
engendre σ(Cyl), on a bien la F, σ(Cyl) -mesurabilité de (1.2).

On peut alors considérer la loi PX du processus sur RT , σ(Cyl) comme mesure image P
par la variable aléatoire (1.2). En fait les lois fini-dimensionnelles (1.1) de X définissent
une loi sur RT , σ(Cyl) par extension :

Théorème 1.3 (Extension de Kolmogorov) Soit Q = {Qt1 ,...,tp : t1 , . . . , tp ∈ T, p ∈ N∗ }


une famille de lois fini-dimensionnelles vérifiant les conditions de compatibilité :
— si s = (ti1 , . . . , tip ) est une permutation de t = (t1 , . . . , tp ) alors pour tout Ai ∈ B(R),
i = 1, . . . , p, on a

Qt (A1 × · · · × Ap ) = Qs (Ai1 × · · · × Aip );

— si t = (t1 , . . . , tp ) avec p ≥ 2, s = (t1 , . . . , tp−1 ) et A ∈ B(Rp−1 ) alors

Qt (A × R) = Qs (A).

Alors il existe une mesure de probabilité P sur RT , σ(Cyl) qui admet Q = {Qt1 ,...,tp :
t1 , . . . , tp ∈ T, p ∈ N∗ } pour famille de lois fini-dimensionnelles.

Démonstration : Admis, cf. [Kal] ou [KS]. □

Comme les lois fini-dimensionnelles d’un processus X = (Xt )t∈T satisfont immédiatement
les relations de compatibilité, le théorème d’extension de Kolmogorov (Th. 1.3) permet
effectivement de considérer la loi PX d’un processus X sur RT , σ(Cyl) . De plus :

Proposition 1.4 La loi PX d’un processus  stochastique X = (Xt )t∈T est entièrement carac-
térisée par ses lois fini-dimensionnelles L(Xt1 , . . . , Xtp ) : t1 , . . . , tp ∈ T, p ∈ N∗ .

Démonstration : Considérons deux processus X (1) et X (2) partageant les mêmes lois fini-
dimensionnelles.
 Nous montrons que leur loi P1 := PX (1) et P2 := PX (2) sont égales sur
RT , σ(Cyl) .
Remarquons que l’ensemble Cyl des cylindres est un π-système (stable par intersection
finie : l’intersection de deux cylindres est encore un cylindre). Notons M = {A ∈ σ(Cyl) :
P1 (A) = P2 (A)}. Il s’agit d’une classe monotone (RT ∈ M ; M est stable par différence
1.1. Loi d’un processus 5

ensembliste, M est stable par réunion croissante) et M contient Cyl (puisque X (1) et X (2)
ont mêmes lois fini-dimensionnelles) : pour un cylindre C,
(1) (1)  (2) (2) 
P1 (C) = P Xt1 ∈ A1 , . . . , Xtp ∈ Ap = P Xt1 ∈ A1 , . . . , Xtp ∈ Ap = P2 (C).

Le théorème de classe monotone assure alors que σ(Cyl) ⊂ M, ce qui prouve la Prop. 1.4. □

Il y a plusieurs façons pour des processus stochastiques X et Y d’être égaux :

Définition 1.5 (Égalités de processus)


— Deux processus X et Y ont même lois s’ils ont même lois fini-dimensionnelles : pour
tout p ∈ N∗ et t1 , . . . , tp ∈ T ,
 L 
Xt1 , . . . , Xtp = Yt1 , . . . , Ytp .
L
On écrira X = Y .
— On dira que Y est une version (ou une modification) du processus X si pour tout
t ∈ T , on a P(Xt = Yt ) = 1.
— Deux processus X et Y sont dit indistinguables s’il existe N ∈ F négligeable tels
que, pour tout ω ̸∈ N , on a Xt (ω) = Yt (ω) pour tout t ∈ T ; de façon un peu abusive
(parce que {Xt = Yt : ∀t ∈ T } n’est pas nécessairent un évènement), on écrit :
P(Xt = Yt : ∀t ∈ T ) = 1.

Il est facile de voir que pour deux processus stochastiques X et Y , les notions d’égalité des
lois de processus s’ordonnent logiquement de la façon suivante :

Proposition 1.6 indistinguable ⇒ modification ⇒ même lois fini-dimensionnelles.

Les implications sont strictes, comme indiqué dans les exemples ci-dessous :

Exemple 1.7 1. Soit N ∼ N (0, 1) et pour tout t : Xt = N , Yt = −N . Alors (Xt )t≥0 et


(Yt )t≥0 ont même lois fini-dimensionnelles tandis que P(Xt = Yt ) = P(2N = 0) = 0,
ie. X, Y ne sont pas version l’un de l’autre.

2. Soit l’espace de probabilité [0, 1], B([0, 1]), λ et T = [0, 1]. Considérons D la diago-
nale de [0, 1] × [0, 1] et définissons

X(t, ω) = 0 ∀(t, ω), Y (t, ω) = 1D (t, ω).

Pour t fixé, on a X(t, ω) = 0 et Y (t, ω) = 1{t} (ω). On a donc X(t, ω) = Y (t, ω) pour
tout ω ̸= t, c’est à dire presque sûrement : les processus
 X, Y sont versions l’un de
l’autre. Pourtant, P {ω : X(t, ω) = Y (t, ω), ∀t ∈ [0, 1]} = 0 : les processus X et Y
ne sont pas indistinguables.
6 Chapitre 1. ©JCB – M2 Math. – Université de Rennes

Dans l’exemple 2) ci-dessus, on observe que les trajectoires de X sont continues tandis que
celles de Y ne le sont pas. En fait, c’est ce qu’il manque pour avoir une réciproque :
Proposition 1.8 Soit T séparable (ie. T contient une partie dense dénombrable) et X, Y
modifications avec des trajectoires continues presque sûrement alors ils sont indistinguables.
Remarque 1.9 Si T ⊂ R alors on peut supposer seulement la continuité à droite ou à
gauche des trajectoires.
Démonstration : On choisit D une partie dénombrable dense dans T . Pour tout t ∈ D, on
a P(Xt = Yt ) = 1 et par dénombrabilité de D, l’ensemble A = {Xt = Yt : t ∈ D} ∈ F
est de probabilité 1. L’ensemble B = {X et Y sont à trajectoires continues} est aussi de
probabilité 1. Soit ω ∈ A∩B tel que t 7→ Xt (ω), t 7→ Yt (ω) sont continues. On a P(A∩B) = 1
et pour ω ∈ A ∩ B :
— si t ∈ D, on a Xt = Yt ;
— si t ̸∈ D, il existe tn ∈ D avec tn → t, n → +∞. On a Xtn = Ytn (tn ∈ D, ω ∈ A)
et Xtn → Xt , Ytn → Yt (continuité des deux trajectoires pour ω ∈ B). On a donc
Xt = Yt sur A ∩ B.
Finalement pour ω ∈ A ∩ B : Xt = Yt pour tout t ∈ T ; ce qui signifie que X, Y sont des
processus indistinguables. □

Exemples de propriétés en loi des processus


Il existe de nombreuses classes de processus particuliers : les processus de Markov (en
particulier les chaı̂nes de Markov quand T = N), les martingales, les processus gaussiens, les
processus de Poisson, les processus stables ou encore les processus de Lévy (qui contiennent
les trois exemples précédents). Ces types de processus sont caractérisés par des propriétés
remarquables de leurs lois fini-dimensionnelles. Nous donnons ici quelques exemples de
telles propriétés en loi des processus. Ces propriétés sont souvent fort utiles pour modéliser
des phénomènes réels.
L
Définition 1.10 Un processus est dit (strict) stationnaire si pour tout h ≥ 0, (Xt+h )t≥0 =
(Xt )t≥0 ne dépend pas de h > 0, c’est à dire pour tout h > 0 et tout t1 , . . . , tp ≥ 0, on a
L
(Xt1 +h , . . . , Xtp +h ) = (Xt1 , . . . , Xtp ).
Un processus est dit à accroissements stationnaires si la loi des accroissements Xt+h − Xt
L
ne dépend pas de t > 0, ie. Xt+h − Xt = Xh .
Un processus X est dit à accroissements indépendants si pour tout p ≥ 1 et 0 < t1 < t2 <
· · · < tp , les variables aléatoires Xt1 , Xt2 − Xt1 , . . . , Xtp − Xtp−1 sont indépendantes.

Exemple 1.11 (TP= N) Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. On
considère Sn = ni=1 Xi le processus discret des sommes partielles. On parle de marche
aléatoire. Alors (Sn )n≥1 est un processus à accroissements indépendants. Si en plus les
variables aléatoires Xn , n ≥ 1, sont de même loi (les variables aléatoires sont iid), le
processus est à accroissements indépendants et stationnaires.
1.2. Régularité des trajectoires 7

1.2 Régularité des trajectoires


D’après l’Exemple 1.7, les versions d’un processus stochastiques n’ont pas toujours la
même régularité de leurs trajectoires. Aussi, il est intéressant de chercher si un processus X
admet des versions X e dont les trajectoires ont de bonnes propriétés de régularité et d’avoir
des conditions le garantissant. Dans cette section, on s’attache à trouver des versions à
trajectoires continues d’un processus.

Théorème 1.12 (Kolmogorov-Čentsov) Soit (Xt )t∈T un processus indexé par un intervalle
T de R et à valeurs dans (E, d) espace métrique complet. On suppose qu’il existe a, b, C > 0
vérifiant pour tout s, t ∈ T :
E d(Xt , Xs )a ≤ C|t − s|1+b .
 
(1.3)

Alors il existe une version X


e de X dont les trajectoires sont localement höldériennes d’ex-

posant γ pour tout γ ∈]0, b/a[, ie. pour tout s, t ∈ T : d X es (ω) ≤ Cγ (ω)|t − s|γ .
es (ω), X
En particulier, Xe est une version continue de X.

Remarque 1.13 — La condition du théorème porte sur les lois de dimension 2 :


Z
a
d(x, y)a P(Xt ,Xs ) (dx, dy),
 
E d(Xt , Xs ) =
R2

ce qui est une condition légère sur la loi, caractérisée par toutes les loi fini-dimension-
nelles. En pratique, pour vérifier (1.3), il faut donc calculer des moments pour des
vecteurs de dimension 2.
— Quand (E, d) = (R, | · |), a priori, dans le théorème, a et b sont non liés. En réalité,
on peut toujours prendre a ≥ 1 + b. En effet, si a < 1 + b, alors (1.3) se réécrit
 a
d(Xt , Xs )
E ≤ c|t − s|1+b−a
t−s
avec 1 + b − a > 0. En faisant s → t, la dérivée dans le sens La de (Xt )t∈T est
nulle et (Xt )t∈T est donc constant. Ce n’est donc pas très intéressant d’utiliser le
Théorème 1.12 dans un tel cas : puisque le processus initial est en fait constant, il
est évident qu’il est aussi continu.
— La condition b > 0 est essentielle : le processus de Poisson compensé (Πt − t)t≥0
fournit un contre-exemple quand b = 0. Soit Xt = Πt − t où (Πt )t≥0 est un pro-
cessus de Poisson (processus à accroissements indépendants, stationnaires avec des
marginales de loi de Poisson, cf. Section 4.8). On a
Πt ∼ P(t), E[Πt ] = t, Var(Πt ) = t,
soit pour X :
E |Xt − Xs |2 = Var Πt − Πs = Var Πt−s = t − s.
   
8 Chapitre 1. ©JCB – M2 Math. – Université de Rennes

On a donc (1.3) avec a = 2, b = 0 et C = 1. Or les trajectoires du processus de


Poisson sont càdlàg (et même constantes par morceaux avec des sauts +1) or d’après
la Prop. 1.8 et la Rem. 1.9, il devrait coı̈ncider avec sa version continue !

Démonstration : (Th. 1.12, Kolmogorov-Čenstov) Nous supposons que T est l’intervalle


borné [0, 1]. Si l’intervalle T est non borné (par exemple si T = R+ ), on peut appliquer
le cas borné à T = [0, 1], [1, 2], [2, 3] etc et on trouve encore que X a une modification
continue définie sur T , qui est localement höldérienne d’exposant γ pour tout γ ∈]0, b/a[.
Pour simplifier la présentation, on prend dans la suite T = [0, 1].
Il suffit de montrer que pour γ ∈]0, b/a[ fixé, X a une modification dont les trajectoires sont
höldériennes d’exposant γ. En effet, on appliquera alors ce résultat à une suite γn ↗ b/a
en observant que les processus obtenus sont des versions continues du même processus X
donc indistinguables par la Prop. 1.8.
On note D l’ensemble (dénombrable) des nombres dyadiques t ∈ [0, 1[ qui s’écrivent sous
la forme
p
X
t= ϵk 2−k avec ϵk ∈ {0, 1}, 1 ≤ k ≤ p.
k=1

Le point clef est le résultat suivant dû au lemme de Borel-Cantelli :

Lemme 1.14 Pour tout γ ∈]0, b/a[, ps il existe une constante Cγ (ω) < +∞ telle que pour
tout s, t ∈ D :
d Xs , Xt ≤ Cγ (ω)|t − s|γ .


Preuve du lemme. Avec l’inégalité de Markov, l’hypothèse (1.3) du Théorème 1.12 entraı̂ne
que, pour a > 0 et s, t ∈ T , u > 0

P d(Xs , Xt ) ≥ u ≤ u−a E d(Xs , Xt )a ≤ Cu−a |t − s|1+b .


  

En appliquant cette inégalité avec s = (i−1)2−n , t = i2−n (pour i = 1, . . . , 2n ) et u = 2−nγ ,


on a :
P d(X(i−1)2−n , Xi2−n ≥ 2−nγ ) ≤ C2naγ 2−(1+b)n .


En sommant sur i ∈ [1, 2n ], on trouve


2n
[ 
d(X(i−1)2−n , Xi2−n ) ≥ 2−nγ ≤ 2n C2naγ−(1+b)n = C2−n(b−aγ) .

P
i=1

Comme b − aγ > 0, on a

X 2n n
+∞  [ 
P d(X(i−1)2−n , Xi2−n ) ≥ 2−nγ < +∞
n=1 i=1
1.2. Régularité des trajectoires 9

et le lemme de Borel-Cantelli assure que presque sûrement il existe n0 (ω) ∈ N tel que dès
que n ≥ n0 (ω) pour tout i ∈ {1, . . . , 2n }, on a

d X(i−1)2−n , Xi2−n ≤ 2−nγ .



(1.4)

A fortiori, ps  
d(X(i−1)2−n , Xi2−n )
Kγ (ω) := sup sup < +∞
n≥1 1≤i≤2n 2−nγ
(pour n ≥ n0 (ω), le terme entre parenthèses est majoré par 1 par (1.4), et il y a un nombre
fini de terme n ≤ n0 (ω) : le supn≥1 ci-dessus est donc bien fini !).
On obtient alors le résultat du Lemme 1.14 avec

γ+1 1 − 2−γ + 21−γ


Cγ (ω) = 2 Kγ (ω).
1 − 2−γ

En effet, considérons s, t ∈ D avec s < t. Soit p ≥ 1 tel que 2−p−1 < t − s ≤ 2−p . Il existe
m ≥ 1 tel qu’on puisse écrire s, t ∈ D sous la forme :

s = k2−p + ϵ0 2−p + ϵ1 2−p−1 + · · · + ϵm 2−p−m


t = k2−p + ϵ′0 2−p + ϵ′1 2−p−1 + · · · + ϵ′m 2−p−m

oú ϵj , ϵ′j ∈ {0, 1}. On note pour j = 0, . . . , m

sj = k2−p + ϵ0 2−p + ϵ1 2−p−1 + · · · + ϵj 2−p−j


tj = k2−p + ϵ′0 2−p + ϵ′1 2−p−1 + · · · + ϵ′j 2−p−j

de sorte que s = sm et t = tm . Par l’inégalité triangulaire, on a

d(Xs , Xt ) = d(Xsm , Xtm )


m
X m
X
≤ d(Xs0 , Xt0 ) + d(Xsj−1 , Xsj ) + d(Xtj−1 , Xtj )
j=1 j=1
m
X m
X
≤ Kγ (ω)2−pγ + Kγ (ω)2−(p+j)γ + Kγ (ω)2−(p+j)γ
j=1 j=1
−γ
2 2−γ
≤ Kγ (ω)2−pγ + Kγ (ω)2−pγ + K γ (ω)2−pγ
1 − 2−γ 1 − 2−γ
 m
X 
car 2−(p+j)γ ≤ 2−pγ 2−γ /(1 − 2−γ )
j=1

+ 1 − 2−γ −pγ
2 1−γ
≤ Kγ (ω) 2
1 − 2−γ
≤ Cγ (ω)(t − s)γ
10 Chapitre 1. ©JCB – M2 Math. – Université de Rennes

où la dernière ligne vient de 2−p ≤ 2(t − s) et prouve le Lemme 1.14. □

On termine la preuve du Théorème 1.12 de la façon suivante : d’après le Lemme 1.14,


la fonction t 7→ Xt (ω) est ps γ-höldérienne sur D, donc uniformément continue sur D.
Comme (E, d) est complet, il existe ps un unique prolongement continu de cette fonction
à T = [0, 1]. Le prolongement reste γ-höldérien. Plus précisément, on pose pour tout
t ∈ [0, 1] :
Xet (ω) = lim Xs (ω)
s→t
s∈D

sur l’ensemble presque sûr {ω ∈ Ω : Kγ (ω) < +∞} où s 7→ Xs (ω) est γ-höldérienne sur
D et on pose X et (ω) = x0 sur l’ensemble {ω ∈ Ω : K(ω) = +∞} négligeable où x0 est
un point fixé quelconque de E. Par construction, le processus X
e a alors des trajectoires
höldériennes d’exposant γ sur [0, 1].
Il reste à voir que X
e est bien une version de X. Or l’hypothèse (1.3) assure avec l’inégalité
de Markov :  
 E d(Xs , Xt )a |t − s|1+b
P d(Xs , Xt ) ≥ ε ≤ ≤ . (1.5)
εa εa
Ainsi, pour tout t ∈ T fixé,
P
Xs −→ Xt , s → t.
Comme par construction Xs → X et ps quand s → t, s ∈ D, on conclut que Xt = X et ps par
unicité ps de la limite en probabilité. □

1.3 Convergence faible des lois de processus


On a vu qu’un processus X = (Xt )t∈T définit en (1.2) une variable aléatoire sur
T
R , σ(Cyl) . Cependant avec
 de bonnes propriétés trajectorielles, on peut améliorer l’es-
pace d’arrivée RT , σ(Cyl) , typiquement si X est à trajectoires continues alors X est à
valeurs dans C(T, R) (ou si ce n’est X, une de ses versions en utilisant le Théorème 1.12).
Quand T = [0, 1] (ou T borné), C(T, R) est normé par

∥x − y∥∞ = sup |x(t) − y(t)|, x, y ∈ C(T, R), (1.6)


t∈T

qui définit la topologie de la convergence uniforme. Il s’agit alors d’un espace de Banach.
Quand T = R+ (ou T borné), C(R+ , R) admet pour distance
+∞
X  
d(x, y) = 2−n min sup |x(t) − y(t)|, 1 , x, y ∈ C(R+ , R), (1.7)
n=1 t∈[0,n]

qui métrise la convergence uniforme sur tous les compacts.


1.3. Convergence faible des lois de processus 11

L’intérêt de considérer X à valeurs dans C(T, R) (ou un autre espace fontionnel, souvent
D(R+ , R), l’espace des fonctions càdlàg –continue à droite avec des limites à gauche– dit
espace de Skorohod, cf. [Bil2]) est alors que X est à valeurs dans un espace métrique (et
même souvent un espace métrique complet, séparable, dit espace polonais) et que dans ce
cadre la notion de convergence faible est bien développée, cf. Section 1.3.1.
On commence par s’assurer que le processus X = (Xt )t∈T reste bien une variable aléatoire
sur C(T, R) :  
(Ω, F) → C(T, R), B C(T, R)
X:  (1.8)
ω 7→ X(ω) = Xt (ω) t∈T .
L’espace C(T, R) est muni de deux tribus naturelles
 : la trace de la tribu cylindrique σ(Cyl)∩
C(T, R) et sa propre tribu borélienne B C(T, R) . En fait ces deux tribus coı̈ncident :
Proposition 1.15 Sur C(T, R), la tribu cylindrique trace coı̈ncide avec la tribu borélienne :
 
A ∩ C(T, R) : A ∈ Cyl) = B C(T, R) .
Démonstration : D’abord, Πt0 est continue sur (C(T, R), d) pour d en (1.7) puisque
|Πt0 (x) − Πt0 (y)| = |x(t0 ) − y(t0 )| ≤ ∥x − y∥∞,n
pour tout n ≥ t0 dont on
 déduit aisément la continuité pourTd. Dès lors Πt0 est mesurable
p
sur C(T, R), B C(T, R)
 . Comme tout cylindre s’écrit
 C = i=1 Π−1 ti (Ai ), Ai ∈
 B(R), on a
bien C ∈ B C(R+ , R) et donc Cyl ⊂ B C(R+ , R) puis σ(Cyl) ⊂ B C(R+ , R) .

Réciproquement, si A = {y ∈ C(T, R) T : ∥x − y∥[0,n] < η} est ouvert pour la convergence


uniforme sur les compacts, on a A = t∈[0,n]∩Q Π−1 t (]x(t) − η, x(t) + η[) car la condition
|y(t) − x(t)| < η pour tout t ∈ [0, n] ∩ Q est complétée pour tout t ∈ [0, n] par continuité.
L’ouvert A s’écrit alors comme une intersection
  de cylindres, ie. A ∈ σ(Cyl).
(dénombrable)
Puisque de tels A engendrent B C(T, R) , on a B C(T, R) ⊂ σ(Cyl). □

Finalement d’après la Prop. 1.15, le processus X vu comme en (1.8) définit bien une variable
alátoire sur C(T, R) et PX est alors une loi sur C(T, R).

1.3.1 Rappels sur la convergence faible


On rappelle la notion de convergence faible de variables aléatoires à valeurs dans un
espace métrique S. Quand S est un espace fonctionnel, typiquement C(T, R), la variable
aléatoire est en fait un processus stochastique à trajectoires continues.

Définition 1.16 (Convergence faible) Soit (Xn )n≥1 et X à valeurs dans S espace métrique
de lois Pn et P , on a Xn ⇒ X (ou Pn ⇒ P ) si et seulement si pour toute fonction
f : S → R continue et bornée
   
lim E f (Xn ) = E f (X) .
n→+∞
12 Chapitre 1. ©JCB – M2 Math. – Université de Rennes

Nous utiliserons les formulations équivalentes suivantes de la convergence faible. Pour plus
de détails on renvoie à [Bil2].
Théorème 1.17 (Porte-manteau) Les assertions suivantes sont équivalentes quand n →
+∞ pour des variables aléatoires Xn à valeurs dans un espace métrique S.
1. Xn ⇒ X, ie. pour toute fonction f : S → R continue et bornée
   
lim E f (Xn ) = E f (X) .
n→+∞

2. Pour toute fonction f : S → R uniformément continue et bornée


   
lim E f (Xn ) = E f (X) ;
n→+∞

3. Pour tout fermé F , lim supn→+∞ P(Xn ∈ F ) ≤ P(X ∈ F ) ;


4. Pour tout ouvert G, lim inf n→+∞ P(Xn ∈ G) ≥ P(X ∈ G) ;
5. Pour tout A ∈ B(S) tel que P X ∈ A \ A◦ = 0, limn→+∞ P(Xn ∈ A) = P(X ∈ A).


Démonstration : 1)⇒ 2) est évident.


2)⇒ 3). On considère F fermé et δ > 0. Pour ε > 0 assez petit, Gε =T{x : d(x, F ) < ε}
vérifie P(X ∈ Gε ) ≤ P(X ∈ F ) + δ puisque (comme F est fermé) ε>0 Gε = F . On
considère f (x) = φ(d(x, F )/ε) avec

 1 si t ≤ 0
φ(t) = 1 − t si 1 ≤ t ≤ 1
0 si 1 ≤ t

Alors, on montre que f est uniformément continue sur S, f (x) = 1 si x ∈ F et f (x) = 0


si x ∈ Gcε . De plus, 0 ≤ f (x) ≤ 1 pour tout x ∈ S. D’après 2), on a E[f (Xn )] → E[f (X)],
n → +∞. Puis comme 1F (x) = f (x)1F (x) et f (x) = f (x)1Gε (x),

P(Xn ∈ F ) = E[f (Xn )1F (Xn )] ≤ E[f (Xn )]


E[f (X)] = E[f (X)1Gε (X)] ≤ P(X ∈ Gε ) ≤ P(X ∈ F ) + δ.

Finalement,

lim sup P(Xn ∈ F ) ≤ lim E[f (Xn )] = E[f (X)] ≤ P(X ∈ F ) + δ.


n→+∞ n→+∞

Comme δ > 0 est arbitraire, cela établit 3).


3)⇔ 4) s’obtient facilement par passage au complémentaire.
3), 4) ⇒ 5). Soit A tel que X ̸∈ A \ A◦ ps. On a P X ∈ A = P(X ∈ A◦ ). Avec 3) et 4)


on déduit

lim sup P(Xn ∈ A) ≤ lim sup P Xn ∈ A ≤ P X ∈ A = P(X ∈ A◦ ) ≤ lim inf P(Xn ∈ A◦ ).


 
n→+∞ n→+∞ n→+∞
1.3. Convergence faible des lois de processus 13

Finalement lim supn→+∞ P(Xn ∈ A) = P(X ∈ A) = lim inf n→+∞ P(Xn ∈ A) ce qui montre
limn→+∞ P(Xn ∈ A) = P(X ∈ A).
5)⇒ 3). Soit F fermé et Fε = {x ∈ S : d(x, F ) ≤ ε}. Comme les ensembles ∂Fε = {x ∈
S : d(X, F ) = ε} sont disjoints, on a X ∈
̸ ∂Fε pour presque tout ε > 0. Pour un tel ε > 0,
d’après 5) on a

P(Xn ∈ F ) ≤ P(Xn ∈ Fε )
lim sup P(Xn ∈ F ) ≤ lim P(Xn ∈ Fε ) = P(X ∈ Fε )
n→+∞ n→+∞

T
ce qui prouve 3) car F = ε>0 Fε et P(X ∈ Fε ) → P(X ∈ F ), ε → 0 (convergence
monotone).
4)⇒ 1). Soit f ≥ 0 une fonction continue. Avec le lemme de Fatou, on a
Z +∞ Z +∞
E[f (X)] = P(f (X) > t)dt ≤ lim inf P(f (Xn ) > t)dt
0 0 n→+∞
Z +∞
≤ lim inf P(f (Xn ) > t)dt = lim inf E[f (Xn )]. (1.9)
n→+∞ 0 n→+∞

Pour f continue et bornée par M , on applique (1.9) à M + f et M − f pour obtenir


limn→+∞ E[f (Xn )] = E[f (X)], ce qui prouve 1). □

Proposition 1.18 Soit X et Xn , n ≥ 1 des variables aléatoires à valeurs dans un espace


métrique S. Les propriétés suivantes sont faciles à vérifier :
P
1. La convergence en proba Xn −→ X implique la convergence faible Xn ⇒ X.
2. (Continuous mapping theorem) Soit f : S → S ′ une application entre espaces mé-
triques. Alors si Xn ⇒ X et f est continue PX -ps, on a aussi f (Xn ) =⇒ f (X).
3. Si Xn , X sont des processus à trajectoires continues (ie. S = C(R+ , R) avec Xn ⇒ X,
on a la convergence faible des lois fini-dimensionnelles : pour tour p ≥ 1 et t1 , . . . , tp
 
Xn (t1 ), . . . , Xn (tp ) =⇒ X(t1 ), . . . , X(tp ) , n → +∞.

Le continuous mapping theorem montre que la convergence en loi se conserve par les
applications continues : de la même façon que si xn → x alors f (xn ) → f (x) quand f est
continue, le résultat reste vrai pour des variables (ou processus aléatoires) qui convergent
faiblement.
Démonstration : 1) Le premier point se justifie comme pour les variables aléatoires.
2) Le deuxième point est une conséquence facile du théorème porte-manteau (Th. 1.17) :
Soit F un ensemble fermé de S. Observons que f −1 (F ) ⊂ f −1 (F ) ∪ Df où Df désigne
l’ensemble des points de discontinuité de f . En effet, soit x ∈ f −1 (F ) limite d’une suite
(xn )n≥1 de f −1 (F ). Alors si f est continue en x, on a f (x) = limn→+∞ f (xn ) ∈ F car F
14 Chapitre 1. ©JCB – M2 Math. – Université de Rennes

est fermé et f (xn ) ∈ F , sinon c’est que x ∈ Df . Par le théorème porte-manteau (Th. 1.17)
pour Xn ⇒ X, on a :

lim sup P(f (Xn ) ∈ F ) ≤ lim sup P(Xn ∈ f −1 (F )) ≤ lim sup P Xn ∈ f −1 (F )



n→+∞ n→+∞ n→+∞

≤ P X ∈ f (F ) ≤ P X ∈ f −1 (F ) + P(X ∈ Df )
 
−1

= P X ∈ f −1 (F )


c’est à dire, encore par le théorème porte-manteau (Th. 1.17) : f (Xn ) =⇒ f (X).
3) Le troisième point est une conséquence du deuxième point avec l’application continue
Πt1 ...,tp : C(T, R) → Rp définie par Πt1 ...,tp (x) = (x(t1 ), . . . , x(tp )). □

La convergence faible de processus à trajectoires continues entraı̂ne la convergence des lois


fini-dimensionnelles. La réciproque est fausse : la convergence des lois fini-dimensionnelles
n’entraı̂ne pas la convergence faible des processus. Il peut y avoir un phénomène de perte
de masse vers l’infini comme illustré dans l’exemple suivant pour des variables aléatoires
réelles. De plus l’affirmation est fausse pour des processus qui ne sont pas à valeurs dans
C(T, R) : par exemple pour des processus càdlàg, Xn ⇒ X entraı̂ne X(t) ⇒ X(t) seulement
si X est continu en t.

Exemple 1.19 Sur C([0, 1], R), on considère les fonctions



2nt si t ∈ [0, 1/2n]
xn (t) =
2 − 2nt si t ∈ [1/2n, 1/n].
La suite de fonction xn converge simplement vers x = 0. On considère alors la suite de loi
Pn = δxn et P = δx et on observe que
— On n’a pas Pn ⇒ P car pour la fonction continue bornée f (y) = supt∈[0,1] y(t), on a
f (xn ) = 1, f (x) = 0, soit
Z Z
f dPn = f (xn ) = 1 ̸→ 0 = f (x) = f dP, n → +∞;

— Pour tout 0 < t1 < · · · < tp , avec Πt1 ,...,tp (y) = (y(t1 ), . . . , y(tp )) on a Πt1 ,...,tp (x) =
(0, . . . , 0) et pour n > 1/t1 aussi Πt1 ,...,tp (xn ) = (0, . . . 0), c’est à dire la convergence
des lois fini-dimensionnelles

Pn Π−1 −1
t1 ,...,tp ⇒ P Πt1 ,...,tp , n → +∞.

La convergence des lois fini-dimensionnelles n’entraı̂ne donc pas la convergence en loi de


tout le processus.

Pour éviter une telle pathologie, il faut une condition supplémentaire, c’est l’objet de la
section suivante.
1.3. Convergence faible des lois de processus 15

1.3.2 Équitension
L’équitension est la condition qui empêche la perte de masse probabiliste. C’est la condi-
tion qui avec la convergence des lois fini-dimensionnelles donnera la convergence faible, cf.
Théorème 1.24. On renvoie à [Bil2] pour plus de détails sur cette notion.

Définition 1.20 (Équitension) Soit (Pn )n≥1 une suite de mesures de probabilité sur un es-
pace métrique. La suite est dite équitendue si pour tout ε > 0, il existe un compact Kε tel
que pour tout n ≥ 1 on a Pn (Kε ) > 1 − ε.

En fait, l’équitension s’exprime aussi par une propriété de relative compacité (dans les bons
espaces métriques : ceux qui sont séparables et complets, ie. polonais).

Définition 1.21 (Relative compacité) Une suite de mesures (Pn )n≥1 est dite relativement
compacte si pour toute sous suite (n′ ) ⊂ N, il existe (n′′ ) ⊂ (n′ ) telle que Pn′′ converge
faiblement vers une mesure de probabilité.

Théorème 1.22 (Prohorov) Soit (Pn )n≥1 une suite de mesures dans un espace métrique
séparable complet. Alors (Pn )n≥1 est équitendue si et seulement si (Pn )n≥1 est relativement
compacte.

Démonstration : Admis, cf. [Bil2]. □

En général–dans ce cours–, les processus qu’on considère sont à trajectoires continues et


leurs lois sont donc des mesures de probabilité sur l’espace des fonctions continues C(T, R),
complet et séparable pour la topologie uniforme associée à la norme uniforme ∥f ∥∞ =
supx∈T |f (x)|, donc polonais. Dans ce cas, on a un critère d’équitension plus explicite :

Théorème 1.23 Soit (Pn )n≥1 la suite des lois de processus Xn à trajectoires continues. On
suppose qu’il existe a, b, C > 0 tels que pour tout s, t ∈ [0, 1],

sup E |Xn (t) − Xn (s)|a ≤ C|t − s|1+b .


 
n≥1

Alors la suite (Pn )n≥1 est équitendue.

Noter la ressemblance avec le Th. 1.12 (Kolmogorov-Čentsov).


Démonstration : Admis, cf. [Bil2]. □


Théorème 1.24 Soit P (n) n≥1
une suite équitendue dans C(T, R) telle que les lois fini-
(n) (n)
dimensionnelles Pt1 ,...,tm convergent faiblement pour tout t1 , . . . , tp ∈ T : Pt1 ,...,tp =⇒ Pt1 ,...,tp .
Alors il existe P de lois fini-dimensionnelles Pt1 ,...,tp : t1 , . . . , tp ∈ T, p ∈ N∗ telle que


P (n) ⇒ P .
16 Chapitre 1. ©JCB – M2 Math. – Université de Rennes

En fait, la vraie condition supplémentaire nécessaire dans le Th. 1.24 est la relative compa-
cité de la suite (Pn )n≥1 mais d’après le théorème de Prohorov (Th. 1.22), c’est équivalent
à l’équitension de la suite pour laquelle on dispose de critères explicites.
Démonstration : Pour montrer que P (n) ⇒ P , il suffit de voir que pour toute (n′ ) ⊂ N, il
′′
existe (n′′ ) ⊂ (n′ ) tel que P (n ) ⇒ P . R R
(n)
En effet, on montre qu’alors pour f continue bornée, R on (n)
a f dP
R → f dP . Si ce n’était
pas le cas, il existerait f continue bornée telle que f dP ̸→ f dP , ie. il existerait ε > 0
et (n′ ) ⊂ (n) tels que Z Z

f dP (n ) − f dP > ε. (1.10)
′′
Par la propriété de relative compacité, il existe (n′′ ) ⊂ (n ′
R ) tel(n′′que PR(n ) ⇒ P . En
)
particulier, d’après le théorème porte-manteau (Th. 1.17) f dP → f dP . Comme
(n′′ ) ′′ (n′ )
R R
f dP )n est une suite extraite de f dP n′
, il y a une contradiction avec (1.10).
R R
La contradiction justifie finalement la convergence cherchée : f dP (n) → f dP .
Soit donc (n′ ) ⊂ (n) une sous-suite. Par équitension (relative compacité), il existe (n′′ ) ⊂
′′
(n′ ) et Q tels que P (n ) ⇒ Q. En particulier, la convergence des lois fini-dimensionnelles
(n′′ ) (n)
exige que Pt1 ,...,tp ⇒ Qt1 ,...,tp . Mais par hypothèse Pt1 ,...,tp ⇒ Pt1 ,...,tp et donc en particu-
(n′′ )
lier Pt1 ,...,tp ⇒ Pt1 ,...,tp . On doit donc avoir Qt1 ,...,tp = Pt1 ,...,tp , pour tout t1 , . . . , tp ∈ T . La
′′
Prop. 1.4 assure alors P = Q. Finalement, P (n ) ⇒ P = Q ce qui conclut car la première
partie de la preuve. □
Chapitre 2

Processus gaussiens

Dans ce chapitre, on commence par présenter la classe des processus gaussiens dont
on introduit d’abord la loi en Section 2.1. La régularité des trajectoires est considérée en
Section 2.2. La notion d’espace gaussien est décrite en Section 2.3. Enfin, on donne plusieurs
exemples de processus gaussiens en Section 2.4.

2.1 Lois des processus gaussiens


Définition 2.1 (Processus gaussien) Un processus stochastique (Xt )t∈T est gaussien si toutes
ses lois fini-dimensionnelles L(Xt1 , . . . , Xtp ) sont gaussiennes (pour tout p ∈ N∗ et t1 , . . . , tp ∈
T ).
Autrement dit X = (Xt )t∈T est gaussien si et seulement si toute combinaison linéaire de
ses marginales a1 Xt1 + · · · + ap Xtp suit une loi gaussienne (pour tout p ∈ N∗ , t1 , . . . , tp ∈ T
et a1 , . . . , ap ∈ R).

Remarque 2.2 Les conséquences suivantes sont immédiates :


— Toutes les marginales d’un processus gaussien sont gaussiennes.
— Toute combinaison linéaire de marginales d’un processus gaussien est encore gaus-
sienne.

Il est connu que la loi d’un vecteur gaussien (Xt1 , . . . , Xtp ) est déterminée (par  exemple via
sa fonction caractéristique) par le vecteur
 moyenne mX = E[Xt1 ], . . . , E[Xtp ] et la matrice
de covariance ΣX = Cov(Xti , Xtj 1≤i,j≤p ). On comprend dès lors que toutes les lois fini-
dimensionnelles d’un processus gaussien (donc la loi du processus, cf. Prop. 1.4) est connue
dès qu’on se donne la fonction moyenne m(t) = E[Xt ] et l’opérateur de covariance K(s, t) =
Cov(Xs , Xt ). En effet, la loi fini-dimensionnelle de (Xt1 , . . . , Xtp ) est alors la loi gaussienne
N (mp , Kp ) de dimension p avec mp = (m(t1 ), . . . , m(tp )) et Kp = (K(ti , tj ))1≤i,j≤p . Les
fonctions m et K définissent donc toutes les lois fini-dimensionnelles de X et donc aussi sa
loi en tant que processus, cf. Prop. 1.4. Observons en plus que
— K est symétrique : K(s, t) = K(t, s) ;

17
18 Chapitre 2. ©JCB – M2 Math. – Université de Rennes

— K est de type positif, ie. si c : T → R est une fonction à support fini alors :
 !2 
X X
c(s)c(t)K(s, t) = Var  c(s)Xs  ≥ 0. (2.1)
s,t∈T s∈T

Réciproquement, étant donné une fonction m sur T et un opérateur K sur T × T , existe-


t-il un processus gaussien X admettant m pour fonction moyenne et K pour opérateur de
covariance ? La réponse est donnée par le résultat suivant :
Théorème 2.3 Soit K une fonction symétrique de type positif sur T × T . Il existe alors un
processus gaussien (centré) dont la fonction de covariance est K.
Démonstration : Quitte à considérer ensuite le processus X(t) + m(t), on considère pour
simplifier le cas d’un processus centré (m = 0). Il s’agit alors d’une application simple
du théorème d’extension de Kolmogorov
 (Th. 1.3). On construit une probabilité P (K) sur
l’espace mesurable RT , σ(Cyl) de telle sorte que sous P (K) le processus des coordonnées
Xt (ω) = ω(t) (dit processus canonique) est un processus gaussien de fonction de cova-
riance K.
Pour cela, si {t1 , . . . , tp } est une partie finie de T , on construit d’abord une probabilité
(K)
P{t1 ,...,tp } sur R{t1 ,...,tp } ∼ Rp comme la loi du vecteur gaussien de matrice de covariance
(K(ti , tj ))1≤i,j≤p (qui existe d’après les rappels gaussiens puisque la matrice est symétrique
positive).
(K)
On vérifie aisément que les lois P{t1 ,...,tp } satisfont les propriétés de compatibilité du théo-
rème d’extension de Kolmogorov (Th. 1.3) qui s’applique donc.

La loi P (K) ainsi construite sur RT , σ(Cyl) est bien celle d’un processus gaussien puisque
par construction toutes ses lois fini-dimensionnelles sont gaussiennes avec pour fonction de
covariance K. □

Exemple 2.4 (Processus stationnaire) On considère le cas T = R et on se donne une


mesure finie symétrique (ie. ν(−A) = ν(A)) sur R. On pose alors
Z
K(s, t) = eiu(t−s) ν(du). (2.2)
R

On vérifie aisément que K est un opérateur réel symétrique K(t, s) = K(s, t) (car ν est
symétrique) et de type positif :
X Z X 2
c(s)c(t)K(s, t) = c(s)eius ν(du) ≥ 0.
s,t∈T s∈T

La fonction K possède la propriété supplémentaire de dépendre seulement de la différence


t − s. On parle de stationnarité faible (ou de deuxième ordre) et on écrit alors K(t, s) =
2.1. Lois des processus gaussiens 19

K(|t − s|). On en déduit aussitôt que le processus (centré) X associé à K par le théorème
précédent est stationnaire (au sens strict), c’est à dire pour tout choix de p ∈ N∗ et
t1 , . . . , tp ≥ 0, h ∈ R, on a
 L 
Xt1 +h , . . . , Xtp +h = Xt1 , . . . , Xtp .

Réciproquement, il est vrai aussi que si (Xt )t≥0 est un processus gaussien stationnaire,
continu dans L2 (ie. lims→t E[(Xt − Xs )2 ] = 0) la fonction de covariance de X est de la
forme (2.2) (théorème de Bochner). La mesure ν s’appelle la mesure spectrale du processus.
Elle véhicule beaucoup d’informations décrivant le processus. Par exemple, on a K(0) =
Var(Xt ) = ν(R).

De façon générale pour un processus stationnaire, on a

Proposition 2.5 (Processus stationnaire) Soit X processus stationnaire L2 centré et de


fonction de covariance K. On a équivalence entre :
1. la fonction K continue en 0 ;
2. le processus X est L2 -continu : lims→t E[(Xt − Xs )2 ] = 0 ;
3. la fonction K est continue partout.

Démonstration : 1) ⇔ 2) Comme X est centré, on a

E |Xt − Xs |2 = E Xt2 + E Xs2 − 2E Xt Xs


       

= K(t, t) + K(s, s) − 2K(t, s)


= 2K(0) − 2K(|t − s|),

ce qui justifie l’équivalence 1) ⇔ 2). Comme 3) ⇒ 1) est clair, on conclut avec 2) ⇒ 3) qui
vient de
   
K(t + h) = E Xt+h X0 = E (Xt+h − Xt )X0 + K(t)
avec par l’inégalité de Cauchy-Schwarz
q 
E (Xt+h − Xt )X0 ≤ E (Xt+h − Xt )2 E[X02 ] = K(0)1/2 ∥Xt+h − Xt ∥2 .
  

Au passage, on a utilisé que la stricte stationnarité d’un processus gaussien est équivalente
à la stationnarité faible :

Proposition 2.6 Un processus gaussien X est stationnaire si et seulement si t 7→ E[Xt ] est


constante et K(s, t) = K(s − t) (on parle de stationnarité faible).
20 Chapitre 2. ©JCB – M2 Math. – Université de Rennes

Démonstration : Il est clair que ces conditions sont nécessaires, que le processus soit gaus-
sien ou pas : comme par stationnarité, on a L(Xt ) = L(Xs ) pour tout t, s, on a E[Xt ] =
E[Xs ] et donc la fonction moyenne est constante ; de même L(Xt , Xs ) = L(Xt+h , Xs+h ) pour
tout t, s, h, alors on a Cov(Xt , Xs ) = Cov(Xt+h , Xs+h ) et donc la covariance ne dépend que
de la différence t − s.
Elles sont suffisantes seulement dans le cas gaussien puisque dans ce cas, la loi est caracté-
risée par t 7→ E[Xt ] et par K(s, t). Il est facile alors de voir dans ce cas qu’une translation
dans les paramètres de temps ne modifie pas ces fonctions sous les hypothèses de la pro-
position donc pas non plus la loi. □

2.2 Régularité gaussienne


Des bonnes conditions pour avoir une version assez régulière d’un processus gaussien
sont données dans le résultat suivant, conséquence facile du Théorème 1.12 (Kolmogorov-
Čentsov) dans le cadre gaussien.
Théorème 2.7 (Kolmogorov-Čentsov gaussien) Soit X un processus gaussien centré (E[Xt ] =
0), de fonction de covariance K(s, t). On suppose qu’il existe α > 0 et 0 < C < +∞ tels
que pour tout s, t ≥ 0 :
K(t, t) + K(s, s) − 2K(s, t) ≤ C|t − s|α .
Alors il existe une version continue X
e de X. De plus, pour tout 0 < γ < α/2, les trajectoires
de X
e sont ps höldériennes de coefficient γ.

Démonstration : À partir de E[|Xt − Xs |2 ] = E[Xt2 ] + E[Xs2 ] − 2E[Xt Xs ] ≤ C|t − s|α , on ne


peut pas appliquer directement le Théorème 1.12 (Kolmogorov-Čentsov) car α > 1 n’est
pas garanti alors que c’est requis pour le Th. 1.12. On s’intéresse plutôt à E[|Xt − Xs |2m ].
On rappelle que d’après la Prop. 0.3, pour X variable aléatoire normale centrée, on a :
E[X 2m ] = 2(2m)! m
m m! Var(X) . Il vient alors pour tout m ≥ 1 :

(2m)!
E |Xt − Xs |2m ≤ C m m |t − s|mα .
 
2 m!
Comme cela est valable pour tout m ≥ 1, on choisit l’entier m tel que mα > 1. D’après le
Théorème 1.12 (Kolmogorov-Čentsov) avec
b mα − 1
b = mα − 1, a = 2m, et = ,
a 2m
il existe une version mα−1
2m
-höldérienne de X, pour tout m > 1/α. Comme limm→+∞ mα−1
2m
=
α
2
, il existe une version γ-höldérienne de X pour tout γ < α/2.
Finalement, les versions höldériennes pour des exposants γ ̸= γ ′ coı̈ncident nécessairement
par indistinguabilité (Prop. 1.8). □
2.3. Espace gaussien 21

2.3 Espace gaussien


On rappelle que L2 (Ω, F, P) est un espace de Hilbert pour le produit scalaire ⟨X, Y ⟩ =
E[XY ].

Définition 2.8 (Espace gaussien) Un espace gaussien (centré) est un sous-espace fermé de
L2 (Ω, F, P) formé de variables gaussiennes centrées.

Par exemple, si X = (X1 , . . . , Xp ) est un vecteur gaussien centré dans Rp , alors Vect(X1 , . . . , Xp )
est un espace gaussien. (Vect(X1 , . . . , Xp ) est constitué des combinaisons linéaires d’un vec-
teur gaussien, elles sont donc gaussiennes).

Proposition 2.9 Si X = (Xt )t∈T est un processus gaussien, le sous-espace vectoriel fermé
de L2 (Ω, F, P) engendré par les variables aléatoires Xt , t ∈ T , est un espace gaussien,
appelé espace gaussien engendré par le processus X.
L2 (Ω,F ,P)
Démonstration : Le sous-espace vectoriel fermé Vect (Xt : t ∈ T ) est formé des
2
limites dans L (Ω, F, P) des combinaisons linéaires finies de marginales Xti de (Xt )t∈T .
Ces limites sont gaussiennes car
— comme (Xt )t∈T est gaussien, les combinaisons linéaires ni=1 ai Xti le sont aussi ;
P
— les limites L2 de variables gaussiennes sont gaussiennes, cf. Prop. 0.6.

Si H est un sous-ensemble de L2 (Ω, F, P), on note σ(H) la tribu engendrée par les variables
aléatoires Y ∈ H.

Théorème 2.10 Soit H un espace gaussien et soit {Hi , i ∈ I} une famille de sous-espaces
vectoriels de H. Alors les sous-espaces Hi , i ∈ I, sont orthogonaux dans L2 (Ω, F, P) si et
seulement si les tribus σ(Hi ), i ∈ I, sont indépendantes.

Ce résultat est une généralisation des Prop. 0.16 et 0.18 pour les variables et vecteurs
gaussiens. Comme dans ces cas, il est crucial que les espaces Hi soient contenus tous dans
un même espace gaussien.
Démonstration : Si on suppose les tribus σ(Hi ), i ∈ I, indépendantes, alors pour i ̸= j et
X ∈ Hi , Y ∈ Hj , on a
E[XY ] = E[X]E[Y ] = 0,
ce qui signifie que les espaces Hi sont deux à deux orthogonaux (le produit scalaire étant
donné dans ce contexte par la covariance : ⟨X, Y ⟩ = E[XY ]).
Réciproquement, supposons les espaces Hi , i ∈ I, deux à deux orthogonaux. Par dé-
finition de l’indépendance d’une famille infinie de tribus, il suffit de montrer que pour
tous indices distincts i1 , . . . , ip ∈ I, les tribus σ(Hi1 ), . . . , σ(Hip ) sont indépendantes. Pour
cela, il suffit de montrer que, si Y11 , . . . , Yn11 ∈ Hi1 , . . . , Y1p , . . . , Ynpp ∈ Hip les vecteurs
(Y11 , . . . , Yn11 ), . . . , (Y1p , . . . , Ynpp ) sont indépendants. En effet, pour chaque j, les ensembles
22 Chapitre 2. ©JCB – M2 Math. – Université de Rennes

de la forme {Y1j ∈ A1 , . . . , Ynjj ∈ Anj } forment une classe stable par intersection finie qui en-
gendre la tribu σ(Hj ), et on peut ensuite utiliser un argument classique de classe monotone.
Pour chaque j ∈ {1, . . . , p}, on considère Z1j , . . . , Zm j
j
une base orthonormée de Vect(Y1j , . . . , Ynjj ).
La matrice de covariance du vecteur

Z11 , . . . , Zm
1
, Z12 , . . . , Zm
2
, . . . , Z1p , . . . , Zm
p

1 2 p

est alors la matrice identité (car pour i ̸= j E[Zli Zkj ] = 0 à cause de l’orthogonalité de Hi et
Hj , et pour i = j, c’est dû au choix de Zli , 1 ≤ l ≤ mi , base orthonormée de Hi ). Ce vecteur
est gaussien car ses composantes sont dans H, espace gaussien. D’après la Proposition 0.18,
les composantes sont indépendantes. On conclut alors que les vecteurs

Z11 , . . . , Zm
1
, . . . , Z1p , . . . , Zm
p
 
1 p

sont indépendants. Comme pour chaque j ∈ {1, . . . , p} le vecteur (Y1j , . . . , Ynj1 ) est une
combinaison linéaire des coordonnées de (Z1j , . . . , Zm j
1
), de manière équivalente les vecteurs

Y11 , . . . , Yn11 , . . . , Y1p , . . . , Ynpp


 

sont indépendants, ce qui prouve le Théorème 2.10. □

Corollaire 2.11 Soit H un espace gaussien et K un sous-espace vectoriel fermé de K. On


note pK la projection orthogonale sur K. Soit X ∈ H.
1. On a  
E X|σ(K) = pK (X).
 
2. Soit σ 2 = E (X − pK (X))2 . Alors, pour tout borélien B de R,

P X ∈ B|σ(K) = Q(ω, B),

où Q(ω, ·) est la loi N pK (X)(ω), σ 2 , ie.

1
Z  (y − p (X)2 ) 
K
Q(ω, B) = √ exp − dy
σ 2π B 2σ 2

(et avec Q(ω, B) = 1B (pK (X)) si σ = 0).

Remarque 2.12 1. D’une manière générale, la loi conditionnelle d’une variable aléatoire
réelle X sachant une sous-tribu G est un noyau Q(ω, ·) G-mesurable, ie. une applica-
tion Q : Ω × B(R) → [0, 1] telle que
— pour tout ω, B 7→ Q(ω, B) est une mesure de probabilité sur (R, B(R)),
— pour tout B ∈ B(R), ω 7→ Q(ω, B) est G-mesurable,
2.4. Exemples de processus gaussiens 23

avec la propriété
P(X ∈ B|G) = Q(ω, B), ∀B ∈ B(R),
R
et plus généralement E[f (X)|G] = f (y) Q(ω, dy). La partie 2) du corollaire explique
alors que dans le cas gaussien, la loi conditionnelle
 de X sachant la tribu σ(K) est
2
explicite, il s’agit de la loi N pK (X), σ .
2. En général, pour une variable aléatoire X dans L2 (Ω, F, P), l’espérance conditionnelle
est donné par une projection orthogonale, ie. E[X|σ(K)] = pL2 (Ω,σ(K),P) (X). Dans le
cadre gaussien, l’assertion 1) du corollaire montre que la projection orthogonale est
à faire directement sur l’espace K, bien plus petit que L2 (Ω, σ(K), P) où il faut en
général projeter.
3. L’assertion 1) porte aussi le principe de la régression linéaire. Par exemple, si (X1 , X2 , X3 )
est un vecteur gaussien, la meilleure approximation de X3 connaissant X1 et X2 s’écrit
λ1 X1 + λ2 X2 où λ1 et λ2 sont déterminés en disant que X3 − (λ1 X1 + λ2 X2 ) est or-
thogonal à Vect(X1 , X2 ).

Démonstration : 1) Soit Y = X − pK (X). Alors Y est orthogonal à K et d’après le


Théorème 2.10, Y est indépendante de σ(K). On a donc
   
E X|σ(K) = E pK (X)|σ(K) + E[Y |σ(K)] = pK (X) + E[Y ] = pK (X).
2) On écrit, pour toute fonction f mesurable positive sur R+ ,
Z
   
E f (X)|σ(K) = E f (pK (X) + Y )|σ(K) = f (pK (X) + y)PY (dy)

où PY est la loi de Y qui est une loi N (0, σ 2 ) puisque Y est une variable gaussienne (cen-
trée) de variance σ 2 . (On a utilisé le fait général suivant : si Z est
R une variable aléatoire
G-mesurable et si Y est indépendante de G alors E[g(Y, Z)|G] = g(y, Z)PY (dy).) Le ré-
sultat annoncé en 2) découle aussitôt de la formule précédente. □

2.4 Exemples de processus gaussiens


Avant d’étudier en détails le mouvement brownien au Chapitre 3, on décrit brièvement ce
processus ainsi que quelques autres processus qui lui sont associés.

Mouvement brownien
Soit T = R+ , le mouvement brownien (standard) (Bt )t≥0 est le processus gaussien
défini par E[Bt ] = 0 et K(s, t) = min(s, t) (et à trajectoires presque sûrement continues).
On l’appelle aussi processus de Wiener. Noter que RK(t, s) = min(t, s) est bien de type
positif au sens de (2.1) puisqu’en écrivant K(t, s) = R 1[0,t] (x)1[0,s] (x) dx, on a
X Z X Z X 2
c(s)c(t)K(s, t) = c(s)1[0,s] (x)c(t)1[0,t] (x) dx = c(t)1[0,t] (x) dx ≥ 0.
s,t∈T R s,t∈T R t∈T
24 Chapitre 2. ©JCB – M2 Math. – Université de Rennes

Propriétés immédiates

1) B0 = 0 car la loi de B0 est N (0, 0) = δ0 , la loi dégénérée en 0.


2) (Bt )t≥0 est un processus à accroissements indépendants. En effet soit 0 ≤ t1 < t2 < t3 <
t4 , on a
Cov(Bt2 − Bt1 , Bt4 − Bt3 ) = E[(Bt2 − Bt1 )(Bt4 − Bt3 )]
= E[Bt2 Bt4 ] − E[Bt2 Bt3 ] − E[Bt1 Bt4 ] + E[Bt1 Bt3 ]
= t2 − t2 − t1 + t1 = 0.
Les variables aléatoires Bt2 − Bt1 et Bt4 − Bt3 sont donc non corrélées. Comme elles sont
gaussiennes, elles sont indépendantes. On justifie de même l’indépendance de n accroisse-
ments.
3) Bt ∼ N (0, t) car E[Bt ] = 0 et Var(Bt ) = K(t, t) = t.
4) Si s ≤ t, on a Bt − Bs ∼ Bt−s . En effet E[Bt − Bs ] = E[Bt ] − E[Bs ] = 0 et
Var(Bt − Bs ) = Cov(Bt − Bs , Bt − Bs )
= Cov(Bt , Bt ) − 2 Cov(Bt , Bs ) + Cov(Bs , Bs )
= t − 2s + s = t − s.
Comme Bt − Bs est de loi normale (combinaison linéaire des marginales d’un processus
gaussien), on a Bt − Bs ∼ N (0, t − s) ∼ Bt−s .
et = √1 Bct , t ≥ 0, définit encore un mouvement brownien (standard).
5) Autosimilarité : B c

6) Comportement analogue en 0 et en +∞ : B̃t = tB1/t t ≥ 0, définit encore un mouvement


brownien standard.
Le processus (Bt )t≥0 a donc des comportements liés au voisinage de 0 et en +∞
7) Localisation : pour tout t0 > 0, B̃t = Bt+t0 − Bt0 , t ≥ 0, définit encore un mouvement
brownien standard.
Le processus (Bt )t≥0 a donc le même comportement en 0 et en tout t0 > 0.
8) (Bt )t≥0 a des trajectoires ps holdériennes d’ordre γ pour tout γ ∈]0, 1/2[ mais ps non
dérivables.
En effet, E[|Bt − Bs |2 ] = |t − s|, donc la continuité höldérienne suit du Théorème 2.7.
On admet la non-dérivabilité des trajectoires, cf. Chapitre 3 et théorème de Kolmogorov-
Čentsov (Th. 2.7).
[Graphe typique des trajectoires.]

Pont Brownien
Soit T = [0, 1], le pont brownien (Bt◦ )t∈[0,1] est le processus gaussien centré défini par la
fonction de covariance K(s, t) = min(s, t) − st.
[Graphe typique des trajectoires.]
2.4. Exemples de processus gaussiens 25

Proposition 2.13 On peut définir directement un pont brownien B ◦ à partir d’un mouve-
ment brownien B par
Bt◦ = Bt − tB1 , t ≥ 0.

Démonstration : En effet, d’abord (Bt −tB1 )t∈[0,1] est gaussien, centré puis pour s, t ∈ [0, 1],
on a

Cov(Bt − tB1 , Bs − sB1 )


= Cov(Bt , Bs ) − t Cov(B1 , Bs ) − t Cov(Bs , B1 ) + ts Cov(B1 , B1 )
= min(t, s) − ts − st + ts
= min(t, s) − ts.

Comme le processus (Bt − tB1 )t∈[0,1] est gaussien, centré avec la bonne covariance, il s’agit
d’un pont brownien. □

Réciproquement, on peut construire le mouvement brownien B sur T = [0, 1] à partir du


pont brownien B ◦ et d’une loi normale N ∼ N (0, 1) indépendante de B ◦ par

Bt = Bt◦ + tN.

Exercice 2.14 Vérifier par un calcul de covariance qu’on définit ainsi un mouvement brow-
nien.

Propriétés immédiates
1. Bet◦ = B1−t◦
, t ≥ 0, définit encore un pont brownien. Le pont brownien est donc
symétrique en 0 et en 1 par retournement du temps.
2. (Bt◦ )t≥0 a des trajectoires ps holdériennes d’ordre γ pour tout γ ∈]0, 1/2[ mais ps non
dérivables.
L’argument est le même que pour le mouvement brownien avec E[(Bt◦ )2 ] = t − t2 .
3. Un pont brownien B ◦ est un mouvement brownien B conditionné à valoir 0 à la date
t = 1 (conditionnement singulier).

Processus d’Ornstein-Uhlenbeck
Soit T = R, le processus d’Ornstein-Uhlenbeck est le processus gaussien centré défini par

Ut = e−t/2 B(et )

où B est un mouvement brownien. On montre facilement que Ut ∼ N (0, 1) car Var(Ut ) = 1,
ce processus est donc stationnaire. Sa fonction de covariance est donnée par

K(s, t) = exp − |t − s|/2 .
26 Chapitre 2. ©JCB – M2 Math. – Université de Rennes

Elle ne dépend que de la différence (t − s), il s’agit bien d’un processus stationnaire de
fonction de covariance plus simplement donnée par K(t) = e−|t|/2 (exercice). Elle est donnée
du
sous forme intégrale (2.2) avec la mesure spectrale ν(du) = .
π(1 + u2 )

Brownien géométrique
Ce n’est pas un processus gaussien mais l’exponentiel d’un processus gaussien. Il s’agit de

St = x exp µt + σBt − σ 2 t/2 ,



t ≥ 0. (2.3)

Un tel processus modélise le cours d’un actif St soumis à un taux d’intérêt µ ≥ 0 et à une
volatilité σ > 0 et qui vaut x au temps 0.

On le trouve en supposant comme Samuelson qui l’a introduit que les rendements entre
deux périodes sont mesurés par les logarithmes des cours St .

On suppose de plus que les rendements entre 0 et t suivent un mouvement brownien de


tendance (drift) µ − σ 2 /2 et de coefficient de diffusion (volatilité) σ. Cela se traduit par les
propriétés suivantes sur les prix (St )t≥0 :
— S0 = x.
— Les rendements log St −log Ss suivent une loi gaussienne de moyenne (µ−σ 2 /2)(t−s)
et de variance σ 2 (t − s).
— Pour tout t0 = 0 ≤ t1 ≤ · · · ≤ tp , les accroissements relatifs Sti+1 /Sti , 0 ≤ i ≤ p − 1,
sont indépendants.
On en déduit qu’il existe un mouvement brownien (Bt )t≥0 tel que en t, St = x exp(µt +
σBt − σ 2 t/2).

Bruit blanc gaussien


Soit (A, µ) un espace mesuré et U = {A ∈ A : µ(A) < +∞}.

Le bruit blanc est un processus gaussien (XA )A∈A indexé par l’ensemble des mesurables A
défini par E[XA ] = 0 et Cov(XA , XB ) = µ(A ∩ B).

Il faut appréhender le buit blanc comme une mesure aléatoire A 7→ XA (ω). Elle est
aléatoire car XA dépend de ω. On connaı̂t quand même la loi de X(A) ∼ N (0, µ(A)).

Attention cependant, un bruit blanc n’est pas une vraie mesure car A 7→ XA n’est pas
σ-additif.
2.4. Exemples de processus gaussiens 27

Mouvement brownien fractionnaire


Soit T = R+ . Le mouvement brownien fractionnaire (mBf) (B H (t))t≥0 est le processus
gaussien centré défini par la fonction de covariance
1
|s|2H + |t|2H − |s − t|2H .

K(s, t) =
2
Le paramètre H s’appelle indice de Hurst.

Propriétés immédiates
1. Pour H = 1/2, le mBf devient le mouvement brownien standard.
 
2. On a E |B H (t) − B H (s)|2 = |t − s|2H .
3. Autosimilarité : B H (t) = c−H B H (ct), t ≥ 0, définit encore un mBf d’indice H.
4. Les accroissements du mBf ne sont indépendants que lorsque H = 1/2 (c’est à dire
dans le cas du mouvement brownien).
 
Cas H = 1. On a E B H (t)B H (s) = st. On montre alors qu’il s’agit d’un processus
dégénéré de la forme B H (t) = tB H (1). Il s’agit en fait d’une droite aléatoire. (Dans ce cas,
la dépendance est très forte dans la trajectoire !)
Cas H = 0. On a

 1 1/2 si s ̸= t
E B H (t)B H (s) = |s|0 + |t|0 − |s − t|0 =
 
2 1 si s = t.

Dans le cas H = 0, on peut construire le mBf de la façon suivante : soit (Yt )t≥0 une suite de
variables aléatoires indépdendantes et Z une variable aléatoire indépendante de (Yt )t≥0 . On

les prend de loi Yt ∼ Z ∼ N (0, 1). Considérons alors Xt = (Yt +Z)/ 2. On montre facilement
que Xt a bien la covariance cherchée. On constate alors que les trajectoires de (Xt )t≥0 sont
complètement discontinues.
[Graphe typique des trajectoires.]
De façon générale, pour 0 < H < 1, les trajectoires du mBf (B H (t))t≥0 sont β-höldériennes
pour tout ordre β ∈]0, H[. Cela est dû au Théorème 2.7 de régularité des processus gaussiens
(Kolmogorov-Čentsov).
28 Chapitre 2. ©JCB – M2 Math. – Université de Rennes
Chapitre 3

Mouvement brownien

Dans ce chapitre, on présente le mouvement brownien (mB). Nous renvoyons à [LG0]


pour une introduction générale de ce processus, à [KS], [RY] pour une description détaillée
des principales propriétés du mouvement brownien.
On commence par quelques dates marquantes de l’histoire du mouvement brownien en
Section 3.1 avant de définir le mouvement brownien en Section 3.2. On en étudie les
propriétés en loi en Section 3.4, propriétés des trajectoires en Section 3.5, la variation
quadratique en Section 3.6. On étudie enfin la propriété de Markov forte en Section 3.7 avec
notamment le principe de réflexion. On revient à l’équation de la chaleur en Section 3.8.
Historiquement, le mouvement brownien a été exhibé pour représenter des mouvements
qui évoluent au cours du temps de façon particulièrement désordonnée, par exemple en
physique pour représenter des particules microscopiques soumises aux multiples chocs de
leur environnement ou en finance pour représenter des cours de bourses très volatiles.
Le mouvement brownien joue un rôle central dans la théorie des processus stochastiques
(comme la loi normale standard N (0, 1) pour les lois de probabilités sur R). Il apparaı̂t
dans de nombreuses situations aussi bien théoriques qu’appliquées et il offre un cadre assez
simple où de nombreux calculs peuvent être menés.

3.1 Historique
En 1827, la première description (heuristique) du mouvement brownien est due au bota-
niste écossais Robert Brown (qui lui a donc donné son nom). Il observe de fines particules
organiques en suspension dans un gaz ou un fluide et en décrit les mouvements particu-
lièrement erratiques, au point que plusieurs physiciens estiment ensuite pendant le 19ème
siècle que ce mouvement ne semble pas admettre de tangente. On ne pourrait donc pas
parler de vitesse, ni lui appliquer les lois classiques de la mécanique !
En 1900, la première approche mathématique du mouvement brownien est due au français
Louis Bachelier (dans sa Théorie de la spéculation). Il l’introduit pour modéliser la dyna-
mique des prix des actions à la bourse. Sa démarche sera cependant oubliée jusque vers les
années 1960.

29
30 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

En 1905, l’allemand Albert Einstein (dans sa Théorie de la relativité restreinte) construit


un modèle probabiliste pour décrire le mouvement d’une particule qui diffuse : il montre
notamment que la loi de la position à l’instant t de la particule, sachant que l’état initial
est x, admet une densité qui vérifie l’équation de la chaleur et de ce fait est gaussienne.
Davantage d’explications sur les relations entre mouvement brownien et équation de la
chaleur sont données en Section 3.8.
La même année qu’Einstein, le physicien polonais Marian von Smoluchowki utilise des pro-
menades aléatoires pour décrire le mouvement brownien dont il en est les limites.
En 1923, l’américain Norbert Wiener donne une première construction mathématique ri-
goureuse du mouvement brownien en tant que processus stochastique. Il établit en parti-
culier la continuité de ses trajectoires.
Dans la période 1930–1960, de nombreuses propriétés du mouvement brownien sont ensuite
établies notamment par le français Paul Lévy. La notion d’équation différentielle stochas-
tique est introduite. Le japonais Kiyoshi Itô les généralisera et les analysera avec son traité
de 1948. Cette démarche très féconde établit des liens importants entre analyse et proba-
bilité et fonde l’analyse et le calcul stochastiques.
Les relations entre probabilités et physique sont, elles, explorées via le mouvement brow-
nien et ses généralisations dès 1930 par les néerlandais Leonard Ornstein et George Eugene
Uhlenbeck en suivant une idée du français Paul Langevin. Ils montrent que le processus
d’Ornstein-Uhlenbeck décrit la situation d’équilibre d’un modèle dirigé par le mouvement
brownien.
Depuis, de nombreux tavaux sont consacrés au mouvement brownien, à ses généralisations
et au calcul stochastique. Citons pour terminer Wolfgang Döblin, mathématicien franco-
allemand dont les travaux précurseurs en analyse stochastique (fin des années 30) sont
restés méconnus jusqu’à l’ouverture de son célèbre pli cacheté en 2000 à l’académie des
sciences de Paris (Döblin, mobilisé pendant la deuxième guerre mondiale avait envoyé ses
travaux depuis le front, par crainte de ne pas revenir de la guerre. Il n’en est pas revenu.
Son courrier est resté oublié jusqu’en 2000).

Dans le cadre déterministe, de nombreux phénomènes sont régis par des équations dif-
férentielles (ou équations aux dérivées partielles). Pour les phénomènes modélisés par un
mouvement brownien, on s’attend à avoir des équations différentielles faisant intervenir
le mouvement brownien. Malheureusement, ce processus a des trajectoires nulle part dé-
rivables (cf. Prop. 3.24 et Th. 3.25) et il n’est pas possible de considérer des équations
différentielles le faisant vraiment intervenir. Plutôt que de le dériver, on cherchera dans la
suite, à intégrer contre ce processus, ce qui permettra de contourner le problème en considé-
rant des équations intégrales (toutefois, il est d’usage de se ramener à l’écriture symbolique
de dérivées et on parlera alors d’équation différentielle stochastique). Dans les prochains
chapitres (cf. Chapitre 6), on définit l’intégrale stochastique pour une large classe de pro-
cessus (les semimartingales, cf. Chapitre 5). Si on se contente du cadre brownien (intégrale
et équation différentielle stochastique pour le mouvement brownien), on parle de calcul
d’Itô. Dans ce cadre simplifié, la contruction est plus directe. On pourra consulter les notes
de cours [Tud] ou le livre [Gal] pour cette approche réservée au mouvement brownien.
3.2. Définition, premières propriétés 31

Dans ce chapitre, nous en donnons les principales propriétés (en loi en Section 3.4, tra-
jectorielles en Section 3.5, variation quadratique en Section 3.6) notamment les propriétés
de Markov faible et forte (Section 3.7). À la fin du chapitre en Section 3.8, nous explorons
les liens entre le mouvement brownien et l’équation de la chaleur, ce qui correspond à la
démarche d’Einstein pour appréhender le mouvement brownien.

3.2 Définition, premières propriétés


Le caractère très erratique des trajectoires qui caractérise le mouvement brownien est en
général associé à l’observation que le phénomène, bien que très désordonné, présente une
certaine homogénéité dans le temps, au sens où la date d’origine des observations n’a pas
d’importance. Ces propriétés sont reprises dans la définition qui suit.

Définition 3.1 (Mouvement brownien) Un mouvement brownien (standard) réel est un


processus gaussien centré (Bt )t≥0 à trajectoires continues de fonction de covariance

K(s, t) = min(s, t) := s ∧ t.

On l’appelle aussi processus de Wiener.

L’opérateur K(s, t) = min(s, t) est symétrique et de type positif. En effet si c : R → R est


à support borné alors
X X
c(s)c(t)K(s, t) = c(s)c(t)(s ∧ t)
s,t∈R s,t∈R
X Z
= c(s)c(t) 1[0,s] (x)1[0,t] (x) dx
s,t∈R
Z X
= c(s)c(t)1[0,s] (x)1[0,t] (x) dx
s,t∈R
Z !2
X
= c(t)1[0,t] (x) dx ≥ 0.
t∈R

Par le Théorème 2.3, il existe alors un processus gaussien centré de covariance K. Par
contre, il n’est pas immédiat que ce processus admette une version à trajectoires conti-
nues ps. Mais cela sera justifié en début de Section 3.3 avec le théorème de régularité de
Kolmogorov-Čentsov pour les processus gaussiens (Th. 2.7).

3.2.1 Propriétés immédiates


1) B0 = 0 car la loi de B0 est N (0, 0) = δ0 , la loi dégénérée en 0.
2) Bt ∼ N (0, t) car E[Bt ] = 0 et Var(Bt ) = K(t, t) = t.
32 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

3) (Bt )t≥0 est un processus à accroissements indépendants. En effet soit 0 ≤ t1 < t2 < t3 <
t4 , on a
  
Cov Bt2 − Bt1 , Bt4 − Bt3 = E (Bt2 − Bt1 )(Bt4 − Bt3 )
       
= E Bt2 Bt4 − E Bt2 Bt3 − E Bt1 Bt4 + E Bt1 Bt3
= t2 − t2 − t1 + t1 = 0.

Les variables Bt2 − Bt1 et Bt4 − Bt3 sont donc non corrélées. Comme le vecteur (Bt2 −
Bt1 , Bt4 − Bt3 ) est gaussien, Bt2 − Bt1 et Bt4 − Bt3 sont indépendantes. On justifie de même
l’indépendance mutuelle de n accroissements, n ≥ 1.
4) Si s ≤ t, on a Bt − Bs ∼ Bt−s . En effet E[Bt − Bs ] = E[Bt ] − E[Bs ] = 0 et

Var(Bt − Bs ) = Cov(Bt − Bs , Bt − Bs )
= Cov(Bt , Bt ) − 2 Cov(Bt , Bs ) + Cov(Bs , Bs )
= t − 2s + s = t − s.

Donc Bt − Bs ∼ N (0, t − s) ∼ Bt−s .

Remarque 3.2 Les propriétes 3) et 4) s’énoncent comme suit : le mouvement brownien a


des accroissements indépendants et stationnaires.

Définition 3.3 (Définition équivalente du mouvement brownien) Soit B = (Bt )t≥0 une
famille de variables aléatoires indéxées par le temps. On dit que B est un mouvement
brownien si c’est un processus à trajectoires continues tel que
i) pour tout t ≥ 0 : Bt ∼ N (0, t).
ii) pour tout 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , les variables aléatoires Bt1 , Bt2 − Bt1 , . . . Btn − Btn−1
sont indépendantes.

Preuve de l’équivalence. On sait déjà qu’un mB défini par la Déf. 3.1 vérifie i) et ii)
donc la déf. 3.3. Il reste à prouver la réciproque. En écrivant Bt = Bs + Bt − Bs pour
s ≤ t, par indépendance des accroissements, en utilisant la fonction caractéristique, on a :
φBt = φBs φBt −Bs . D’où

φBt −Bs (x) = φBt (x)φBs (x)−1 = exp(−tx2 /2) exp(sx2 /2) = exp(−(t − s)x2 /2) = φBt−s (x).

Les accroissements sont donc stationnaires, en particulier ils sont gaussiens. Comme les
accroissements sont indépendants, un vecteur d’accroissements (Bt1 , Bt2 − Bt1 , . . . Btn −
Btn−1 ) a pour loi la loi produit de ses lois marginales qui sont gaussiennes. Un vecteur
d’accroissements est donc gaussien. Mais comme (Bt1 , Bt2 , . . . , Btn ) est une transformation
linéaire de (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) cela reste gaussien. Les lois fini-dimensionnelles
étant gaussiennes, le processus est gaussien. Puis pour s ≤ t, on a

Cov(Bt , Bs ) = E[Bt Bs ] = E[(Bt − Bs + Bs )Bs ] = E[Bt − Bs ]E[Bs ] + E[Bs2 ] = 0 + s = s,


3.3. Constructions du mouvement brownien 33

ce qui confirme que le processus défini par la définition alternative Déf. 3.3 est bien le
mouvement brownien (Déf. 3.1) □

[Graphe des trajectoires typiques du MB]


La probabilité que Bt appartienne à un petit intervalle [x, x + dx] est donc donnée par la
densité gaussienne centrée de variance t
1
exp − x2 /2t dx.
 
P Bt ∈ [x, x + dx] = √
2πt
En particulier, la variable aléatoire Bt qui√est une variable √
aléatoire gaussienne de variance t
est comprise entre les nombres f1 (t) = 2 t et f2 (t) = −2 t avec une probabilité (d’à peu
près) 95% (cf. table de la loi N (0, 1)).
On peut montrer que cette propriété est vraie pour toute la trajectoire brownienne qui est
donc comprise entre les deux courbes de f1 et de f2 avec une probabilité comparable (c’est
vrai globalement et pas seulement ′′ t par t′′ ).
Mais en général, les phénomènes observés ne sont pas aussi bien normalisés. Pour des
paramètres x, b ∈ R et σ ∈ R+ , on a :

Définition 3.4 (Mouvement brownien avec dérive) On appelle encore mouvement brow-
nien issu de x, de dérive (ou drift) bß et de coefficient de diffusion σ, le processus Xt =
x + σBt + µt, t ≥ 0 (où B est un mouvement brownien standard).

Proposition 3.5 Le mouvement brownien (général) X est encore un processus à accrois-


sements indépendants stationnaires et gaussiens.
 Il est non centré et tel que X0 = x. De
2
plus, pour tout t ≥ 0 : Xt ∼ N x + µt, σ t .

Sauf mention contraire, par défaut, quand on parlera du mouvement brownien, il s’agira
du mouvement brownien standard B.

3.3 Constructions du mouvement brownien


On commence par observer qu’un processus gaussien B centré de covariance K(s, t) =
min(s, t) admet effectivement une version à trajectoires continues γ-höldériennes pour tout
γ ∈]0, 1/2[. Il suffit d’appliquer le Théorème 2.7 (régularité de Kolmogorov-Čentsov pour
les processus gaussiens) avec α = 1, puisque

K(t, t) + K(s, s) − 2K(s, t) = E[(Bt − Bs )2 ] = (t − s)2 .

La version donnée par ce théorème est un mouvement brownien au sens des Déf. 3.1 ou
Déf. 3.3 et admet des trajectoires höldériennes d’indice γ pour tout γ ∈]0, 1/2[. Toutefois,
cette approche n’est pas explicite (elle utilise le Théorème 1.3 d’extension de Kolmogorov).
34 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

3.3.1 Principe d’invariance de Donsker


On considère une suite de variables aléatoires (Xn )n≥1 indépendantesPet identiquement
distribuées, centrées E[Xn ] = 0 et réduites Var(Xn ) = 1. Notons Sn = ni=1 Xi la suite de
ses sommes partielles. On peut construire un processus polygonal sur [0, 1]È partir de la
suite de ses sommes partielles : considérons le processus Zn (t) qui vaut Sk / n en t = k/n
et qui est affine entre k/n et (k + 1)/n. Plus précisément, on pose
 
Sk Xk+1 k (k + 1)
Zn (t) = √ + √ (nt − k), pour t ∈ , . (3.1)
n n n n
[Graphe des trajectoires typiques.]
Théorème 3.6 (Principe d’invariance de Donsker) Le processus polygonal Zn = (Zn (t))t∈[0,1]
en (3.1) converge en loi dans C([0, 1], R) vers le mouvement brownien ie. pour toute fonction
continue bornée f : C([0, 1], R) → R, on a limn→+∞ E[f (Zn )] = E[f (B)].
Remarque 3.7 — Ce résultat peut être vu comme une justification de l’existence du
mouvement brownien sur [0, 1] puisqu’on montre l’existence d’un processus qui vit
dans l’ensemble des fonctions continues avec les propriétés requises sur les lois.
— En pratique, on utilise ce résultat pour simuler le mouvement brownien : on l’ap-
proche pour n grand par des processus polygonaux (3.1).
— C’est un principe d’invariance car la loi limite est indépendante de la loi commune
des variables aléatoires initiales (Xn )n≥1 (tant qu’elle a une variance finie). C’est
une version fonctionnelle du TCL (Th. 0.7).
— Avec le continuous mapping theorem, pour toute fonction h : C([0, 1], R) → R conti-
nue, on déduit de la convergence faible (dans C([0, 1], R)) Zn ⇒ B, la convergence
faible (dans R) h(Zn ) ⇒ h(B). Ainsi avec les fonctions
h(x) = x(1), h(x) = sup x(t), h(x) = sup |x(t)|,
t∈[0,1] t∈[0,1]

on déduit les résultats suivants quand n → +∞ :


Sn
— Zn (1) ⇒ B(1), c’est à dire √ n
⇒ N (0, 1) (le TCL, Th. 0.7).
— supt∈[0,1] Zn (t) ⇒ supt∈[0,1] B(t), c’est à dire √1n maxk≤n Sk ⇒ supt∈[0,1] B(t).
— supt∈[0,1] |Zn (t)| ⇒ supt∈[0,1] |B(t)|, c’est à dire √1n maxk≤n |Sk | ⇒ supt∈[0,1] |B(t)|.

Démonstration : Grâce au Théorème 1.24 (convergence faible de processus), la preuve de


ce résultat comprend deux étapes :
(1) Établir la convergence des lois fini-dimensionnelles de Zn vers celles de B.
(2) Montrer que la suite des lois de Zn est équitendue (Déf. 1.20).
 
(1) Soit 0 ≤ t1 ≤ · · · ≤ tm ≤ 1. Notons Vn = Zn (t1 ), . . . , Zn (tm ) et V = B(t1 ), . . . , B(tm ) .
Il s’agit de montrer Vn ⇒ V (convergence en loi de vecteur aléatoire). Pour cela, on in-
troduit Un = Zn ( kn1 ), . . . , Zn ( knm ) où ki = [nti ] et on va utiliser le résultat suivant (cf.


[JCB-proba] ou tout de probabilité de niveau L3).


3.3. Constructions du mouvement brownien 35

P
Lemme 3.8 (Slutsky) Soit Xn ⇒ X et Yn −→ 0. Alors Xn + Yn ⇒ X.
P
Pour montrer Vn ⇒ V , on se ramène par ce lemme à montrer que Vn −Un −→ 0 et Un ⇒ V .
On a d’abord
m  
X  ki
∥Vn − Un ∥1 ≤ Zn ti − Zn
i=1
n
m    
X ki + 1 ki
≤ Zn − Zn (car Zn est affine par morceaux)
i=1
n n
m
1 X
≤ √ |Xki +1 |,
n i=1
  m  
E ∥Vn − Un ∥1 ≤ √ E |X1 | .
n
  P
On a donc limn→+∞ E ∥Vn − Un ∥1 = 0 et par l’inégalité de Markov Vn − Un −→ 0,
n → +∞.
Soit maintenant
 k  k    
i i−1
Un = . . . , Zn
e − Zn ,... , Ve = . . . , B(ti ) − B(ti−1 ), . . .
n n
avec k0 = 0 et t0 = 0. On introduit J : Rm −→ Rm donné par J(x) = y avec yk = kj=1 xj .
P
 
On a alors J Uen = Un et J Ve = V . Comme J est continue, U en ⇒ Ve assurera Un ⇒ V .

Mais par indépendance des accroissements de Zn (resp. de B), les coordonnées de U


en (resp.
de Ve ) sont indépendantes car
k  k ki
i i−1
 1 X
Zn − Zn =√ Xs .
n n n s=k +1
i−1

On peut alors utiliser le lemme simple suivant (laissé en exercice).


Lemme 3.9 Soit Pn ⇒ P et Qn ⇒ Q des suites de mesures de probabilités qui convergent
en loi. Alors Pn ⊗ Qn ⇒ P ⊗ Q.
Il suffit donc de vérifier la convergence faible, coordonnée par coordonnée. Mais d’une part
ki ki
r
k 
i
k 
i−1 1 X ki − ki−1 1 X
Zn − Zn =√ Xs = p Xs .
n n n s=k +1 n ki − k i−1 s=k +1
i−1 i−1


q
D’autre part limn→+∞ ki −kn i−1 = ti − ti−1 (rappel : ki = [nti ]/n) et par le TCL (Th. 0.7)
ki
1 X
p Xs =⇒ N (0, 1), n → +∞.
ki − ki−1 s=ki−1 +1
36 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

On a donc
k  ki−1 
i 
Zn − Zn =⇒ N (0, ti − ti−1 ) = L B(ti ) − B(ti−1 ) ,
n n
en ⇒ Ve puis Un ⇒ V et donc la convergence faible des lois fini-dimensionnelles
ce qui justifie U
de Zn vers celles de B : cela achève la première étape (1) de la preuve.

(2) Il s’agit maintenant de vérifier l’équitension de la suite (Pn )n≥1 des lois de (Zn )n≥1
en (3.1). Pour cela, on se sert du Théorème 1.23 qu’on va appliquer avec la condition
supplémentaire E[X14 ] < +∞. On renvoie à [Bil2] pour un argument complet qui n’utilise
que E[X12 ] < +∞. Montrons que pour tout n ≥ 1 :

E |Zn (t) − Zn (s)|4 ≤ c|t − s|2 .


 

k m
Pour t = n
<s= n
, on a
 P   !4 
m 4 m−k
j=k+1 Xj  1 X
E |Zn (t) − Zn (s)|4 ≤ E 
 
√ ≤ 2E Xj 
n n j=1

CE[X14 ]
≤ (m − k)2 ≤ c|t − s|2
n2
où on a utilisé le résultat suivant (dû à l’indépendance et au centrage des variables aléatoires
Xi ) :

Lemme 3.10 Soit (Yn )n≥1 des variables aléatoires indépendantes et identiquement distri-
buées telles que E[Yn ] = 0 et E[Yn4 ] < +∞. Pour un constante C ∈]0, +∞[, on a :
" n #
 X 4
≤ Cn2 E Y14 .
 
E Yk
k=1

Pour t, s quelconques, on a deux possibilités : soit nk ≤ t ≤ s ≤ k+1n


(ie. t, s dans le même
intervalle), soit nk ≤ t ≤ k+1
n
< m
n
≤ s ≤ m+1
n
, (ie. t, s dans deux intervalles différents).
Dans le premier cas, on a
" #
4
Xk+1
E |Zn (t) − Zn (s)|4 = E
 
√ (t − s)n (car Zn est affine entre t et s)
n
= c1 n2 (t − s)2 (t − s)2
≤ c1 (t − s)2 (car dans ce cas n(t − s) ≤ 1).

Dans le deuxième cas, comme par convexité (a + b + c)4 ≤ 33 (a4 + b4 + c4 ), on a

E[|Zn (t) − Zn (s)|4 ]


3.3. Constructions du mouvement brownien 37
" 4 #
k + 1 k + 1 m m
≤ E Zn (t) − Zn + Zn − Zn + Zn − Zn (s)
n n n n
" # " # !
k + 1 4 k + 1 m 4  m 4
≤ 27 E Zn (t) − Zn +E Zn − Zn +E Zn − Zn (s)
n n n n
!
2 2
′ k+1 k+1 m m 2
≤ c t− + − + −s (par les cas déjà vus précédemment)
n n n n
≤ c′′ |t − s|2

car
k+1 k+1 m m
t− , − , − s ≤ |t − s|.
n n n n

D’après le Théorème é1.23 (critère de tension de Kolmogorov), la suite des lois L(Zn ) n≥1
est équitendue.

Conclusion. La suite des lois L(Zn ) n≥1 est équitendue (par (2))) et ses lois fini-dimension-
nelles convergent vers celles de B (par (2))). D’après le Théorème 1.24, on a Zn ⇒ B dans

Cc([0, 1], R). □

Remarque 3.11 On a justifié le résultat avec la restriction E[X14 ] < +∞. Avec un peu plus
de travail, on peut se passer de cette hypothèse et ne supposer que l’existence du moment
d’ordre 2 : E[X12 ] < +∞, cf. [Bil2].

Preuve du Lemme 3.10. Soit (Yn )n≥1 des variables aléatoires indépendantes et identique-
ment distribuées telles que E[Yn ] = 0 et E[Yn4 ] < +∞. On montre que
" n #
 X 4
E Yi ≤ Cn2 E[Y14 ].
i=1

Pour cela, on a
n    X    X
X 4 X 4 2 4 1
Yi = + Yi4 2 2
Yi Yj + Yi3 Yj
i=1 i
2 2 i̸=j
3 1 i̸=j
    X      X
4 2 1 4 3 2 1
+ Yi2 Yj Yk + Yi Yj Yk Yl .
2 1 1 i̸=j̸=k 1 1 1 1 i̸=j̸=k̸=l

Par indépendance et centrage des variables aléatoires Yj , il vient


" n #  X
 X 4 X
4 4
E Yi = E[Yi ] + E[Yi2 Yj2 ]
i=1 i
2 i̸=j
38 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

= nE[Y14 ] + 6n(n − 1)E[Y12 ]2 .


2
On conclut la preuve du lemme avec l’inégalité de Cauchy-Schwarz qui assure E[Yi2 ] ≤
E[Yi4 ]. □

3.3.2 Mesure de Wiener


On rappelle qu’on note C([0, 1], R), resp. C(R+ , R), l’espace des fonctions continues sur
[0, 1], resp. R+ , et on définit de bonnes topologies avec ∥ · ∥∞ donnée en (1.6) (topologie de
la convergence uniforme) et d donnée en (1.7) (topologie de la convergence uniforme sur
les compact) et que la tribu cylindique trace sur C(T, R)  coı̈ncide avec la tribu borélienne
assoiée : {A ∩ C(R+ , R) : A ∈ σ(Cyl)} = B C(R+ , R) , cf. Prop. 1.15 et la discussion en
Section 1.3.
En tant que processus à trajectoires continues, grâce à la Prop. 1.15, un mouvement brow-
nien B peut être vu comme une application aléatoire sur C(R+ , R) :

Ω → C(R+ , R)
ω 7→ B(ω) = (t 7→ Bt (ω)).
La mesure de Wiener W est la mesure image de P par cette application : W = PB . C’est
donc une mesure de probabilité sur C(R+ , R). Il s’agit de la loi commune à tout mouvement
brownien dont les lois fini-dimensionnelles sont données par :

W {x ∈ C(R+ , R) : x(t0 ) ∈ A0 , x(t1 ) ∈ A1 . . . , x(tn ) ∈ An }
n
!
2
(yi − yi−1 )
Z
dy1 . . . dyn X
= 1A0 (0) p exp −
A1 ×···×An (2π)
n/2 t1 (t2 − t1 ) . . . (tn − tn−1 ) i=1
2(ti − ti−1 )
avec t0 = 0. De plus, ces propriétés caractérisent W :
Proposition 3.12 La mesure de Wiener W est bien définie : si P1 , P2 sont deux probabilités
sur C(R+ , R) chacune issue d’un mouvement brownien alors P1 = P2 .
Démonstration : Notons P l’ensemble des ouverts élémentaires qui engendrent la tribu
borélienne sur C(R+ , R). C’est un π-système (stable par intersection finie). Notons M =
{A ∈ B(C(R+ , R), ) : P1 (A) = P2 (A)}. Il s’agit d’une classe monotone (C(R+ , R) ∈ M, M
est stable par différence ensembliste et est stable par réunion dénombrable croissante) qui
contient P (les deux mouvements browniens ont les mêmes lois fini-dimensionnelles) :
(1) (1)  (2) (2) 
P1 (O) = P Bt1 ∈ A1 , . . . , Btn ∈ An = P Bt1 ∈ A1 , . . . , Btn ∈ An = P2 (O).
Le théorème de classe monotone assure que C(R+ , R) = σ(P) ⊂ M, ce qui donne le résul-
tat. □

De façon générale : la loi d’un processus stochastique est entièrement déterminée par ses
lois fini-dimensionnelles, cf. Prop. 1.4. On définit alors :
3.4. Propriétés en loi du mouvement brownien 39

Définition 3.13 (Mesure de Wiener) On appelle mesure de Wiener la loi du mouvement


brownien B vu comme variable aléatoire sur C(R+ , R). L’espace C(R+ , R) (ou C([0, 1], R))
muni de cette loi est appelé espace de Wiener.

Si on considère l’espace de probabilité (Ω, F, P) = (C(R+ , R), B(C(R+ , R)), W) le proces-


sus dit canonique Xt (ω) = ω(t) est un mouvement brownien. Il s’agit de la construction
canonique du mouvement brownien.

3.4 Propriétés en loi du mouvement brownien


On se fixe dans cette section un mouvement brownien standard B. Systématiquement, pour
vérifier qu’on a un mouvement brownien, il s’agit de vérifier qu’on a un processus gaussien,
centré, à trajectoires continues et avec la bonne fonction de covariance. Dans les propriétés
qui suivent, il est facile (et omis) de constater que le processus est gaussien, centré et à
trajectoires continues ; on se contente de calculer l’opérateur de covariance.
1) Symétrie. −B est un mouvement brownien.
(c)
2) Autosimilarité (propriété d’échelle). Pour tout c > 0, Bt = √1c Bct ,, t ≥ 0 définit un
mouvement brownien (standard).
En effet : B (c) est un processus gaussien car ses lois fini-dimensionnelles en sont de B ; le
processus est centré, à trajectoires continues (car B l’est) et de fonction de covariance
 (c) h 1 1 i 1
E Bt Bs(c) = E √ Bct √ Bcs = min(ct, cs) = min(t, s).

c c c
Conséquence : Cette propriété montre que c fois Bt se comporte comme un mouvement
brownien lu en c2 t : le changement de temps se lit en espace (et réciproquement).
3) Inversion du temps. Le processus B e défini par Bet = tB1/t si t ̸= 0 et B
e0 = 0 est un
mouvement brownien standard.
En effet, Be est gaussien car à nouveau ses lois fini-dimensionnelles sont des transformations
linéaires de celles de B ; le processus est centré et de covariance,
 
Cov B et , B
es = ts Cov B1/t , B1/s = ts min(1/t, 1/s) = min(t, s).

De plus, ses trajectoires sont continues sur ]0, +∞[ car celles de B le sont sur R+ . Il reste
s’assurer de la continuité des trajectoires de B
e en 0 et cela vient de
 
  \[ \ 
P lim Bet = 0 = P  |B
et | ≤ 1/n 
t→0
n≥1 p≥1 t∈]0,1/p]∩Q
 
et )t>0 f=
dd
\[ \ 
= P |Bt | ≤ 1/n  car (B (Bt )t>0
n≥1 p≥1 t∈]0,1/p]∩Q
40 Chapitre 3. ©JCB – M2 Math. – Université de Rennes
 
= P lim Bt = 0 = 1.
t→0

Conséquence : le processus B a donc le même type de comportement en 0 et en +∞


4) Retournement du temps. Le processus retourné à l’instant T , B bt(T ) = BT − BT −t est
encore un mouvement brownien sur [0, T ].
Il est clair que B b (T ) est un processus gaussien, centré à trajectoires continues et sa covariance
est donnée par
bt(T ) , B
bs(T ) = Cov(BT − BT −t , BT − BT −s )

Cov B
= Cov(BT , BT ) − Cov(BT , BT −s ) − Cov(BT −t , BT ) + Cov(BT −t , BT −s )
= T − (T − s) − (T − t) + T − max(t, s) = min(t, s).

5) Propriété de Markov faible (ou invariance par translation). Le mouvement brownien


(t0 )
translaté de t0 > 0 B t = Bt+t0 − Bt0 est encore un mouvement brownien standard ; de
(t0 )
plus, il est indépendant du mouvement brownien arrêté en t0 (Bt )0≤t≤t0 , ie. B ⊥ FtB0 :=

σ(Bs : s ≤ t0 ).
En effet, pour t0 ≤ s ≤ t :
(t0 ) (t0 )  
Cov B t , B s = Cov Bt+t0 − Bt0 , Bs+t0 − Bt0
= K(t + t0 , s + t0 ) − K(t + t0 , t0 ) − K(t0 , s + t0 ) + K(t0 , t0 )
= s + t0 − t0 − t0 + t0 = s = min(s, t).
La deuxième partie est due à l’indépendance des accroissements de B : Soit 0 ≤ s1 < · · · <
(t0 )
sn ≤ t0 , par indépendance des accroissements de B, B t = Bt+t0 − Bt0 est indépendant de
(Bs1 , Bs2 − Bs1 , . . . , Bsn − Bsn−1 ), donc par transformation linéaire de (Bs1 , . . . , Bsn ). Cela
(t0 ) (t0 )
est encore vrai pour tout vecteur de marginales de B . On a donc B indépendant de
{Bs1 ∈ A1 , . . . , Bsn ∈ An }, 0 ≤ s1 < · · · < sn ≤ t0 et A1 , . . . , An ∈ B(R). Comme la famille
de tels ensembles est un π-système qui engendre FtB0 , un argument de classes monotones
(t0 )
assure B t ⊥ ⊥ FtB0 = σ(Bt : t ≤ t0 ). 
De la même façon, on montre que pour t1 < t2 , Bt1 +t0 −Bt0 , Bt2 +t0 −Bt1 +t0 est indépendant
de FtB0 . Mais comme
(t0 ) (t0 )  
B t1 , B t2 = Bt1 +t0 − Bt0 , Bt2 +t0 − Bt0
(t0 ) (t0 ) 
en est une image linéaire, cela reste donc vrai pour B t1 , B t2 et plus généralement pour
(t0 ) (t0 ) 
toutes les lois fini-dimensionnelles de B : B t t≥0 ⊥ ⊥ FtB0 .
Conséquence : le processus (Bt )t≥0 a donc le même comportement localement en 0 et en
t0 , donc en tout point.
Cette propriété se réécrit dans le cadre classique de la théorie de Markov : indépendance
du futur et du passé conditionnellement au présent : en notant Wx la loi du mouvement
brownien issu de x ∈ R, ie. de x + B où B est un mouvement brownien standard (issu de
0), on réécrit :
3.5. Propriétés trajectorielles du mouvement brownien 41

Proposition 3.14 (Propriété de Markov faible) Soit t ≥ 0 fixé. Posons Bs′ = Bt+s , x ∈ R.
Alors conditionnellement à Bt = x, le processus B ′ est indépendant de σ(Bu : u ≤ t) = FtB
et a pour loi Wx .
(t) (t)
Démonstration : Pour cela, il suffit de remarquer que Bs′ = B s + Bt où B s = Bt+s − Bt
est un mouvement brownien indépendant de FtB et Bt est une variable FtB -mesurable. □

3.5 Propriétés trajectorielles du mouvement brownien


3.5.1 Loi du 0/1 de Blumenthal
On définit d’abord la notion de filtration en temps continu qui sera essentielle pour consi-
dérer les martingales au Chapitre 4.
Définition 3.15 (Filtration) Une filtration sur un espace de probabilité (Ω, F, P) est une
famille (Ft )t≥0 de sous-tribus telle que pour s ≤ t, on a Fs ⊂ Ft .
Si on considère un processus (Xt )t≥0 , on considère souvent la filtration qu’il engendre :
FtX = σ(Xs : s ≤ t). Dans ce cas, il est utile d’interpréter une filtration comme une quan-
tité d’information disponible jusqu’à une date donnée : FtX représente ainsi l’information
véhiculée par le processus X jusqu’à la date t.
Une filtration est P-complète pour une mesure de probabilité P si F0 contient tous les
évènements de mesure nulle, ie. N = {N ∈ F tel que P(N ) = 0}⊂ F0 .
À une filtration (Ft )t≥0 on associe
\ _
Ft+ = Ft+ε et Ft− = Ft−ε .
ε>0 ε>0

(On rappelle que A ∨ B = σ(A ∪ B).) La filtration (Ft )t≥0 est dite continue à droite (resp.
continue à gauche) si pour tout t, on a Ft = Ft+ (resp. Ft = Ft− ).
Dans la suite, on dira qu’une filtration satisfait les conditions habituelles si elle est complète
et continue à droite.
Proposition 3.16 La filtration brownienne (FtB )t≥0 est continue à droite.
Corollaire 3.17 (Loi du 0/1 de Blumenthal) La tribu F0B+ est triviale, ie. pour tout A ∈
F0B+ , on a P(A) = 0 ou 1.
Remarque
W 3.18 — En fait, la filtration brownienne est aussi continue à gauche : FtB =
B
s<t Fs .
C’est le cas de toute filtration (FtX )t≥0 engendrée par un processus à trajectoires
continues à gauche. En effet, FtX est engendrée par les ensembles A = {(Xt1 , . . . , Xtp ) ∈
Γ} avec 0 = t1 < · · · < tp ≤ t et Γ ∈ B(Rp ). Lorsque tp < t alors A ∈ FtXp ⊂ FtX− .
Lorsque tp = t, comme Xt = limm→+∞ Xsm pour toute suite sm ∈ [0, t) avec sm ↗ t,
on a A ∈ FtX− . Finalement, FtX− = FtX .
42 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

— Une filtration (Ft+ )t≥0 est toujours continue à droite.


— Attention : si X est à trajectoires continues, (FtX )t≥0 peut ne pas être continue à
droite, ni (FtX+ )t≥0 à gauche, cf. contre-exemples p. 89 et 122 dans [KS].

Preuve de la continuité à droite de la filtration brownienne.


i) La tribu F0B+ est triviale (ie. Blumenthal).
On considère le processus Xn défini sur [0, 2−n ] par Xn = B2−n +t − B2−n , 0 ≤ t ≤ 2−n .


La suite (Xn )n≥1 est une suite de processus indépendants (par l’indépendance des accrois-
sements du mouvement brownien). On remarque que l’on peut retrouver la trajectoire
brownienne à partir des Xk , k ≥ n, par
+∞
X
B 2−n +t = Xn (t) + Xn+k (2−n−k ), 0 ≤ t ≤ 2n
k=1

car B2−n → 0, n → +∞. Soit pour t > 0 et 2−p ≤ t < 2−p+1 , en écrivant t = 2−p + s,
s ∈ [0, 2−p ] (ie. p = [−t/ ln 2] + 1) :
X
Bt = B2−p +s = Xp (t − 2−p ) + Xk (2−k )
k>p

En particulier pour 0 < t ≤ 2−n , on a p ≥ n et Bt ∈ σ Xn+1 , . . . , Xn+k , . . . . On en déduit




F2B−n = σ Xn+1 , . . . , Xn+k , . . .




et comme F0B+ = n≥0 F2B−n , F0B+ est la tribu asymptotique engendrée par les processus
T

indépendants Xn . D’après la loi du 0/1 (classique) de Kolmogorov, F0B+ est alors triviale.
i’) Autre preuve de la loi de Blumenthal. Soit 0 < t1 < t2 < · · · < tk , g : Rk → R une
fonction continue bornée et aussi A ∈ F0B+ . Par continuité et convergence dominée, on a
   
E 1A g(Bt1 , . . . , Btk ) = lim E 1A g(Bt1 − Bε , . . . , Btk − Bε ) .
ε→0

Mais dès que ε < t1 , les variables aléatoires Bt1 − Bε , . . . , Btk − Bε sont T
indépendantes de
FεB (par la propriété de Markov simple) et donc aussi de la tribu F0B+ (= ε>0 FεB ). Il vient
   
E 1A g(Bt1 , . . . , Btk ) = lim P(A) E g(Bt1 − Bε , . . . , Btk − Bε )
ε→0
= P(A) E[g(Bt1 , . . . , Btk )].
On a donc F0B+ ⊥ ⊥ σ(Bt1 , . . . , Btk ). Comme c’est vrai pour tout 0 < t1 < · · · < tk , on a
B
aussi F0+ ⊥⊥ σ(Bt , t > 0). Puis B0 étant la limite simple de Bt (continuité de t 7→ Bt en
0), on a σ(Bt , t ≥ 0) = σ(Bt , t > 0) et F0B+ ⊂ σ(Bt , t ≥ 0), si bien que F0B+ ⊥
⊥ F0B+ , ce qui
B
assure que F0+ est triviale.
ii) Continuité à droite de la filtration brownienne (Prop. 3.16).
(B) (B) (B)
Pour t ≥ 0 fixé, on montre Ft+ = Ft en prouvant que toute variable aléatoire Ft+ -
(B)
mesurable est Ft -mesurable. Pour cela, nous utilisons le théorème de classe monotone
(version fonctionnelle)
3.5. Propriétés trajectorielles du mouvement brownien 43

Lemme 3.19 (Théorème de classe monotone fonctionnel) Soit E un espace vectoriel fonc-
tionnel monotone (ie. f ∈ E est bornée, les constantes sont dans E, si fn ∈ E et fn ↗ f
bornée alors f ∈ E). On suppose que C ⊂ E où C est un ensemble de fonctions stable par
multiplication. Alors E contient toutes les fonctions σ(C)-mesurables.

On rappelle que t ≥ 0 est fixé. On considère la tribu



Gt = σ Bt+s − Bt : s ≥ 0 .

On commence par prouver que Gt est indépendante de FtB+ . Pour tout n ≥ 1, par la
B
propriété de Markov (faible), Gt+1/n est indépendante de Ft+1/n et donc indépendante de
B B
T
Ft+ = n≥1 Ft+1/n :
Gt+ε ⊥⊥ FtB+ . (3.2)
Si t1 ≤ t2 , on observe que Gt2 ⊂ Gt1 car

Bt2 +s − Bt2 = (Bt1 +(t2 +s−t1 ) − Bt1 ) − (Bt1 +(t2 −t1 ) − Bt1 )

W variables Gt1 -mesurables. La famille (Gt+1/n )n≥1 est donc


s’exprime en fonction de deux
croissante avec n, de limite n≥1 Gt+1/n .
Par ailleurs, par continuité des trajectoires de B, pour tout s ≥ 0,

Bt+s − Bt = lim Bt+s+1/n − Bt+1/n .


n→+∞
W
Comme Bt+s+1/n −Bt+1/n est Gt+1/n -mesurable
W donc n≥1 Gt+1/nW-mesurable, la limite Bt+s −
Bt l’est encore, ce qui justifie Gt ⊂ n≥1 Gt+1/n et donc Gt = n≥1 Gt+1/n . Il suit alors de
(3.2)
⊥ FtB+ .
Gt ⊥ (3.3)

Ensuite, nous prouvons la Prop. 3.16 en montrant qu’une variable aléatoire FtB+ -mesurable
est FtB -mesurable. Quitte à écrire une telle variable Y sous la forme Y + − Y − , il suffit de le
faire pour une variable aléatoire Y positive. Quitte á écrire Y = limn→+∞ (Y ∧ n), il suffit
de le faire pour Y positive et bornée. On considère donc Y ∈ L∞ (FtB+ ) positive.
L’argument qui suit utilise le théorème de classes monotones fonctionnel (Lemme 3.19)
avec E l’espace des variables aléatoires bornées W ∈ L∞ (F) qui vérifie
   (B) 
E W Y = E W E[Y |Ft ] .

Par le théorème de convergence monotone (avec Y ≥ 0), on s’assure aisément que E est
un espace vectoriel fonctionnel monotone.
Notons
M = XZ : X ∈ L∞ (FtB ) et Z ∈ L∞ (Gt ) .

44 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

On vérifie facilement que M est une classe multiplicative. De plus M ⊂ E car avec (3.3),
on a :

E XZY = E XY E[Z] (car FtB ⊂ FtB+ ⊥


   
⊥ Gt )
B
 
= E XE[Y |Ft ] E[Z] (par définition de l’espérance conditionnelle)
= E XZE[Y |FtB ] (car FtB ⊥
 
⊥ Gt ).

D’après le Lemme 3.19 (théorème fonctionnel de classe monotone), l’espace vectoriel E


contient toutes les variables aléatoires bornées et mesurables par rapport à σ(M).
Comme FtB ⊂ M et Gt ⊂ M (écrire X ∈ FtB et Z ∈ Gt sous les formes X = X × 1 et
Z = 1 × Z), on a FtB ∪ Gt ⊂ σ(M) et donc FtB ∨ Gt ⊂ σ(M).
Mais FtB ∨Gt = F B (tribu engendrée par tout le mouvement brownien) puisque si s ≤ t, on a
Bs variable aléatoire FtB donc (FtB ∨ Gt )-mesurable et si t < s, on a Bs = Bt+(s−t) − Bt + Bt
avec Bt+(s−t) − Bt variable aléatoire Gt -mesurable et Bt variable aléatoireFtB -mesurable
donc Bs encore (FtB ∨ Gt )-mesurable.
Finalement, F B ⊂ σ(M) et E contient L∞ (F B ). Par conséquent, pour tout W ∈ L∞ (F B )
on a
E[W Y ] = E W E[Y |FtB ] .
 

En particulier, cela exige Y = E[Y |FtB ] ps. Comme la tribu est complète, Y coı̈ncide avec
une variable FtB -mesurable et FtB = FtB+ . □

3.5.2 Conséquences trajectorielles de la loi du 0/1 de Blumenthal


Proposition 3.20 (sup et inf browniens)
(1) On a ps pour tout ε > 0
sup Bt > 0, inf Bt < 0.
0≤t≤ε 0≤t≤ε

(2) Pour tout η > 0, on a ps


sup Bt ≥ η, inf Bt ≤ −η.
t≥0 t≥0

(3) Pour tout a ∈ R, soit Ta = inf t ≥ 0 : Bt = a (avec inf ∅ = +∞). Alors ps Ta < +∞.
(4) Par conséquent, presque sûrement

lim sup Bt = +∞, lim inf Bt = −∞, (3.4)


t→+∞ t→+∞

Remarque 3.21 — La mesurabilité de sup/inf est assurée par la continuité du mouve-


ment brownien (si bien que le sup est un max, l’inf un min, donc sont mesurables).
3.5. Propriétés trajectorielles du mouvement brownien 45

— Comme les trajectoires du mouvement brownien sont continues et inf 0<t≤ε Bt < 0 <
sup0<t≤ε Bt , par le théorème des valeurs intermédiaires, il existe un zero tε ∈]0, ε[ de
B. On en déduit que ps {t ≥ 0 : Bt = 0} admet 0 comme point d’accumulation.
— Par translation (Markov simple), toute valeur du mouvement brownien est un point
d’accumulation de sa trajectoire ps.
— En utilisant la propriété de Markov simple, on constate aussi facilement que ps la
fonction t 7→ Bt n’est monotone sur aucun intervalle non-trivial.

Démonstration : 1) Soit (εp )p≥1 une suite de réels strictement positifs décroissants vers 0
et soit ( )
\
A= sup Bt > 0 .
0≤t≤εp
p≥1

Comme sup0≤t≤εp Bt est FεBp -mesurable, on a A ∈ p≥1 FεBp = F0B+ . Puis, comme l’intersec-
T
tion définissant A est décroissante, on a
 
P(A) = lim P sup Bt > 0
p→+∞ 0≤t≤εp

mais comme   1
P sup Bt > 0 ≥ P(Bεp > 0) = ,
0≤t≤εp 2
on a P(A) ≥ 1/2 et la loi de Blumenthal exige alors P(A) = 1. Comme A ⊂ {sup0≤t≤ε Bt >
0}, on a le résultat pour le sup. L’assertion concernant inf 0≤t≤ε Bt est obtenue par symétrie
en loi en remplaçant B par −B.
2) Par convergence monotone des probabilités, on a
   
1 = P sup Bs > 0 = lim P sup Bs > δ .
0≤s≤1 δ→0 0≤s≤1

Avec le changement s = tδ 2 , puis comme par autosimilarité Bδ2 t /δ définit encore un mou-
vement brownien,
     
P sup Bs > δ = P sup (Bδ2 t /δ) > 1 = P sup Bs > 1 .
0≤s≤1 0≤t≤1/δ 2 0≤s≤1/δ 2

 δ → 0, par convergence monotone des probabilités, on obtient ainsi


En faisant tendre
P sups≥0 Bs > 1 = 1 par 1) . Puis, à nouveau, comme par autosimilarité, Bη2 u /η définit
un mouvement brownien standard, pour tout η > 0, on a
     
P sup Bs > η = P sup(Bη2 u /η) > 1 = P sup Bu > 1 = 1.
s≥0 u≥0 u≥0


Avec le changement B → −B, on a aussi P inf s≥0 Bs < −η = 1.
46 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

3) Comme {Ta > t} = {sups≤t Bs < a}, on a


!  
\
P(Ta = +∞) = P {Ta > p} = lim P(Ta > p) = lim P sup Bs < a
p→+∞ p→+∞ s≤p
p≥1
!  
\
= P sup Bs < a = P sup Bs < a = 0
s≤p s≥0
p≥1

d’après 2), si bien que Ta < +∞ ps.


4) Puis la dernière assertion est une conséquence du fait qu’une fonction continue f : R+ →
R ne peut visiter tous les réels que si lim supt→+∞ f (t) = +∞ et lim inf t→+∞ f (t) = −∞. □

Remarque 3.22 Le mouvement brownien oscille ps entre +∞ et −∞ lorsque t → +∞ mais


avec une vitesse d’oscillation sous-linéaire puisque |Bt /t| → 0, quand t → +∞.
En effet, il suffit de se rappeler par inversion du temps que Bet = tB1/t , t ≥ 0, est encore un
mouvement brownien. Si bien que Bt /t = B e1/t → B̃0 = 0 quand t → +∞ (on peut aussi
jusifier ce fait par la LGN).

3.5.3 Régularité trajectorielle brownienne


Proposition 3.23 Le mouvement brownien (Bt )t≥0 a des trajectoires ps localement holdé-
riennes de tout ordre γ ∈]0, 1/2[.

En particulier, on montre qu’un processus gaussien centré de covariance t∧s admet donc une
modification à trajectoires continues, c’est à dire une version est un mouvement brownien.
Démonstration : En effet, on a

K(t, t) + K(s, s) − 2K(s, t) = t + s − 2 min(t, s) = |t − s|.

Donc le Théorème 2.7 (Kolmogorov-Čentsov dans le cas gaussien) s’applique avec α = C =


1 pour B sur [0, 1]. Il donne l’existence de version avec la continuité höldérienne pour tout
γ < α/2 = 1/2. Comme le mouvement brownien et ces versions sont continues, elles sont
toutes indistinguables. C’est bien le mouvement brownien qui a ces propriétés de régula-
rité. Le résultat reste vrai pour B sur tout intervalle [0, T ] borné et on a donc la locale
Hölder-régularité sur R+ . □

Proposition 3.24 En chaque t ≥ 0, les trajectoires du mouvement brownien sont ps non


dérivables.
3.6. Variation quadratique 47

Démonstration : Par la propriété de translation (Markov simple), il suffit de montrer la


non dérivabilité en 0, c’est à dire montrer que
Bt − B0 Bt
lim = lim
t→0 t − 0 t→0 t

n’existe pas. Or par inversion du temps Bt /t = B e1/t où B


e est encore un mouvement
brownien. Mais d’après la Prop. 3.20 pour le mouvement brownien B e (cf. (3.4)), on a

lim sup B
es = +∞, es = −∞
lim inf B
s→+∞ s→+∞

avec s = 1/t, ce qui montre que la limite cherchée n’existe pas. □

En fait, on a bien mieux : le résultat suivant montre que : ps, les trajectoires browniennes
sont nulle part dérivables.
Théorème 3.25 (Dvoretsky, 1963) Il existe une constante C > 0 telle que
 
|Bs − Bt |
P ∃t > 0 : lim sup √ < C = 0. (3.5)
s→t+ s−t
Avant la preuve, on mentionne la conséquence concrète pour les trajevtoires browniennes :
Corollaire 3.26 (Dvoretsky) Presque sûrement, t 7→ Bt est dérivable nulle part.

Démonstration : D’après le Th. 3.25, ps ∀t ∈ [0, 1], lim sups→t+ |B√ss−t −Bt |
≥ C > 0. Soit t
arbitrairement fixé. Si B était dérivable en t de dérivée ℓ, on aurait quand s ↘ t
|Bs − Bt | |Bs − Bt | √ √
√ = × s − t ∼ ℓ s − t → 0,
s−t s−t

ce qui contredit (3.5) donc B n’est pas dérivable en tout t ∈ R. □

3.6 Variation quadratique


Définition 3.27 (Variation) Soit f : [0, 1] → R. On définit la α-variation de f par
α
X
V ar(f, α) = lim sup f (tk+1 ) − f (tk )
δ→0 {t }:ρ({t })≤δ
k k k

où ρ({tk }) = max1≤k≤p |tk − tk−1 | est le pas de la subdivision de [0, 1] et le sup est pris sur
l’ensemble de ces subdivisions.
Pour α = 1, on parle de la variation. On dit que f est à variations bornées si V ar(f, 1) <
+∞. Pour α = 2, on parle de la variation quadratique.
48 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

Remarque 3.28 Pour une fonction f de classe C 1 , la variation quadratique tend vers 0 sur
tout intervalle [0, t], en effet, avec une partition 0 = t0 < t1 < · · · < tp = t, on a avec le
théorème des accroissements finis :
p p
X X
Vf (t0 , t1 , . . . , tp ) := 2
(f (ti ) − f (ti−1 )) = (f ′ (t∗i )(ti − ti−1 ))2
i=1 i=1
p
X
≤ δ∥f ′ ∥2∞ |ti − ti−1 | = δ∥f ′ ∥2∞ t
i=1

où δ = max1≤i≤p |ti − ti−1 | et t∗i ∈]ti , ti+1 [ est donné par le théorème des accroissements
finis appliqué à la fonction dérivable f .
Proposition 3.29 (Variation quadratique brownienne) Soit t >P0 et {0 = t0 < t1 < · · · <
p 2
tp = t} une subdivision de [0, t], notons VB (t0 , t1 , . . . , tp ) = j=1 (Btj − Btj−1 ) . Alors
lorsque le pas de la subdivision δ := max1≤j≤p (tj − tj−1 ) tend vers 0 :
(1) VB (t0 , t1 , . . . , tp ) converge dans L2 vers t.
(2) De plus, si la subdivision est uniforme, la convergence est presque sûre.
Heuristiquement : la variation quadratique du mouvement brownien sur [0, t] est donc t.
Démonstration : Notons d’abord que le carré d’une variable gaussienne X centrée de
variance σ 2 est une variable aléatoire d’espérance σ 2 et de variance Var(X 2 ) = 3σ 4 − σ 4 =
2σ 4 (calculs par ipp).
1) Pour la convergence dans L2 , on a :
n
h X 2 i Xn
2 2
Var (Btj −Btj−1 )2
  
E (VB (t0 , t1 , . . . , tn )−t) = E (Btj −Btj−1 ) −(tj −tj−1 ) =
j=1 j=1

car les variables (Btj − Btj−1 )2 − (tj − tj−1 ) sont centrées et indépendantes. On a donc
n
X
2
(tj − tj−1 )2 ≤ 2tδ → 0,
 
E (VB (t0 , t1 , . . . , tn ) − t) = 2 δ → 0.
j=1

Pn−1
2) Notons Vn := VB 0, nt , . . . , nt

n
. On a Vn − t = k=0 Yn,k avec
    2
(k + 1)t kt t
Yn,k = B −B −
n n n
L’indépendance des accroissements de B assure que les Yn,k , k = 0, . . . , n, sont indépen-
dantes puis la stationnarité des accroissements de B assure que ces variables aléatoires sont
identiquement distribuées :
 2
L t t L t
Yn,k = B − = Z
n n n
avec Z = B12 − 1 variable aléatoire centrée dont tous les moments sont finis. On a
3.6. Variation quadratique 49
     
— EYn,k  = EYn,0  = EtZ/n = 0 ;  
2 2
— E Yn,k = E Yn,0 = E t2 Z 2 /n2 = (t2 /n2 ) E Z2 ;
 4   4     
— E Yn,k = E Yn,0 = E t4 Z 4 /n4 = (t4 /n4 ) E Z4 .
On utilise maintenant le Lemme 3.10 :
 !4 
Xn−1
E Yn,k  ≤ Cn2 E[Yn,0
4
].
k=0

Par l’inégalité de Markov, on a alors


 Pn−1   
 E ( k=0 Yn,k )4 Cn2 t2 E Z 4 Ct2 E[Z 4 ]
P |Vn − t| ≥ δn ≤ ≤ = .
δn4 n4 δn4 n2 δn4
Avec le choix δn = 1/ ln n, on a
+∞
X 
P |Vn − t| ≥ δn < +∞.
n=2

Le lemme de Borel-Cantelli s’applique et donne : ps, pour n assez grand on a |Vn − t| ≤


δn → 0. D’où ps limn→+∞ Vn = t. □

Proposition 3.30 Presque sûrement, les trajectoires du mouvement brownien sont à trajec-
toires à variations non bornées.
Ce résultat justifie que, si les trajectoires browniennes sont continues, elles oscillent quand
même beaucoup. . . tellement que les trajectoires sont ps à variations non bornées. Ce
phénomène explique les difficultés qu’il y aura à construire une intégrale (de type Stieltjes)
par rapport au mouvement brownien.
Démonstration : Il suffit de justifier la remarque générale suivante : si f est continue sur
[0, 1] et
n−1    2
X k+1 k
lim f −f = a ∈]0, +∞[
n→+∞
k=0
n n
alors Var(f, 1) = +∞. Pour cela, supposons que Var(f, 1) < +∞ et notons ρf (u) =
sup|x−y|<u |f (x) − f (y)| le module de continuité uniforme de f . Alors
n    2  X n    
X k+1 k 1 k+1 k
f −f ≤ ρf f −f
k=0
n n n n n
  k=0
1
≤ ρf Var(f, 1) → 0
n
quand n → +∞ puisque par continuité de f : limn→+∞ ρf (1/n) = 0. Il est donc nécessaire
d’avoir Var(f, 1) = +∞. □
50 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

3.7 Propriété de Markov forte


Le but dans cette section est d’étendre la propriété de Markov simple (invariance par
translation, cf. Prop. 3.14) au cas où l’instant déterministe s est remplacé par un temps
aléatoire T . On commence par préciser la classe des temps aléatoires pour lesquels cela est
possible.

3.7.1 Temps d’arrêt


Définition 3.31 (Temps d’arrêt) Étant donné une filtration (Ft )t≥0 , une variable aléatoire
T à valeurs dans [0, +∞] est un temps d’arrêt si pour tout t ≥ 0 on a {T ≤ t} ∈ Ft .

Les propriétés suivantes sont simples :

Proposition 3.32 Soit T et S deux (Ft )-temps d’arrêt alors T ∧ S et T ∨ S sont des (Ft )-
temps d’arrêt.

Démonstration : Cela vient facilement de pour t ≥ 0 :

{T ∧ S ≤ t} = {T ≤ t} ∪ {S ≤ t} ∈ Ft

et
{T ∨ S ≤ t} = {T ≤ t} ∩ {S ≤ t} ∈ Ft
puisque S, T sont de (Ft )-temps d’arrêt et la tribu Ft est stable par intersection et réunion.

Proposition 3.33 Si (Ft )t≥0 est une filtration continue à droite alors T est un (Ft )-temps
d’arrêt si et seulement si pour tout t ≥ 0, {T < t} ∈ Ft .

Démonstration : C’est suffisant car


\ \
{T ≤ t} = {T < t + ε} ∈ Ft+ε = Ft+ = Ft .
ε>0 ε>0

Et c’est nécessaire car [


{T < t} = {T ≤ t − ε} ∈ Ft
ε>0

puisque {T ≤ t − ε} ∈ Ft−ε ⊂ Ft . □

Cette proposition s’applique par exemple pour la filtration brownienne F B = (FtB )t≥0
(Prop. 3.16, généralisation de la loi de Blumenthal).

Proposition 3.34 1. Si (Tn )n∈N est une suite croissante de (Ft )-temps d’arrêt alors T =
limn→+∞ Tn est un (Ft )-temps d’arrêt.
3.7. Propriété de Markov forte 51

2. Si (Tn )n∈N est une suite décroissante de (Ft )-temps d’arrêt alors T = limn→+∞ Tn
est un (Ft+ )-temps d’arrêt.
Démonstration : 1) Soit Tn ↗ T alors pour tout t ≥ 0 :
\
{T ≤ t} = {Tn ≤ t} ∈ Ft
n≥1

2) Soit Tn ↘ T alors pour tout t ≥ 0 :


[
{T < t} = {Tn < t}.
n≥1

Mais [
{Tn < t} = {Tn ≤ t − 1/p} ∈ Ft
p≥1

puisque {Tn ≤ t − 1/p} ∈ Ft−1/p ⊂ Ft . On a donc {T < t} ∈ Ft ⊂ Ft+ ce qui suffit d’après
la Prop. 3.33 puisque (Ft+ )t≥0 est continue à droite. □

Exemple 3.35 On considère un processus X à trajectoires continues.


1. Un temps T = t (constant) est un temps d’arrêt.

2. Un temps d’atteinte Ta := inf t ≥ 0 : Xt = a est un temps d’arrêt pour la filtration
associée F X .
En effet, {Ta ≤ t} = {sup0≤s≤t Xs ≥ a} = s∈[0,t]∩Q {Xs ≥ a} ∈ FtX pour a ≥ 0.
S

3. En revanche, le temps de sortie T = sup t ≥ 0 : Xt = 0 n’est pas un temps d’arrêt.
En effet comme {T ≤ t} signifie que la dernière visite de X n 0 est avant la date t,
cela entraı̂ne des contraintes pour Xs aux dates s > t (s ̸= 0), ce qui ne peut pas être
FtX -mesurable.

4. Soit O un ouvert alors TO = inf t ≥ 0 : Xt ∈ O est un (FtX )-temps d’arrêt si la
filtration F X est continue à droite.
En effet :
  
TO < t = ∃s < t : Xs ∈ O = ∃s ∈ [0, t] ∩ Q : Xs ∈ O (trajectoires continues)
[  _
= Xs ∈ O ∈ FsX ⊂ FtX .
s∈[0,t]∩Q s∈[0,t]∩Q

Comme la filtration est continue à droite, {TO < t} ∈ FtX suffit, cf. Prop. 3.33.

5. Soit F un fermé alors TF = inf t ≥ 0 : Xt ∈ F est un (FtX )-temps d’arrêt.
En effet :
 
TF ≤ t = ω ∈ Ω : inf d(Xs (ω), F ) = 0
0≤s≤t
52 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

= ω∈Ω: inf d(Xs (ω), F ) = 0
s∈[0,t]∩,Q

car X est à trajectoires continues et donc la distance aussi. Par ailleurs, un inf
dénombrable de fonctions mesurables reste mesurable. Par conséquent, {TF ≤ t} ∈
FtX et TF est bien un (FtX )-temps d’arrêt.

Définition 3.36 (Temps d’arrêt simple) Soit T un (Ft )-temps d’arrêt. On dit que T est un
(Ft )-temps d’arrêt simple si l’ensemble des valeurs prises par TP est au plus dénombrable,
ie. il existe une suite (tn )n∈N de temps positifs dans R telle que n≥0 P(T = tn ) = 1.

Proposition 3.37 (Approximation de temps d’arrêt) Soit T un (Ft )-temps d’arrêt. Alors
il existe une suite décroissante (Tn )n∈N de (Ft )-temps d’arrêt simples tels que Tn ↘ T ps.

Cf. aussi Prop. 4.11 du Chapitre 4.


Démonstration : On pose Tn = ([T 2n ] + 1)2−n sur {T < +∞}, ie. Tn = (j + 1)2−n sur
l’évènement {T ∈ [j2−n , (j + 1)2−n [} et Tn = +∞ sur {T = +∞}. On vérifie que Tn est
un (Ft )-temps d’arrêt :
p−1
[
Tn = (j + 1)2−n avec p2−n ≤ t < (p + 1)2−n

Tn ≤ t =
j=0
p−1
[
= T ∈ [j2−n , (j + 1)2−n [
j=0

T ∈ [0, p2−n [ ∈ Fp2−n ⊂ Ft



=

où on a utilisé T < p2−n = ε>0 T ≤ p2−n − ε ∈ Fp2−n . Puis, par construction, on a
 S 
facilement Tn → T ps et Tn ≥ T . La suite (Tn )n≥1 décroit car si Tn = (p + 1)2−n , c’est que

T ∈ p2−n , (p + 1)2−n = (2p)2−n−1 , (2p + 1)2−n−1 ∪ (2p + 1)2−n−1 , (2p + 2)2−n−1 ,


     

et Tn+1 = (2p + 1)2−n−1 (si (2p)2−n−1 ≤ T < (2p + 1)2−n−1 ) ou Tn+1 = (2p + 2)2−n−1 (si
(2p + 1)2−n−1 ≤ T < (2p + 2)2−n−1) , c’est à dire Tn+1 ≤ Tn . On a donc Tn ↘ T . □

Définition 3.38 Soit T un temps d’arrêt. La tribu des évènements antérieurs à T est
n o
FT = A ∈ F∞ : ∀t ≥ 0, A ∩ {T ≤ t} ∈ Ft .

Si T = t est déterministe, alors FT = Ft .

Proposition 3.39 Soit T un temps d’arrêt fini ps. Les variables aléatoires T et BT sont
FTB -mesurables.
3.7. Propriété de Markov forte 53

Démonstration : Pour alléger les notations, on note ici Ft = FtB . Il s’agit de voir que pour
tout s ≥ 0, T −1 (] − ∞, s]) = {T ≤ s} ∈ FT . Pour cela, soit t ≥ 0, on a

{T ≤ s} ∩ {T ≤ t} = {T ≤ t ∧ s} ∈ Ft∧s ⊂ Ft

en utilisant le fait que T est un temps d’arrêt. Pour BT , on commence par justifier que
Bs 1{s<T } est FT -mesurable. En effet pour tout u ∈ R, on montre que {Bs 1{s<T } ≤ u} ∈ FT .
Pour cela, on établit que, pour tout t ≥ 0, {Bs 1{s<T } ≤ u} ∩ {T ≤ t} ∈ Ft .
— si t < s alors {Bs 1{s<T } ≤ u} ∩ {T ≤ t} = {0 ≤ u} ∩ {T ≤ t} = (∅ ou Ω) ∩ {T ≤
t} ∈ Ft ;
— si t ≥ s alors {Bs 1{s<T } ≤ u} ∩ {T ≤ t} = ({Bs ≤ u} ∩ {s < T ≤ t}) ∪ ({0 ≤
u} ∩ {T ≤ s}) mais {Bs ≤ u} ∈ Fs et {s < T ≤ t} = {T ≤ s}c ∩ {T ≤ t} ∈ Ft et
{T ≤ s} ∈ Fs .
Ensuite, par continuité presque sûre des trajectoires on écrit
+∞
X
BT = lim 1{i2−n <T ≤(i+1)2−n } Bi2−n
n→+∞
i=0

Comme 1{i2−n <T } Bi2−n et 1{T ≤(i+1)2−n } sont FT -mesurables alors 1{i2−n <T ≤(i+1)2−n } Bi2−n
l’est aussi puis par sommation et passage à la limite, BT l’est encore. □

Cette notion est développée en Section 4.2, en particulier les relations entres les diverses
filtrations FT (Prop. 4.9).

3.7.2 Propriété de Markov


Le résultat suivant généralise la Prop. 3.14 à un changement de temps donné par un
temps d’arrêt.

Théorème 3.40 (Propriété de Markov forte) Soit T un temps d’arrêt. Alors conditionnel-
lement à {T < +∞}, le processus B (T ) défini par
(T )
Bt = BT +t − BT

est un mouvement brownien indépendant de FT .

Démonstration : On suppose d’abord que T < +∞ ps. On prouve alors la propriété de


Markov en montrant que pour A ∈ FT , 0 ≤ t1 ≤ · · · ≤ tp et F une fonction continue
bornée sur Rp , on a
 (T ) (T )   
E 1A F (Bt1 , . . . , Btp ) = P(A) E F (Bt1 , . . . , Btp ) . (3.6)

En effet, avec A = Ω, on obtient que B (T ) a les mêmes lois fini-dimensionnelles que B


et il est facile de voir que B (T ) a des trajectoires presque sûrement continues. Autrement
54 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

dit B (T ) est un mouvement brownien. Puis pour A quelconque, (3.6) assure que pour tout
(T ) (T )
choix 0 ≤ t1 ≤ · · · ≤ tp , le vecteur (Bt1 , . . . , Btp ) est indépendant de FT , d’où par un
argument de classe monotone B (T ) ⊥ ⊥ FT .
Pour montrer (3.6), on écrit, par continuité presque sûre des trajectoires de B :
(T ) (T ) 
F Bt1 , . . . , Btp
+∞
X 
= lim 1{(k−1)2−n <T ≤k2−n } F Bk2−n +t1 − Bk2−n , . . . , Bk2−n +tp − Bk2−n .
n→+∞
k=1

Comme F est bornée, par convergence dominée, il vient :


 (T ) (T ) 
E 1A F (Bt1 , . . . , Btp )
+∞
X  
= lim E 1A 1{(k−1)2−n <T ≤k2−n } F Bk2−n +t1 − Bk2−n , . . . , Bk2−n +tp − Bk2−n .
n→+∞
k=1

Pour A ∈ FT , l’évènement A ∩ {(k − 1)2−n < T ≤ k2−n } = A ∩ {T ≤ k2−n } ∩ {T ≤


(k − 1)2−n }c est F(k2−n ) -mesurable donc par la propriété de Markov simple (Prop. 3.14),
on a
⊥ σ(Br : r ≤ k2−n )

Bk2−n +t1 − Bk2−n , . . . , Bk2−n +tp − Bk2−n ⊥
et donc
 
E 1A 1{(k−1)2−n <T ≤k2−n } F Bk2−n +t1 − Bk2−n , . . . , Bk2−n +tp − Bk2−n
= P A ∩ {(k − 1)2−n < T ≤ k2−n } E F Bk2−n +t1 − Bk2−n , . . . , Bk2−n +tp − Bk2−n
  

= P A ∩ {(k − 1)2−n < T ≤ k2−n } E F (Bt1 , . . . , Btp )


  

puisque par stationnarité des accroissements de B :



Bk2−n +t1 − Bk2−n , . . . , Bk2−n +tp − Bk2−n ∼ (Bt1 , . . . , Btp ).

Finalement, on obtient (3.6) en sommant sur k ∈ N∗ .


Lorsque P(T = +∞) > 0, on obtient de la même façon
 (T ) (T )    
E 1A∩{T <+∞} F Bt1 , . . . , Btp = P A ∩ {T < +∞} E F (Bt1 , . . . , Btp )

et le résultat cherché suit. □

3.7.3 Principe de réflexion


Une application importante de la propriété de Markov forte est le principe de réflexion.
3.7. Propriété de Markov forte 55

Théorème 3.41 (Principe de réflexion) Pour tout t > 0, notons St = sups≤t Bs . Alors si
a ≥ 0 et b ≤ a on a  
P St ≥ a, Bt ≤ b = P Bt ≥ 2a − b . (3.7)
En particulier, pour chaque t ≥ 0,
St ∼ |Bt |. (3.8)

Remarque 3.42 — À chaque trajectoire brownienne dépassant le seuil a et terminant


en deça de b ≤ a, on peut associer la trajectoire brownienne (fictive) obtenue par
symétrie autour de la droite y = a à partir de la date inf(t ≥ 0 : Bt = a). Cette
trajectoire termine alors au délà de 2a − b. Il y a ainsi une ′′ bijection′′ entre les
trajectoires browniennes vérifiant {St ≥ a, Bt < b} et celles vérifiant {Bt ≥ 2a − b}.
Le principe de réflexion (3.7) est une formalisation de cette ′′ bijection′′ .
[Dessin typique illustant le principe de réflexion].
L
— Le principe (3.7) implique que pour ∀t ≥ 0, St = |Bt |. Toutefois, attention : l’égalité
tient pour les marginales mais ne s’étend pas aux processus : l’un est croissant,
l’autre pas.

Démonstration : Il s’agit d’appliquer la propriété de Markov forte au temps d’arrêt Ta =


inf t ≥ 0 : Bt = a . On a déjà vu que Ta < +∞ ps. On a aussi
 
(T )
P(St ≥ a, Bt ≤ b) = P(Ta ≤ t, Bt ≤ b) = P Ta ≤ t, Bt−Ta a ≤ b − a

(T )
puisque Bt−Ta a = Bt−Ta +Ta − BTa = Bt − a. Pour simplifier, notons B ′ = B (Ta ) . Le Théo-
rème 3.40 (propriété de Markov forte) assure que B ′ est un mouvement brownien indépen-
dant de FTa , donc de Ta . Comme B ′ a même loi que −B ′ , on a
  Z t Z t
(Ta ) ′ ′
P Ta ≤ t, Bt−Ta ≤ b − a = P(Bt−u ≤ b − a) PTa (du) = P(−Bt−u ≤ b − a) PTa (du)
0 0
Z t  
′ (T )
= P(Bt−u ≥ a − b) PTa (du) = P Ta ≤ t, Bt−Ta a ≥ a − b
0

= P Ta ≤ t, Bt − a ≥ a − b
= P(Bt ≥ 2a − b)

car l’évènement {Bt ≥ 2a − b} est contenu dans {Ta ≤ t} (b ≤ a implique 2a − b ≥ a).


Pour (3.8), on utilise le principe de réflexion et la symétrie (en loi) du mouvement brownien :
 
P(St ≥ a) = P St ≥ a, Bt ≥ a + P St ≥ a, Bt < a .

Comme {Bt ≥ a} ⊂ {St ≥ a}, on a P St ≥ a, Bt ≥ a = P(Bt ≥ a). Puis le principe de
réflexion (3.7) avec a = b donne

P St ≥ a, Bt < a = P(Bt ≥ a) = P(−Bt ≥ a) = P(Bt ≤ −a)
56 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

en utilisant la symétrie de B. Finalement,



P(St ≥ a) = P |Bt | ≥ a ,
ce qui prouve (3.8). □

Remarque 3.43 On déduit facilement du principe de réflexion que le temps d’atteinte Ta =
inf t ≥ 0 : Bt = a d’un mouvement brownien du niveau a n’est pas déterministiquement
borné : pour tout C > 0, on a
   
P(Ta ≤ C) = P sup Bt ≥ a = P |BC | ≥ a = 2P(N ≥ a/C 2 ) < 1 (3.9)
t∈[0,C]

où N ∼ N (0, 1). Cependant Ta < +∞ ps puisque limC→+∞ P(Ta > C) = limC→+∞ 2P(N <
a/C 2 ) = 0.

Soit Z une variable aléatoire réelle. Un processus (Xt , t ≥ 0) est appelé mouvement brow-
nien réel issu de Z si on peut écrire Xt = Z + Bt où B est un mouvement brownien issu
de 0 indépendant de Z.

3.8 Équation de la chaleur


Cette section reprend la présentation de cette équation par [EGK].

3.8.1 Origine physique


L’équation de la chaleur est l’EDP qui décrit la propagation de la chaleur en donnant la
température T (t, x) dans un milieu en fonction du temps t et du lieu x.
Le flux d’énergie thermique J qui traverse une surface unitaire par unité de temps est
donné par la loi de Fourier :
∂T
J = −k
∂x
où k est le coefficient de conductivité thermique du milieu (en mkgs−3 K −1 ). Cette loi
stipule qu’une différence de température engendre un flux d’énergie dans la direction des
températures décroissantes.
Si on calcule le gain d’énergie par unité de temps d’un volume d’épaisseur dx et de section
S, on remarque que cette puissance est égale à la différence entre le flux entrant et le flux
sortant :
∂J
P = J(x)S − J(x + dx)S c’est à dire P = − Sdx.
∂x
Cette puissance assimilée à cet élément de volume Sdx est supposée élever sa température
T . On pose une relation linéaire simple
∂T
P = cm
∂t
3.8. Équation de la chaleur 57

où c est la chaleur spécifique de la matière considérée. Comme m = ρSdx (où ρ est la masse
volumique du milieu), on a alors
∂T ∂J
ρc =−
∂t ∂x
qui est l’équation de continuité d’un flux thermique d’énergie. En la combinant avec la loi
de Fourier, on obtient l’équation de la chaleur
∂T k ∂ 2T
= .
∂t ρc ∂x2
Cette EDP se généralise facilement en dimension supérieure.

3.8.2 Origine mathématique


Les premières propriétés du mouvement brownien mises en évidence par Bachelier et Ein-
stein concernent le lien entre la loi du mouvement brownien issu de x et l’équation de
la chaleur. On note pt (x, ·) la densité de la variable aléatoire qui modélise le phénomène
x + Bt à la date t et qui part de x à la date 0. Par stationnarité du phénomène, pt (x, y)
ne dépend de x, y que par la différence y − x. Puis, ces auteurs déduisent de la propriété
d’accroissements indépendants que la densité pt (x, ·) de la loi de x + Bt (qui n’est pas
supposée gaussienne a priori) vérifie l’équation de convolution
Z
pt (x, y)ph (y, z) dy = pt+h (x, z). (3.10)
R

En effet, on écrit x + Bt+h = x + Bt + Bt+h − Bt et on note que


— Bt = Bt − B0 est indépendant de Bh′ = Bt+h − Bt ,
— si x + Bt = y, la loi de x + Bt + Bt+h − Bt est la même que celle de y + B eh de densité
ph (y, ·),
— on récupère la densité du tout, en intégrant par rapport à la loi de x + Bt de densité
pt (x, ·).
Bachelier conclut en montrant que l’équation (3.10) est vérifiée par les fonctions de la forme
2 2
At e−πAt x pour lesquelles A2t est proportionelle au temps t. Il n’envisage pas a priori d’autre
type de fonctions. Ce résultat montre la grande généralité des situations qui peuvent être
modélisées par un mouvement brownien.
Revenons à la densité gaussienne
1
exp − (y − x)2 /(2t)

g(t, x, y) := g(t, y − x) = √
2πt
qui traduit que x + Bt+h est la somme des variables gaussiennes indépendantes x + Bt et
Bt+h − Bh . Un calcul direct montre que le noyau gaussien est solution de l’équation de la
chaleur, c’est à dire de l’EDP
 ′ ′′
gt (t, x, y) = 12 gyy (t, x, y)
′ 1 ′′ (3.11)
gt (t, x, y) = 2 gxx (t, x, y).
58 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

La densité gaussienne standard satisfait donc l’équation de la chaleur par rapport aux
variables x et y. Cette propriété est étendue à une vaste classe de fonctions construites à
partir du mouvement brownien.
Théorème 3.44 1. Considérons la fonction
Z
u(t, x, f ) = E[f (x + Bt )] = g(t, x, y)f (y) dy
R

où f est une fonction borélienne bornée. La fonction u est C ∞ en espace et en temps
pour t > 0 et vérifie l’équation de la chaleur
1
u′t (t, x, f ) = u′′xx (t, x, f ), u(0, x) = f (x). (3.12)
2
2. Lorsque le point de départ du mouvement X0 est aléatoire avec une loi de densité
π(x), indépendante
R du mouvement brownien, la densité de la loi de X0 + Bt est égale
à q(t, y) = R g(t, y − x)π(x)dx et vérifie l’équation de la chaleur
1 ′′
qt′ (t, y) = qyy (t, y), q(0, y) = π(y).
2
R
Démonstration : 1) La fonction u(t, x, f ) = E[f (x + Bt )] = R g(t, x, y)f (y) dy est très
régulière pour t > 0, car la densité gaussienne (le noyau de la chaleur) est C ∞ , à dérivées
bornées pour t > a. Par dérivation sous le signe intégral, on a aisément :
Z Z
′ ′ ′′ ′′
ut (t, x, f ) = gt (t, x, y)f (y) dy, uxx (t, x) = gxx (t, x, y)f (y) dy.
R R

L’équation de la chaleur (3.12) pour u(t, ·, f ) suit alors facilement de celle pour g(t, x, y).
2) Supposons que la condition initiale soit aléatoire et indépendante du mouvement brow-
nien et donc de Bt . La loi de X0 + Bt admet une densité qui est la convolée de π(x) et de
g(t, x). □

La formule précédente peut être étendue sous certaines conditions à d’autres fonctions
que les fonctions bornées, par exemple pour les fonctions f (x) = eλx , λ > 0. La fonc-
tion u(t, x, eλ· ) est la transformée de Laplace de x + Bt . Des calculs gaussiens (classiques)
montrent que
1 2
u t, x, eλ· = E eλ(x+Bt ) = eλx+ 2 λ t .
  

Lorsque la fonction considérée est régulière, une autre formulation peut être donnée à cette
relation qui jouera un rôle important dans la suite :
Proposition 3.45 Si f est une fonction Cb1 en temps et Cb2 en espace (c’est à dire à dériveés
bornées en temps et en espace), on a
1 ′′ 
u′t (t, x, f ) = u t, x, ft′ + fxx
2
3.8. Équation de la chaleur 59

soit, en intégrant, sous une forme probabiliste :


Z t
 1 ′′
(s, x + Bs ) + ft′ (s, x + Bt ) ds.

E[f (t, x + Bt )] = f (0, x) + E fxx (3.13)
0 2
Démonstration : On représente la fonction u(t, x, f ) de la façon suivante
Z Z
u(t, x, f ) = E[f (t, x + Bt )] = g(t, y)f (t, x + y) dy = g(t, x, z)f (t, z) dz
R R

où g(t, y) est la densité de Bt ∼ N (0, t) et g(t, x, z) = g(t, z − x) est la densité de x + Bt ∼


N (x, t). Par convergence dominée, on dérive sous le signe intégral, pour une fonction f
deux fois dérivable, à dérivées bornées.
Z
′′ ′′ ′′
uxx (t, x, f ) = g(t, y)fxx (t, x + y)dy = u(t, x, fxx )
Z R
′′
= gxx (t, x, z)f (t, z)dz (avec deux ipp)
Z R Z

ut (t, x, f ) = g(t, x, z)ft (t, z) dz + gt′ (t, x, z)f (t, z) dz

R Z R
′ 1 1
= u(t, x, ft ) + ′′
gxx (t, x, z)f (t, z)dz = u(t, x, ft′ ) + u(t, x, fxx
′′
)
2 R 2
en utilisant que g satisfait l’équation de la chaleur. Pour avoir l’équation intégrale (3.13), il
suffit d’intégrer par rapport à t et d’expliciter les fonctions u(t, x, ft′ ) et u(t, x, fxx
′′
) comme
des espérances. □

Le mouvement brownien décentré Xtx = x + bt + σBt joue un rôle important dans les appli-
cations. Les équations aux dérivées partielles (EDP) précédentes s’étendent sans difficulté
à partir de l’EDP satisfaite par la densité de Xtx

(y − x − bt)2
 
1
gb,σ2 (t, x, y) = √ exp − 2t
= g(σ 2 t, x + bt, y) = g(σ 2 t, x, y − bt).
2
2πσ t 2σ
Nous introduisons le générateur associé à ce processus, c’est à dire l’opérateur du 2nd
ordre défini par
1
Lb,σ2 ϕ(x) = σ 2 ϕ′′xx (x) + bϕ′x (x).
2
Puisque g(t, x, y) satisfait l’équation de la chaleur, la fonction x 7→ gb,σ2 (t, x, y) vérifie
1 2 ′′ 2
∂t gb,σ2 (t, x, y) = σ gxx (σ t, x + bt, y) + bgx′ (σ 2 t, x + bt, y)
2
= Lb,σ2 gb,σ2 (t, x, y). (3.14)

Dans ce contexte, l’équation (3.14) remplace l’équation de la chaleur (3.11).


60 Chapitre 3. ©JCB – M2 Math. – Université de Rennes

Proposition
R 3.46 1. Soit f : R → R. Les fonctions u(t, x, f ) = E[f (x + bt + σBt )] =
g 2 (t, x, y)f (y) dy satisfont l’EDP
R b,σ
 ′
ut (t, x, f ) = Lb,σ2 u(t, x, f ) = 21 σ 2 u′′xx (t, x, f ) + bu′x (t, x, f )
(3.15)
u(0, x, f ) = f (x).

2. De plus, si f : R+ × R → R est une fonction de classe Cb1 en temps sur R+ \ {0} et


Cb2 en espace, alors
Z t
x
E Lb,σ2 f (s, Xsx ) + ft′ (s, Xsx ) ds.
 
E[f (t, Xt )] = f (0, x) + (3.16)
0

Démonstration : L’équation (3.15) s’obtient en intégrant par rapport à f (y)dy l’EDP sa-
tisfaite par la densité gb,σ2 (t, x, y) considérée comme fonction de x. Puis (3.16) suit avec
des intégrations par parties comme précédemment. □

Remarque 3.47 La représentation de la solution de l’équation de la chaleur comme E[f (x+


Bt )] montre que la trajectoire brownienne joue pour cette équation le même rôle que les
caractéristiques, solutions d’équations différentielles du premier ordre, pour la résolution
des EDP du premier ordre. L’équation (3.15) montre que ce résultat peut être étendu aux
EDP elliptiques à coefficients constants à condition de se référer à un MB décentré.
Un objectif important est de passer de cette formule, vraie en moyenne (en espérance), à
une formule trajectorielle. Cette étape a été amorcée par Paul Lévy dans les années 30 et
complétée par Kiyoshi Itô dans les années 50. Plus précisément, Itô interprète la quantité
Z t
1 ′′
Tt (f ) = f (t, x + Bt ) − f (0, x) − fxx (s, x + Bs ) + f ′ (s, x + Bs )ds
0 2

qui mesure la différence trajectorielle entre les deux termes de l’équation (3.13) sans prendre
l’espérance E comme une intégrale stochastique. Ce faisant, il introduit un calcul différentiel
stochastique, le calcul d’Itô, vrai sur les trajectoires et non plus seulement en moyenne.
C’est l’objet des chapitres suivants (Chapitre 6).
Deuxième partie

Martingales

61
Chapitre 4

Martingales en temps continu

Dans ce chapitre, on présente les rudiments sur la théorie des martingales en temps
continu. Il s’agit de la généralisation au temps continu des martingales en temps discret
étudiées par exemple dans [JCB-martingale]. Ce sont des processus définis sur des espaces
(Ω, F, (Ft )t≥0 , P) filtrés, c’est à dire muni d’une filtration (Ft )t≥0 . On rappelle qu’on associe
à chaque Ft les tribus Ft+ et Ft− et la filtration est dite continue à droite (resp. à gauche)
si pour tout t ≥ 0, on a Ft = Ft+ (resp., pour tout t > 0, Ft = Ft− ). Elle est dite satisfaire
les conditions habituelles si elle est continue à droite et complète (ie. contient tous les
négligeables de F).
Dans tout ce chapitre, on considère (Ω, F, (Ft )t≥0 , P) un espace filtré. On commence par
des généralités sur les filtrations en Section 4.1 et sur les temps d’arrêts en Section 4.2
puis on présente la notion de martingale en temps continu en Section 4.3. On généralise
les principaux résultats rencontrés dans le cadre discret (inégalités de Doob, théorèmes de
convergence, théorème d’arrêt, martingales arrêtées) et on régularise les trajectoires des
martingales. On termine avec un mot sur le processus de Poisson en Section 4.8.

4.1 Filtration et processus


Définition 4.1 (Filtration) Une filtration sur un espace de probabilité (Ω, F) est une famille
(Ft )t≥0 de sous-tribus telle que pour s ≤ t on a Fs ⊂ Ft .
Si on considère un processus (Xt )t≥0 , on considère souvent la filtration canonique qu’il
engendre : FtX = σ(Xs : s ≤ t), t ≥ 0. Dans ce cas, il est utile d’interpréter une filtration
comme une quantité d’information disponible à une date donnée : FtX représente l’infor-
mation véhiculée par le processus X jusqu’à la date t.
Une filtration est P-complète pour une mesure de probabilité P si F0 contient tous les
évènements de mesure nulle, ie. N = {N ⊂ Ω : ∃A ∈ F tel que N ⊂ Ω et P(A) = 0}⊂ F0 .
L’intérêt d’une tribu complète vient du résultat suivant :
Proposition 4.2 Soit X = Y ps où Y est une variable aléatoire G-mesurable, avec G com-
plète. Alors X est G-mesurable.

63
64 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

Démonstration : En effet, notons N = {X ̸= Y }, négligeable, donc dans G complète. Soit


A ∈ B(R), on a :
X −1 (A) = {Y ∈ A} ∩ N c ∪ {X ∈ A} ∩ N .
 
 
On a {X ∈ A}  ∩ N ∈ G car {X ∈ A} ∩ N ⊂ N et G est une tribu complète. Puis
{Y ∈ A} ∩ N c ∈ G car {Y ∈ A} ∈ G et N c ∈ G. □

T W
À une filtration (Ft )t≥0 , on associe Ft+ = ε>0 Ft+ε et Ft− = ε>0 Ft−ε .
La filtration (Ft )t≥0 est dite continue à droite si pour tout t ≥ 0, on a Ft = Ft+ , continue
à gauche si pour tout t > 0, on a Ft = Ft− .
Dans la suite, on dira qu’une filtration satisfait les conditions habituelles si elle est complète
et continue à droite. C’est le cas de la filtration brownienne (FtB )t≥0 donnée par FtB =
σ(Bs : s ≤ t), cf. Prop. 3.16.
Étant donnée une filtration quelconque (Ft )t≥0 , on peut toujours en considérer une satis-
faisant les conditions habituelles en ajoutant à Ft+ la classe des P-négligeables de F. Il
s’agit de l’augmentation habituelle de (Ft )t≥0 .
W S 
On note F∞ = t≥0 Ft = σ t≥0 Ft la tribu limite de la filtration (Ft )t≥0 .

Définition 4.3 (Processus et mesurabilité)


(Adapté) Un processus (Xt )t≥0 est dit (Ft )-adapté si pour tout t ≥ 0, Xt est Ft -mesurable.
(Mesurable) Un processus (Xt )t≥0 est dit mesurable si l’application suivante est mesurable :

(R+ × Ω, B(R+ ) ⊗ F) −→ R
X:
(t, ω) 7−→ Xt (ω).

(Progressif ) Un processus (Xt )t≥0 est dit progressif (ou progressivement mesurable) si pour
tout t ≥ 0 l’application suivante est mesurable :

([0, t] × Ω, B([0, t]) ⊗ Ft ) −→ R
X:
(s, ω) 7−→ Xs (ω).

Définition 4.4 (Tribu progressive) La famille des ensembles A ∈ B(R+ ) ⊗ F tels que le
processus Xt (ω) = 1A (t, ω) est progressif est appelée la tribu progressive. On la note Prog.

Un processus est donc progressif s’il est mesurable par rapport à la tribu progressive Prog.
L’intérêt d’un processus progressif vient de ce que, estimé en un temps d’arrêt, il est
mesurable pour la tribu associé au temps d’arrêt, cf. Prop. 4.12.

Exemple 4.5 — Un processus X est adapté par rapport à sa filtration naturelle F X .


4.1. Filtration et processus 65

— Soit 0 < t1 < · · · < tn et h1 , . . . , hn des variables aléatoires telles que hi est Fti -
mesurable pour chaque 1 ≤ i ≤ n. On pose t0 = 0 et tn+1 = +∞. Les processus
simples suivants sont progressifs :
n
X n
X
X= hi 1[ti ,ti+1 [ et Y = hi 1]ti ,ti+1 ] .
i=0 i=0

En effet, étant donné B ∈ B(R), on a :


n
[
  
(s, ω) ∈ [0, t] × Ω : Xs (ω) ∈ B = [ti , ti+1 [∩[0, t] × ω ∈ Ω : hi (ω) ∈ B
i=0
| {z }
∈Fti

∈ B([0, t]) ⊗ Ft ,
[n
  
(s, ω) ∈ [0, t] × Ω : Ys (ω) ∈ B = ]ti , ti+1 ] ∩ [0, t] × ω ∈ Ω : hi (ω) ∈ B
i=0
| {z }
∈Fti

∈ B([0, t]) ⊗ Ft ,

puisque ω ∈ Ω : hi (ω) ∈ B ∈ Fti ⊂ Ft lorsque ti ≤ t ou ti < t.

Proposition 4.6 (Adapté, mesurable, progressif )


(1) Un processus progressif est adapté et mesurable.
(2) Un processus adapté et à trajectoires continues à droite ou continues à gauche est
progressif.
(3) Un processus mesurable et adapté admet une version progressive

Remarque 4.7 Pour un processus à trajectoires continues (à droite ou à gauche), il y a


donc équivalence entre être adapté et progressivement mesurable.

Démonstration : 1) Soit X un processus progressif. Il est adapté car Xt = X ◦ it où


it : ω ∈ (Ω, Ft ) 7→ (t, ω) ∈ ([0, t]×Ω, B([0, t])⊗Ft ) est mesurable puisque pour B ∈ B([0, t])
et A ∈ Ft :  
−1 A si t ∈ B
it (B × A) = ∈ Ft .
∅ si t ̸∈ B
Puis X est mesurable car un processus est mesurable si et seulement si pour tout t ≥ 0,
(s, ω) 7→ Xs (ω) est mesurable sur [0, t] × Ω muni de B([0, t]) ⊗ F : en effet, pour tout
borélien B ∈ B(R+ )
— si X est mesurable alors pour la restriction X|[0,t] , on a :
−1
(B) = X −1 (B) ∩ [0, t] × Ω ∈ B([0, t]) ⊗ F;

X|[0,t]
| {z }
∈B(R+ )⊗F
66 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

— si les restrictions X|[0,t] sont mesurables alors :


[  [ −1
X −1 (B) = X −1 (B) ∩ [0, t] × Ω = X|[0,t] (B) ∈ B(R+ ) ⊗ F,
t≥0 t≥0

−1
car X|[0,t] (B) ∈ B([0, t]) ⊗ F ⊂ B(R+ ) ⊗ F.
2) On traite le cas d’un processus X à trajectoires continues à droite (le cas de la continuité
(n)
à gauche est analogue). Soit t > 0 fixé. Pour chaque n ≥ 1, on définit (Xs )s∈[0,t] par
(n)
Xs(n) = Xkt/n pours ∈ [(k − 1)t/n, kt/n[, et Xt = Xt .
(n)
Par la continuité à droite, on a pour limn→+∞ Xs (ω) = Xs (ω) pour chaque ω ∈ Ω
(n)
et s ∈ [0, t] et il suffit de montrer que l’application (s, ω) ∈ [0, t] × Ω 7→ Xs (ω) est
(B([0, t]) ⊗ Ft )-mesurable pour chaque n ≥ 1.
Pour cela, pour un borélien B ∈ B(R), on a
n h 
[ (k − 1)t kt h
Xs(n) (ω)
 
(s, ω) ∈ [0, t] × Ω : ∈ B = {t} × {Xt ∈ B} ∪ , × {X kt ∈ B}
k=1
n n n

avec (k−1)t , kt
 
n n
∈ B([0, t]) et {Xkt/n ∈ B} ∈ Fkt/n ⊂ Ft , {Xt ∈ B} ∈ Ft si bien que
 (n)
(s, ω) ∈ [0, t] × Ω : Xs (ω) ∈ B ∈ B([0, t]) ⊗ Ft justifiant la (B([0, t]) ⊗ Ft )-mesurabilité
de X (n) puis, à la limite, celle de X.
3) Résultat admis, dû à Chung et Doob, cf. [DM]). □

4.2 Filtrations et temps d’arrêt


Dans cette section, on rappelle et développe la notion de temps d’arrêt du cadre temps
discret (T = N, pour lequel on renvoie à [JCB-martingale]) au cadre temps continu (T =
R+ ).
Définition 4.8 (Temps d’arrêt) Une variable aléatoire T à valeurs dans [0, +∞] est un
temps d’arrêt si pour tout t ≥ 0 on a {T ≤ t} ∈ Ft .
À un temps d’arrêt T , on associe les tribus suivantes :

FT = A ∈ F∞ : ∀t ≥ 0, A ∩ {T ≤ t} ∈ Ft

FT + = A ∈ F∞ : ∀t ≥ 0, A ∩ {T < t} ∈ Ft
 
FT − = σ A ∩ {T > t} : t ≥ 0, A ∈ Ft .

Les propriétés suivantes sont satisfaites :


Proposition 4.9 (Propriétés des temps d’arrêt et de leurs tribus associées)
4.2. Filtrations et temps d’arrêt 67

1) On a toujours FT − ⊂ FT ⊂ FT + . Si la filtration est continue à droite FT = FT + .


2) Une variable aléatoire T : Ω → R+ est un (Ft+ )t≥0 temps d’arrêt si et seulement si
pour tout t ≥ 0, {T < t} ∈ Ft . Cela équivaut encore à dire que T ∧ t est Ft -mesurable
pour tout t ≥ 0.
3) Si T = t alors FT = Ft , FT + = Ft+ et FT − = Ft− .
4) Le temps d’arrêt T est FT -mesurable.
5) Pour A ∈ F∞ , posons T A (ω) = T (ω) si ω ∈ A, +∞ sinon. Alors A ∈ FT si et seulement
si T A est un temps d’arrêt.
6) Si S ≤ T sont deux temps d’arrêt alors

FS ⊂ FT , FS − ⊂ FT − , FS + ⊂ FT + .

7) Soit T temps d’arrêt et S une variable aléatoire FT -mesurable telle que S ≥ T . Alors
S est aussi un temps d’arrêt.
8) Pour S, T des temps d’arrêt, S ∧ T et S ∨ T sont des temps d’arrêt et FS∧T = FS ∩ FT .
De plus {S ≤ T } ∈ FS∧T , {S = T } ∈ FS∧T .
9) Si (Sn )n≥1 est une suite W
croissante de temps d’arrêt alors S = limn→+∞ Sn est aussi un
temps d’arrêt et FS − = n≥1 FSn− .
10) Si (Sn )n≥1 est une suite décroissante deTtemps d’arrêt alors S = limn→+∞ Sn est aussi
un temps d’arrêt de (Ft+ )t≥0 et FS + = n≥1 FSn+ .
11) Si (Sn )n≥1 est une suite décroissante stationnaire de temps d’arrêt (ie. ∀ω, ∃N (ω),
∀n ≥ N (ω), Sn (ω)
T = S(ω)) alors S = limn→+∞ Sn est aussi un temps d’arrêt pour
(Ft )t≥0 et FS = n≥1 FSn (comparer avec 10)).

Démonstration :
1) Pour A ∈ Ft , soit A ∩ {T > t} ∈ FT − . Alors A ∩ {T > t} ∈ F∞ et pour s ≥ 0

(A ∩ {T > t}) ∩ {T ≤ s} = A ∩ ({t < T ≤ s}) ∈ Fs

car si s ≤ t on a {t < T ≤ s} = ∅, tandis que si s > t alors {t < T ≤ s} = {T ≤ t}c ∩ {T ≤


s} ∈ Fs et A ∈ Ft ⊂ Fs . Ainsi A ∩ {T > t} ∈ FT . Soit maintenant A ∈ FT alors
[ _
A ∩ {T < t} = (A ∩ {T ≤ t − 1/n}) ∈ Ft−1/n ⊂ Ft ,
n≥1 n≥1

on a donc A ∈ FT + et FT ⊂ FT + . Puis si la filtration est continue à droite et A ∈ FT +


alors \ \
A ∩ {T ≤ t} = A ∩ {T < t + 1/n} ∈ Ft+1/n = Ft+ = Ft ,
n≥1 n≥1

c’est à dire A ∈ FT et donc FT + ⊂ FT .


68 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

2) Soit T est un (Ft+ )t≥0 -temps d’arrêt alors


[ _
{T < t} = {T ≤ t − 1/n} ∈ F(t−1/n)+ ⊂ Ft
n≥1 n≥1

car pour chaque on a n : F(t−1/n)+ ⊂ Ft . Réciproquement, si {T < t} ∈ Ft alors


\ \
{T ≤ t} = {T < t + 1/n} ∈ Ft+1/n = Ft+ .
n≥1 n≥1

Puis si T ∧ t est Ft -mesurable alors pour tout s ≥ 0, {T ∧ t ≤ s} = {TT ≤ s} ∪ {t ≤ s} ∈ Ft .


Mais pour s < t, cela garantit donc {T ≤ s} ∈ Ft , ie. {T ≤ s} ∈ t>s Ft = Fs+ , c’est à
dire T est un temps d’arrêt pour (Ft+ )t≥0 . Réciproquement, si T est un temps d’arrêt pour
(Ft+ )t≥0 , alors pour tout s ≥ 0, on a {T ∧t ≤ s} = {T ≤ s}∪{t ≤ s} = {T ≤ s} ∈ Fs+ ⊂ Ft
si s < t et = Ω ∈ Ft+ si t ≤ s et donc T ∧ t est bien Ft -mesurable.
3) Soit T = t alors A ∈ FT si et seulement si pour tout s ≥ 0 on a A ∩ {t ≤ s} ∈ Fs . Pour
s < t on a bien ∅ ∈ Fs et pour t ≤ s, il faut A ∈ Fs . En particulier, il faut A ∈ Ft . La
réciproque est claire.
Lorsque T = t, on a A ∈ FT + si et seulement si pour tout s ≥ 0 on a A∩{t < s} ∈TFs . Pour
s ≤ t on a bien ∅ ∈ Fs et pour s > t, il faut A ∈ Fs . En particulier, il faut A ∈ s>t Fs =
Ft+ . Pour la réciproque, observer que quand t < s, on a A ∩ {t < s} = A ∈ Ft+ ⊂ Fs .
La tribu FT − est constituée des A ∩ {T > s} pour A ∈ Fs . Comme T = t : si s≥ t, cet
S
ensemble est vide ; si s < t, cet ensemble est A ∈ Fs . On a donc FT − = σ s<t Fs = Ft− .

4) On a {T ≤ s} ∈ FT pour tout s ≥ 0 car pour tout t ≥ 0 :


{T ≤ s} ∩ {T ≤ t} = {T ≤ t ∧ s} ∈ Ft∧s ⊂ Ft .

5) On a A ∈ FT si et seulement si pour tout t ≥ 0 : A ∩ {T ≤ t} ∈ Ft . Mais A ∩ {T ≤


t} = {T A ≤ t} ce qui permet de conclure.
6) On considère S ≤ T . Soit A ∈ FS , alors
A ∩ {T ≤ t} = (A ∩ {S ≤ t}) ∩ {T ≤ t} ∈ Ft .
car A ∩ {S ≤ t} ∈ Ft (A ∈ FS ) et {T ≤ t} ∈ Ft . Ainsi, A ∈ FT et donc FS ⊂ FT .
De même pour A ∈ FS + , alors
A ∩ {T < t} = (A ∩ {S < t}) ∩ {T < t} ∈ Ft .
S
car A ∩ {S < t} ∈ Ft (A ∈ FS + ) et {T < t} = n≥1 {T ≤ t − 1/n} ∈ Ft puisque
{T ≤ t − 1/n} ∈ Ft−1/n ⊂ Ft . Ainsi, A ∈ FT + et donc FS + ⊂ FT + .
Enfin un ensemble de FS − est de la forme A ∩ {S > t} pour A ∈ Ft et t ≥ 0. Comme
S ≤ T , on peut réécrire cet ensemble de FS − :

A ∩ {S > t} = A ∩ {S > t} ∩{T > t}
| {z }
∈Ft
4.2. Filtrations et temps d’arrêt 69

avec A ∩ {S > t} ∈ Ft puisque A ∈ Ft et {S > t} = {S ≤ t}c ∈ Ft . L’ensemble A ∩ {S > t}


est donc dans FT − et on a FS − ⊂ FT − .
7) Comme S est FT -mesurable, on a {S ≤ t} ∈ FT et donc puisque T ≤ S :
{S ≤ t} = {S ≤ t} ∩ {T ≤ t} ∈ Ft .

8) Pour des temps d’arrêt S, T quelconques, on a


{S ∧ T ≤ t} = {S ≤ t} ∪ {T ≤ t} ∈ Ft
{S ∨ T ≤ t} = {S ≤ t} ∩ {T ≤ t} ∈ Ft .
Comme S ∧ T ≤ T, S, on a facilement FS∧T ⊂ FS ∩ FT . De plus, si A ∈ FS ∩ FT , alors
A ∩ {S ∧ T ≤ t} = (A ∩ {S ≤ t}) ∪ (A ∩ {T ≤ t}) ∈ Ft ,
d’où A ∈ FS∧T . Puis pour t ≥ 0, on a
{S ≤ T } ∩ {T ≤ t} = ({S ≤ t} ∩ {T ≤ t}) ∩ {S ∧ t ≤ T ∧ t} ∈ Ft
{S ≤ T } ∩ {S ≤ t} = {S ∧ t ≤ T ∧ t} ∩ {S ≤ t} ∈ Ft
car S ∧ t et T ∧ t sont Ft -mesurables d’après 5) et 6) (S ∧ t ≤ t donc S ∧ t est Ft -mesurable)
donc {S ∧ t ≤ T ∧ t} ∈ Ft . Finalement, cela garantit {S ≤ T } ∈ FS ∩ FT = FS∧T .
Par symétrie, on a aussi {S ≥ T } ∈ FS∧T et donc {S = T } = {S ≤ T } ∩ {S ≥ T } ∈ FS∧T .
T
9) Comme Sn ↗ S, on a {S ≤ t} = n≥1 {Sn ≤ t} ∈ Ft ,Wce qui assure que S est un temps
d’arrêt. Comme Sn ≤ S, par 6), on a FSn− ⊂ FS − et donc n≥1 FSn− ⊂ FSS − . Réciproquement
un ensemble de FS − s’écrit A ∩ {S > t} pour A ∈ Ft et {S > t} = n≥1 {Sn > t}. On a
donc [
A ∩ {S > t} = (A ∩ {Sn > t}),
n≥1
S W
avec A W∩ {Sn > t} ∈ FSn− , on a A ∩ {S > t} ∈ n≥1 FSn− ⊂ n≥1 FSn− , ce qui prouve
FS − ⊂ n≥1 FSn− et l’égalité souhaitée.
S T
10) CommeTSn ↘ S, on a {S < t} = n≥1 {Sn < t} ∈ Ft+ car {Sn < t} = p>1 {Sn ≤
t + 1/p} ∈ p≥1 Ft+1/p = Ft+ et donc S est un T (Ft+ )-temps d’arrêt par 1). Puis
T comme
S ≤ Sn , on a FS + ⊂ FSn+ par 6) et donc FS + ⊂ n≥1 FSn+ . Réciproquement si A ∈ n≥1 FSn+
alors A ∩ {Sn < t} ∈ Ft pour chaque n ≥ 1 et
[
A ∩ {S < t} = (A ∩ {Sn < t}) ∈ Ft ,
n≥1
T
d’où A ∈ FS + et FS + = n≥1 FSn+ .
11) On considère maintenant Sn ↘ S mais la suite (Sn )n≥1 devenant stationnaire. D’abord,
S est un (Ft )-temps d’arrêt car la suite étant décroissante stationnaire :
[
{S ≤ t} = {Sn ≤ t} ∈ Ft .
n≥1
70 Chapitre 4. ©JCB – M2 Math. – Université de Rennes
T T
Puis comme S ≤ Sn , par 6), on a immédiatement FS ⊂ n≥1 FSn et pour A ∈ n≥1 FSn ,
[
A ∩ {S ≤ t} = (A ∩ {Sn ≤ t}) ∈ Ft .
n≥1
T
D’où A ∈ FS et n≥1 FSn ⊂ FS puis l’égalité souhaitée. □

Proposition 4.10 Une variable aléatoire Y est FT -mesurable si et seulement si, pour tout
t ≥ 0, Y 1{T ≤t} est Ft -mesurable.

Démonstration : En effet si la condition est vérifiée alors pour B ∈ B(R), on a {Y ∈


B} ∩ {T ≤ t} = {Y 1{T ≤t} ∈ B} ∩ {T ≤ t} ∈ Ft donc {Y ∈ B} ∈ FT puisque Y 1{T ≤t} est
FT -mesurable et {T ≤ t} ∈ Ft . On a donc {Y ∈ B} ∈ FT et Y est FT -mesurable.
Ensuite, si Y est FT -mesurable, alors

{Y 1{T ≤t} ∈ B} = ({Y ∈ B} ∩ {T ≤ t}) ∪ ({0 ∈ B} ∩ {T > t}) ∈ Ft ,

car {Y ∈ B} ∩ {T ≤ t} ∈ Ft . □

Proposition 4.11 (Approximation de temps d’arrêt) Soit T un temps d’arrêt. On pose


Tn = ([2n T ] + 1)2−n , ie.
+∞
X k+1
Tn = 1{k2−n <T ≤(k+1)2−n } + (+∞)1{T =+∞} . (4.1)
k=0
2n

Alors la suite (Tn )n≥1 forme une suite de temps d’arrêt qui décroı̂t vers T .

Cf. aussi Prop. 3.37 au Chapitre 3.


Démonstration : D’abord on montre que Tn est un temps d’arrêt en appliquant la Prop. 4.9-
7). On a Tn = ([2n T ] + 1)2−n ≥ (2n T )2−n = T . Puis, on montre que Tn est FT -mesurable
en établissant que pour tout u ≥ 0, on a {Tn ≤ u} ∈ FT . Pour cela il faut voir que pour
tout t ≥ 0, on a {Tn ≤ u} ∩ {T ≤ t} ∈ Ft . Mais
 [2n[u]−1 
[2n u]
 
k+1
{Tn ≤ u} = Tn ≤ n = Tn =
2 k=0
2n
[2n u]−1 
[2n u]
   
[ k k+1
= T ∈ n, n = T ≤ n .
k=0
2 2 2

On a donc
[2n u]
 
{Tn ≤ u} ∩ {T ≤ t} = T ≤t∧ n ∈ Ft∧[2n u]/2n ⊂ Ft .
2
4.2. Filtrations et temps d’arrêt 71

Par la Prop. 4.9-7), les variables aléatoires (Tn )n≥1 sont donc bien des temps d’arrêt.
Puis la suite (Tn )n≥1 décroit car si Tn = (p + 1)2−n , c’est que

T ∈ p2−n , (p + 1)2−n = (2p)2−n−1 , (2p + 1)2−n−1 ∪ (2p + 1)2−n−1 , (2p + 2)2−n−1 ,


     

et Tn+1 = (2p + 1)2−n−1 (si (2p)2−n−1 ≤ T < (2p + 1)2−n−1 ) ou Tn+1 = (2p + 2)2−n−1 (si
(2p+1)2−n−1 ≤ T < (2p+2)2−n−1) , soit dans tous les cas Tn+1 ≤ Tn . On a donc Tn ↘ T . □

Le résultat suivant justifie l’intérêt de la notion de progressivité : l’estimation en un temps


d’arrêt T d’un processus progressif est FT -mesurable :

Proposition 4.12 Soit X un processus progressif et T un temps d’arrêt.


1) Alors XT 1{T <+∞} est FT -mesurable.
2) Si X∞ est bien définie et F∞ -mesurable alors XT est FT -mesurable

Démonstration : 1) On obtient la mesurabilité de Y := XT 1{T <+∞} en appliquant la


Prop. 4.10. Pour cela, on montre que pour tout t ≥ 0

Y 1{T ≤t} = XT 1{T ≤t} = XT ∧t 1{T ≤t}

est Ft -mesurable. Mais XT ∧t est la composition des deux applications


   
Ω, Ft ) → ([0, t] × Ω, B([0, t]) ⊗ F t [0, t] × Ω, B([0, t]) ⊗ F t → R
 et
ω 7→ T (ω) ∧ t, ω (s, ω) 7→ Xs (ω).

La première est mesurable car pour B ∈ B(R) et A ∈ Ft :

(T ∧ t, ω)−1 (B × A) = A ∩ (T ∧ t)−1 (B) ∈ Ft

en utilisant que T ∧t est Ft -mesurable (Prop. 4.9-2). La seconde est mesurable par définition
de X progressif. Il en résulte que XT ∧t , et donc aussi XT ∧t 1{T ≤t} , est Ft -mesurable. La
Prop. 4.10 conclut pour 1)
2) Lorsque X∞ est définie et F∞ -mesurable, on écrit

XT = XT 1{T <+∞} + XT 1{T =+∞}

avec
— XT 1{T <+∞} FT -mesurable par 1)
— XT 1{T =+∞} est aussi FT -mesurable d’après la Prop. 4.10 car XT 1{T =+∞} 1{T ≤t} = 0.

Remarque 4.13 Dans la Prop. 4.12, il est nécessaire (a priori) de considérer XT 1{T <+∞}
plutôt que XT tant que X∞ n’est pas définie.
72 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

4.3 Définition et exemples de martingales en temps continu


Définition 4.14 (Martingale) Un processus (Xt )t≥0 adapté par rapport une filtration (Ft )t≥0
et tel que pour tout t ≥ 0, Xt ∈ L1 est appelé
— une martingale si pour s ≤ t : E[Xt |Fs ] = Xs ;
— une sur-martingale si pour s ≤ t : E[Xt |Fs ] ≤ Xs ;
— une sous-martingale si pour s ≤ t : E[Xt |Fs ] ≥ Xs .

Une martingale est, en moyenne, constante, tandis qu’une sur-martingale est, en moyenne,
décroissante et une sous-martingale, en moyenne, croissante. Ainsi, on peut considérer
qu’une sur-martingale est une généralisation aléatoire d’une fonction décroissante tandis
qu’une sous-martingale est une généralisation d’une fonction croissante. Dans la suite, on
considère souvent des martingales à trajectoires continues à droite, d’après la Prop. 4.6
elles seront progressivement mesurables.

Proposition 4.15 Soit (Xt )t≥0 une martingale (resp. une sous-martingale) et soit φ : R →
R une fonction convexe (resp. convexe croissante). On suppose que φ(Xt ) ∈ L1 pour tout
t ≥ 0. Alors (φ(Xt ))t≥0 est une sous-martingale.

Démonstration : En effet, d’après l’inégalité de Jensen (pour l’espérance conditionnelle),


on a, pour s < t,
E[φ(Xt )|Fs ] ≥ φ(E[Xt |Fs ]) ≥ φ(Xs ).

En appliquant cette remarque à la fonction convexe croissante x 7→ x+ , on montre que si


(Xt )t≥0 est une sous-martingale alors (Xt+ )t≥0 aussi. En particulier, on a pour s ∈ [0, t] :
E[Xs+ ] ≤ E[Xt+ ]. D’autre part, puisque X est une sous-martingale, on a pour s ∈ [0, t],
E[Xs ] ≥ E[X0 ]. En combinant ces deux inégalités et en utilisant |x| = 2x+ − x, on trouve
la borne
sup E[|Xs |] ≤ 2E[Xt+ ] − E[X0 ]. (4.2)
s∈[0,t]

En changeant X en −X, la borne reste valable pour une sur-martingale et on a alors


prouvé :
Proposition 4.16 Soit (Xt )t≥0 une sous-martingale,
  ou une sur-martingale, ou une mar-
tingale. Alors pour tout t ≥ 0, on a sups∈[0,t] E |Xs | < +∞.

4.4 Inégalités pour martingales en temps continu


Dans cette section, on généralise au cadre du temps continu (T = R+ ) plusieurs inégalités
déjà connues dans le cadre du temps discret (T = N) quand les (sur/sous)-martingales sont
à trajectoires continues à droite. Pour cela, l’idée générale est de considérer un ensemble dé-
nombrable dense D qu’on voit comme limite de parties finies croissantes Dn = {t1 , . . . , tn }.
4.4. Inégalités pour martingales en temps continu 73

On applique les résultats discrets aux restrictions


S à Dn = {t1 , . . . , tn }. En passant à la
limite (convergence monotone avec Dn ↗ n≥1 Dn = D), le résultat s’obtient pour les
restrictions à D. Comme D est dense dans R+ , la continuité (à droite) permet de lever la
restriction t ∈ D et d’obtenir le résultat pour tout t ∈ R+ .
Systématiquement, on commence par rappeler les résultats principaux pour des martingales
discrètes pour lesquels on renvoie à [JCB-martingale].

Inégalité maximale de Doob


On rappelle l’inégalité discrète :
Soit (Yn )n∈N une sous, sur-martingale ou martingale discrète. Alors pour tout x > 0 et
n ≥ 0, on a
  E[|Y |] + 2E[|Y |]
0 n
P max |Yk | ≥ x ≤ . (4.3)
k≤n x
On considère maintenant une sous-martingale (Xt )t≥0 en temps continu. Soit t ≥ 0 fixé.
Pour toute partie finie {0 = t0 < t1 < t2 < · · · < tn = t} de [0, t], on peut appliquer
cette inégalité à la sous-martingale en temps discret Yk = Xtk∧n , k ≥ 0, par rapport à la
filtration (Ftk∧n )k≥0 . L’inégalité discrète (4.3) donne
    E[|X |] + 2E[|X |]
0 t
P sup |Xs | ≥ x = P max |Yk | ≥ x ≤ . (4.4)
t∈[0,t]∩{t1 ,...,tn } k≤n x

Étant donné un sous-ensemble D dénombrable de R+ et contenant t, on écrit D comme une


limite croissante (pour l’inclusion) de parties finies Dn = {0 ≤ t1 < t2 < · · · < tn } ∪ {t}.
La suite (sups∈[0,t]∩Dn |Xs |)n≥1 est alors croissante et converge vers sups∈[0,t]∩D |Xs |. Puis la
 
suite d’évènements sups∈[0,t]∩Dn |Xs | ≥ x n≥1 est croissante et d’union
[n o n o
sup |Xs | ≥ x = sup |Xs | ≥ x .
n≥1 s∈[0,t]∩Dn s∈[0,t]∩D

En passant à la limite par convergence monotone des probabilités dans (4.4), on a :


  E[|X |] + 2E[|X |]
0 t
P sup |Xs | ≥ x ≤ . (4.5)
s∈[0,t]∩D x

Si on suppose en plus que les trajectoires de X sont continues à droite alors en prenant D
dense contenant t, on a sups∈[0,t]∩D |Xs | = sups∈[0,t] |Xs | ce qui justifie qu’on peut prendre
sups∈[0,t] |Xs | dans (4.5) et on a alors montré :

Proposition 4.17 (Inégalité maximale de Doob) Soit (Xt )t≥0 une sous, sur-martingale ou
martingales dont les trajectoires sont continues à droite. Alors pour tout x, t > 0 :
  E[|X |] + 2E[|X |]
0 t 3 sups∈[0,t] E[|Xs |]
P sup |Xs | ≥ x ≤ ≤ . (4.6)
s∈[0,t] x x
74 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

Inégalité de moment de Doob


Dans le cadre du temps discret, cette inégalité affirme :
Soit (Yn )n∈N une martingale en temps discret telle que Yn ∈ Lp pour p > 1 (on note q le
conjugué de p satisfaisant p1 + 1q = 1). Alors pour tout n ≥ 0 on a :

sup |Yk | ≤ q ∥Yn ∥p . (4.7)


k≤n p

En raisonnant comme précédemment, on a un résultat analogue pour une martingale en


temps continu :
Proposition 4.18 (Inégalité de moment de Doob) Soit (Xt )t≥0 une martingale dont les tra-
jectoires sont continues à droite avec Xt ∈ Lp pour tout t ≥ 0 alors, avec p1 + 1q = 1,

sup |Xs | ≤ q ∥Xt ∥p . (4.8)


s∈[0,t] p

Démonstration : Soit t ≥ 0 fixé. Pour toute partie finie {0 = t0 < t1 < t2 < · · · < tn = t}
de [0, t], on peut appliquer l’inégalité de Doob discrète (4.7) à la martingale discrète Yk =
Xtk∧n , k ≥ 0, par rapport à la filtration Ftk∧n , k ≥ 0.
En considérant une partie D dénombrable de R+ contenant t, on peut l’écrire comme limite
croissante de parties finies Dn = {0 ≤ t1 ≤ · · · ≤ tn } ∪ {t} et on a pour chaque Dn :

sup |Xs | ≤ q ∥Xt ∥p . (4.9)


s∈[0,t]∩Dn p

S
Comme Dn ↗ n≥1 Dn = D et sups∈[0,t]∩Dn |Xs | ↗ sups∈[0,t]∩D |Xs |, lorsque n → +∞, par
convergence monotone, on a

sup |Xs | ↗ sup |Xs | , n → +∞,


s∈[0,t]∩Dn p s∈[0,t]∩D p

et en passant à la limite dans (4.9), on a

sup |Xs | ≤ q∥Xt ∥p . (4.10)


s∈[0,t]∩D p

Lorsque le processus X a ses trajectoires continues à droite, en prenant D dénombrable


dense dans R+ , on a sups∈[0,t]∩D |Xs | par sups∈[0,t] |Xs | et (4.10) s’écrit (4.8). □

Nombre de montées
Si f est une fonction définie sur une partie T de R+ et si a < b, le nombre de montées de
f
f le long de [a, b], noté Ma,b (T ), est le supremum des entiers k tels que l’on puisse trouver
une suite croissante de T , s1 < t1 < s2 < t2 · · · < sk < tk , avec f (si ) < a, f (ti ) > b.
4.5. Régularisation de trajectoires 75

[Dessin typique des montées]


Pour une sous-martingale discrète (Yn )n≥0 , on a :
 Y 1
E (Yn − a)+ .
  
E Ma,b ([0, n]) ≤ (4.11)
b−a
On en déduit comme précédemment le résultat suivant dans le cadre du temps continu :

Proposition 4.19 (Inégalité sur les montées) Soit (Xt )t≥0 une sous-martingale. Si D est
un sous-ensemble dénombrable de R+ , on a pour tout a < b :
 X 1
E (Xt − a)+ .
  
E Ma,b ([0, t] ∩ D) ≤ (4.12)
b−a

Remarque 4.20 Attention pour ce résultat, même en supposant le processus X à trajec-


toires continues, on ne peut pas prolonger la borne par continuité puisque la fonction
X
t ∈ R+ 7→ Ma,b ([0, t]) ∈ N est à valeurs entières et donc non continue.

Démonstration : Pour toute partie finie {0 = t0 < t1 < t2 < · · · < tn = t} de [0, t], on peut
appliquer l’inégalité discrète (4.11) sur le nombre de montées à la sous-martingale discrète
Yk = Xtk∧n , k ≥ 0, par rapport à la filtration (Ftk∧n )k≥0 .
S
On écrit D = n≥1 Dn où Dn = {t1 , . . . , tn } ∪ {t}, n ≥ 1 forme une suite croissants de
parties finies contenant t. Pour chaque Dn , on a alors :
 X 1
E (Xt − a)+ .
  
E Ma,b ([0, t] ∩ Dn ) ≤ (4.13)
b−a
S
Comme Dn ↗ n≥1 Dn = D lorsque n → +∞, on a
!
[
X X X
Ma,b ([0, t] ∩ Dn ) ↗ Ma,b [0, t] ∩ Dn = Ma,b ([0, t] ∩ D)
n≥1

et on obtient (4.12) en passant à la limite dans (4.13) par convergence monotone. □

4.5 Régularisation de trajectoires


Avant de donner des théorèmes de convergence pour les martingales en temps continu dans
la Section 4.6, on rappelle les résultats du cadre en temps discret (voir [JCB-martingale]).
Ils permettent d’abord de donner dans cette section des conditions de régularisation des
martingales (existence de versions à trajectoires continues ou càdlàg).

Proposition 4.21 (Convergence des martingales discrètes)


76 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

(1) Soit (Yn )n∈N une sous, sur-martingale ou martingale bornée dans L1 . Alors Yn → Y∞
ps et Y∞ ∈ L1 .
(2) Une sur-martingale positive converge ps.
(3) Soit (Yn )n∈N sous-martingale. Alors (Yn )n∈N est uniformément intégrable si et seule-
ment si (Yn )n∈N converge ps et L1 .
(4) Si (Yn )n∈−N est une sous-martingale rétrograde (ie. indéxée par −N : Fn ⊂ Fn+1 et
Yn ≤ E[Yn+1 |Fn ] pour n ≤ 0) et telle que supn≤0 E[|Yn |] < +∞ alors la suite (Yn )n≤0 est
uniformément intégrable et converge ps et dans L1 quand T n → −∞ vers une variable
Z telle que Z ≤ E[Yn |F−∞ ], où par définition F−∞ := n≤0 Fn .

En appliquant ces résultats en temps discret à des (sous-)martingales en temps continu,


on a :

Proposition 4.22 (Limites à droite et à gauche) Soit (Xt )t≥0 une sous-martingale et D un
sous-ensemble dénombrable dense dans R+ . Alors pour presque tout ω ∈ Ω, l’application
s ∈ D 7→ Xs (ω) ∈ R admet en tout t ∈ R+ une limite à droite le long de D finie, notée
Xt+ (ω), et en tout point t ∈ R∗+ , une limite à gauche le long de D, notée Xt− (ω).

Démonstration : C’est une conséquence de l’inégalité maximale de Doob (4.6) et de celle sur
le nombre de montées (4.12). En effet, pour T > 0 fixé, on a d’abord, sups∈[0,T ]∩D |Xs | < +∞
ps car l’inégalité maximale de Doob (4.6) assure
 
lim P sup |Xs | ≥ x = 0.
x→+∞ s∈[0,T ]∩D

Ensuite, l’inégalité sur le nombre de montées (4.12) montre que ps pour


X
∀a, b ∈ Q, avec a < b, on a Ma,b ([0, T ] ∩ D) < +∞.

(D’abord pour tout a < b rationnels presque sûrement, puis presque sûrement pour tout
a < b presque sûrement.) Finalement, s 7→ Xs (ω) est bornée sur [0, T ] ∩ D et pour tous
a < b rationnels, ne fait qu’un nombre fini de montées le long de [a, b]. La Prop. 4.22 s’en
déduit puisque si, par exemple une fonction f : [0, T ] → R n’a pas de limite à droite finie
en t ∈]0, T ], on peut choisir a < b rationnels de sorte que

lim inf f (s) < a < b < lim sup f (s),


s∈D↘t s∈D↘t

f
et on obtient que M[a,b] ([0, T ] ∩ D) = +∞, ie. f a un nombre infini de montées le long de
[a, b] sur [0, t] ∩ D. De même pour les limites à gauche. □

Corollaire 4.23 (sur le processus (Xt+ )t≥0 ) Soit (Xt )t≥0 une sous-martingale.
(1) Pour tout t ∈ R+ , on a Xt+ ∈ L1 (Ft+ ), ie. Xt+ est Ft+ -mesurable et Xt+ ∈ L1 .
4.5. Régularisation de trajectoires 77

(2) Pour tout t ∈ R+ , on a Xt ≤ E[Xt+ |Ft ] ps avec égalité si la fonction t 7→ E[Xt ] est
continue à droite (par exemple, si (Xt )t≥0 est une martingale).
(3) De plus, le processus (Xt+ )t≥0 est alors une sous-martingale par rapport à la filtration
(Ft+ )t≥0 et même une martingale si X en est une.

Démonstration : 1) Pour que Xt+ (ω) soit définie pour tout ω ∈ Ω et pas seulement sur
l’ensemble de probabilité 1 où la limite existe, on prend Xt+ (ω) = 0 sur l’ensemble Ft+ -
mesurable et de probabilité nulle où la limite en t le long de D n’existe pas.
La variable aléatoire Xt+ est Ft+ -mesurable : en effet, en fixant u > t, pour s ∈ [t, u], Xs est
alors Fu -mesurable et comme Xt+ = lims∈[t,u]↘t Xs est limite de telles variables aléatoire,
on a aussi que la Fu -mesurabilité deTXt+ . Comme cela est vrai pour tout u > t, Xt+ est
finalement mesurable par rapport à u>t Fu = Ft+ .
De cette façon, la variable aléatoire Xt+ (ω) est bien définie pour tout ω ∈ Ω et reste
Ft+ -mesurable (en supposant la filtration complète).
Pour l’intégrabilité, on choisit une suite (tn )n≥0 de D qui décroit vers t fixé. Par construc-
tion, on a Xt+ = limn→+∞ Xtn ps. Pour k ≤ 0, on pose Yk = Xt−k et Gk = Ft−k . Comme la
suite (tn )n≥0 décroit, on a t−k ≤ t−k−1 et :
— Gk = Ft−k ⊂ Ft−k−1 = Gk+1 : (Gk )k≤0 est bien une filtration indéxée par −N,
— (Yk )k≤0 est bien une (Gk )-sous-martingale rétrograde :

E[Yk+1 |Gk ] = E[Xt−k−1 |Ft−k ] ≥ Xt−k = Yk ,

puisque t−k−1 ≥ t−k et X est une sous-martingale.


Comme par la Prop. 4.16
 
sup E[|Yk |] = sup E |Xtn | = sup E[|Xs |] < +∞,
k≤0 n≥0 s∈[0,t0 ]∩D

le résultat discret (cf. 4 ) de la Prop. 4.21) assure que la suite (Yk )k≤0 = (Xtn )n≥0 converge
dans L1 , dans ce cas nécessairement vers Xt+ . On a donc en particulier Xt+ ∈ L1 .
2) Grâce à la convergence L1 , on peut passer à la limite dans l’inégalité de sous-martingale
(pour tn > t) Xt ≤ E[Xtn |Ft ] et obtenir

Xt ≤ E[Xt+ |Ft ] ps. (4.14)

L1
Toujours grâce à la convergence Xtn → Xt+ dans L1 , on a E[Xt+ ] = limn→+∞ E[Xtn ] et donc
si la fonction s 7→ E[Xs ] est continue à droite, on doit avoir E[Xt+ ] = E[Xt ]. L’inégalité
précédente (4.14) n’est alors possible que si Xt = E[Xt+ |Ft ] ps.
3) Par 1), le processus (Xt+ )t≥0 est (Ft+ )-adapté et intégrable. Il reste à établir la propriété
de sous-martingale pour (Xt+ )t≥0 :
 
Xs+ ≤ E Xt+ |Fs+ ∀s ≤ t. (4.15)
78 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

Étant donnés s < t, on considère des suites (sn )n≥0 et (tn )n≥0 de D qui décroissent res-
pectivement vers s et t. Comme s < t, on peut supposer sn ≤ tn pour tout n ≥ 1. Alors
(Xsn )n≥1 converge vers Xs+ dans L1 , et donc, si A ∈ Fs+ ⊂ Ft+ ,
 
E[Xs+ 1A ] = lim E[Xsn 1A ] ≤ lim E[Xtn 1A ] = E[Xt+ 1A ] = E E[Xt+ |Fs+ ]1A (4.16)
n→+∞ n→+∞

où on utilise l’inégalité de sous-martingale E[Xtn 1A ] ≤ E[Xsn 1A ] pour sn < tn . L’inégalité


(4.16) entraı̂ne (4.15).
Enfin, si X est une martingale, on peut remplacer dans le calcul précédent l’inégalité
E[Xsn 1A ] ≤ E[Xtn 1A ] par une égalité E[Xsn 1A ] = E[Xtn 1A ] et obtenir la propriété de mar-
tingale pour (Xt+ )t≥0 . □

Théorème 4.24 (Régularisation de martingale) On suppose que la filtration (Ft )t≥0 satis-
fait les conditions habituelles. Soit X = (Xt )t≥0 une sous, sur-martingale ou martingale
dont la fonction espérance t 7→ E[Xt ] est continue à droite. Alors le processus X admet
une modification qui est aussi une (Ft )-sous-martingale et dont les trajectoires sont càdlàg
(continues à droite avec des limites à gauche en tout point).
Démonstration : Il suffit de faire la preuve pour une sous-martingale. On fixe D un ensemble
dénombrable dense dans R+ et on applique la Prop. 4.22. D’après ce théorème, il existe
un ensemble N négligeable tel que pour ω ̸∈ N , l’application s ∈ R+ 7→ Xs (ω) admet des
limites le long de D à droite en tout t ≥ 0 et à gauche en tout t > 0. On pose alors

Xt+ (ω) si ω ̸∈ N
Yt =
0 si ω ∈ N.
Les trajectoires de Y sont continues à droite et avec des limites à gauche pour tout ω ∈ Ω :
si ω ∈ N , c’est immédiat, tandis que si ω ̸∈ N alors pour t ≥ 0 et ε > 0, on a
Yt+ = lim Yt+h = lim X(t+h)+ = lim lim Xt+h+δ = lim Xt+η = Xt+ = Yt
h↘0 h↘0 h↘0 δ↘0 η↘0

en posant η = h + δ ↘ 0 et
Yt− = lim Yt−h = lim X(t−h)+ = lim lim Xt−h+δ = lim Xt−η existe
h↘0 h↘0 h↘0 δ↘0 η↘0

car la limite itérée limh↘0 limδ↘0 revient à prendre limη↘0 avec η = h − δ ↘ 0 car δ ↘ 0
avant h ↘ 0.
On a alors    
Xt = E Xt+ |Ft = E Xt+ |Ft+ = Xt+ = Yt ps
où la première égalité vient de 2) de la Prop. 4.22, la deuxième de Ft+ = Ft (par hy-
pothèse de conditions habituelles satisfaites par la filtration (Ft )t≥0 ) et la troisième de
Ft+ -mesurabilité de Xt+ (Corollaire 4.23-1). Ainsi le processus Y est une modification de
X. Comme la filtration (Ft )t≥0 est complète, Yt est Ft -mesurable (Prop. 4.2). Enfin, d’après
le Corollaire 4.23-3), le processus Y est une (Ft )-sous-martingale. □
4.6. Théorèmes de convergence 79

4.6 Théorèmes de convergence


Dans cette section, la notion d’uniforme intégrabilité est importante. On renvoie à un cours
de probabilités de base pour la définition de cette notion et ses principales propriétés, cf.
par exemple [JCB-proba] ou [JCB-martingale].

Théorème 4.25 (Convergence ps de martingales) Soit X = (Xt )t≥0 une sous, sur ou mar-
tingale bornée dans L1 et à trajectoires continues à droite. Alors il existe une variable
aléatoire X∞ ∈ L1 telle que
lim Xt = X∞ ps. (4.17)
t→+∞

Remarque 4.26 1) Une sous-martingale (Xt )t≥0 est bornée dans L1 si et seulement si
supt≥0 E[Xt+ ] < +∞. En effet, comme E[X0 ] ≥ E[Xt ], on a E[X0 ] + E[Xt− ] ≥ E[Xt+ ]. Il
vient
E[Xt+ ] ≤ E[|Xt |] = E[Xt+ ] + E[Xt− ] ≤ 2E[Xt+ ] − E[X0 ]
et donc
sup E[|Xt |] ≤ −E[X0 ] + 2 sup E[Xt+ ].
t≥0 t≥0

L’autre sens est évident puisque Xt+ ≤ |Xt |.


2) De la même façon, une sur-martingale est bornée dans L1 si et seulement si supt≥0 E[Xt− ] <
+∞.
3) En particulier, une sur-martingale positive est bornée dans L1 et d’après le Th. 4.25
ci-dessus elle converge ps.

Démonstration : Quitte à changer X en −X, ce qui ne modifie pas les hypothèses à vérifier
dans le Th. 4.25, on peut se ramener au cas de X sous-martingale.
Soit D un sous-ensemble dénombrable dense de R+ . On déduit de l’inégalité du nombre
de montées pour une sous-martingale X (Prop. 4.19) que pour tous a < b, on a
 X   X 
E Ma,b (D) = lim E Ma,b ([0, t] ∩ D) (convergence monotone)
t→+∞
E[(Xt − a)+ ]
≤ lim (inégalité (4.12) sur le nombre de montées)
t→+∞
 b − a 
supt≥0 E (Xt − a)+
≤ < +∞.
b−a
X X
On a donc Ma,b (D) < +∞ ps, pour tout rationnels a < b et aussi Ma,b (D) < +∞ pour
tout rationnels a < b ps. En raisonnant comme pour la preuve de la Prop. 4.21 (existence
de limites à droite et à gauche), on en déduit que X∞ := limt∈D→+∞ Xt existe ps : sinon, il
existerait a < b rationnels tels que lim inf t∈D→+∞ Xt < a < b < lim supt∈D→+∞ Xt , ce qui
exige un nombre infini de montées de a vers b le long de D.
80 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

De plus, le lemme de Fatou permet de voir que cette limite est dans L1 : d’abord, on a
  h i h i
E |X∞ | = E lim |Xs | = E lim inf |Xs | ≤ lim inf E[|Xs |] ≤ sup E[|Xs |] < +∞.
s→+∞ s→+∞ s→+∞ s≥0

Pour finir, la continuité à droite des trajectoires de X permet de lever la restriction t ∈ D


dans la limite X∞ = limt∈D→+∞ Xt pour avoir (4.17). □

Définition 4.27 (Martingale fermée)


— Une martingale (Xt )t≥0 est dite fermée (comme martingale) par une variable aléa-
toire Z ∈ L1 si pour tout t ≥ 0, on a Xt = E[Z|Ft ].
— Une sous-martingale (resp. sur-martingale) (Xt )t≥0 est dite fermée par une variable
aléatoire Z ∈ L1 si pour tout t ≥ 0, on a Xt ≤ E[Z|Ft ] (resp. Xt ≥ E[Z|Ft ]).

Attention : une martingale peut être fermée en tant que sous ou sur-martingale mais pas
en tant que martingale : considérer par exemple une martingale positive (non nulle), elle
est fermée par 0 en tant que sur-martingale pourtant elle n’est pas fermée en tant que
martingale puisque non nulle.
Dans le cadre discret une martingale (Yn )n≥0 est fermée (ie. il existe une variable aléatoire
Z telle que Yn = E[Z|Fn ]) si et seulement si elle est uniformément intégrable ou si et
seulement si Yn converge ps et dans L1 . On a une caractérisation analogue dans le cadre
continu :

Théorème 4.28 (Convergence ps et L1 des martingales) Soit X = (Xt )t≥0 une martin-
gale à trajectoires continues à droite. Alors il y a équivalence entre les assertions suivantes :
(1) X est fermée par une variable aléatoire Z ∈ L1 ;
(2) la famille (Xt )t≥0 est uniformément intégrable ;
(3) Xt converge ps et dans L1 vers X∞ .
De plus si la variable aléatoire Z dans 1) est F∞ -mesurable alors X∞ = Z.

Remarque 4.29
W  que variable aléatoire, Z est F-mesurable et par définition F∞ =
 S En tant
t≥0 Ft := σ t≥0 Ft . La F∞ -mesurabilité de Z n’est donc pas automatique.

Démonstration : L’implication (1) ⇒ (2) découle de la propriété générale d’une


 famille
d’espérances conditionnelles : si Z ∈ L1 alors la famille de variables aléatoires E[Z|G] :
G sous-tribu de F est uniformément intégrable.

Si (2) est vrai, alors en particulier la martingale (Xt )t≥0 est bornée dans L1 et le Th. 4.25
(convergence ps) entraı̂ne que Xt converge ps vers une variable aléatoire X∞ ∈ L1 . Comme
(Xt )t≥0 est uniforme intégrable, par le théorème de Vitali (convergence en proba et uniforme
intégrabilité impliquent convergence L1 ), la convergence est aussi L1 , ce qui donne (3).
4.7. Théorème d’arrêt 81

Enfin, si (3) est vérifié, on peut passer à la limite t → +∞ dans L1 dans l’égalité Xs =
E[Xt |Fs ] et on trouve Xs = E[X∞ |Fs ], et trouver que la martingale (Xt )t≥0 est fermée,
c’est à dire (1).
Pour la dernière partie, comme Xt = E[Z|Ft ] (la martingale est fermée par Z par (1)) et
Xt = E[X∞ |Ft ] par (3), on a E[Y |F
S t ] = 0 pour tout t ≥ 0,
 en notant Y = Z − X∞ . On a
S tout A ∈ t≥0 Ft . Comme M = A ∈ F : E[Y 1A ] = 0 est une
donc E[Y 1A ] = 0 pour
classe monotone et t≥0 Ft est stable par intersection finie (π-système), le théorème des
S 
classes monotones assure que F∞ = σ t≥0 Ft est inclus dans M.
Lorsque Z est F∞ -mesurable alors Y l’est aussi et on en déduit de E[Y 1A ] = 0 ∀A ∈ F∞
que Y = 0 ps (arguments usuels passant des indicatrices aux variables simples, puis posi-
tives et enfin de signe quelconque), ie. Z = X∞ ps. □

Le Th. 4.28 précédent concerne les martingales (fermées) ; pour les sous-martingales fer-
mées, on a seulement la convergence presque sûre :
Proposition 4.30 Soit X = (Xt )t≥0 une sous-martingale à trajectoires continues à droite.
Si X est fermée alors Xt converge ps vers X∞ .
Démonstration : On suppose (Xt )t≥0 fermée, en tant que sous martingale par Z : Xt ≤
E[Z|Ft ]. L’inégalité de Jensen (conditionnelle) appliquée à la sous-martingale X et à la
+
fonction convexe croissante x 7→ x+ ), assure Xt+ = E[Z|Ft ] ≤ E[Z + |Ft ] puis en prenant
l’espérance E[Xt+ ] ≤ E[Z + ]. Avec 1) dans la Remarque 4.26, le Th. 4.25 assure alors que
Xt converge presque sûrement vers une limite X∞ lorsque t → +∞.

4.7 Théorème d’arrêt


Dans le cas discret (T = N), étant données une filtration (Gk )k≥0 et une (Gk )-sous-
martingale discrète (Yk )k∈N , on a le théorème d’arrêt discret
Théorème 4.31 (Arrêt discret) Soit S et T deux temps d’arrêt tels que S ≤ T . Alors sous
chacune des conditions qui suit, on a YS , YT ∈ L1 et YS ≤ E[YT |GS ] (avec la convention
YT = Y∞ sur {T = +∞}).
(1) (Yk )k∈N est uniformément intégrable ;
(2) S, T sont (déterministiquement) bornés.
Au sujet de (Yk )k∈N sous-martingale uniformément intégrable dans 1), voir Prop. 4.21-3).
L’analogue en temps continu (T = R+ ) de ce Th. 4.31 reste vrai et est un résultat essentiel
pour la suite du cours.
On rappelle que la Prop. 4.6 assure qu’une martingale X = (Xt )t≥0 à trajectoires continues
à droite est progressivement mesurable. En particulier, la Prop. 4.12 s’applique et assure
qu’alors XT 1{T <+∞} est FT -mesurable. De plus, si X = (Xt )t≥0 est fermée alors par le
Th. 4.28 elle converge et la Prop. 4.12 assure que XT est FT -mesurable.
82 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

Théorème 4.32 (Arrêt de Doob) Soit X = (Xt )t≥0 une sous-martingale à trajectoires conti-
nues à droite et S et T deux temps d’arrêt avec S ≤ T . Sous chacune des hypothèses
suivantes, on a XS et XT dans L1 et
 
XS ≤ E XT |FS .

(1) X est uniformément intégrable ; dans ce cas, elle converge ps vers une variable aléatoire
F-mesurable X∞ et par convention on pose XT = X∞ sur {T = +∞}.
(2) S et T sont (déterministiquement) bornés par K ∈ R+ .
On a des énoncés analogues pour les sur-martingales ou pour les martingales
  avec
— Sous les mêmes conditions, pour X sur-martingale : XS ≥E XT |F S .
— Sous les mêmesconditions, pour X martingale : XS = E XT |FS , en particulier,
XS = E X∞ |FS .

Démonstration : Il suffit de faire la preuve pour X sous-martingale, puisque si X est une


sur-martingale, on applique le cas sous-martingale à −X et si X est une martingale on a
les inégalités dans les deux sens car X sous-martingale puis sur-martingale, d’où l’égalité.
Soit donc X une sous-martingale à trajectoires continues.
1) On suppose X uniformément intégrable. Pour tout n ≥ 1, posons Dn = {k2−n : k ∈
N} ∪ {+∞} et comme en (4.1) on pose Tn = ([2n T ] + 1)2−n , soit

Tn = inf t ∈ Dn : t > T (4.18)
+∞
X k+1
= n
1{k2−n <T ≤(k+1)2−n } + (+∞)1{T =+∞} .
k=0
2

D’après la Prop. 4.11, les variables aléatoires Tn , n ≥ 1, forment une suite de temps d’arrêt
qui décroı̂t vers T .
Pour n ≥ 1 fixé, les deux variables aléatoires Tn et Tn+1 sont deux temps d’arrêt pour la
filtration discrète (Ft )t∈Dn+1 car

{Tn = (k + 1)2−n } = k2−n < T ≤ (k + 1)2−n



c
= T ≤ k2−n ∩ T ≤ (k + 1)2−n ∈ F(k+1)2−n .
 

Puisque Tn+1 ≤ Tn , le théorème d’arrêt discret (Th. 4.31) appliqué à la sous-martingale


discrète (Xt )t∈Dn+1 uniformément intégrable, pour la filtration discrète (Ft )t∈Dn+1 entraı̂ne
que
XTn+1 ≤ E[XTn |FTn+1 ].
Pour k ≤ 0, on note Yk := XT−k et Gk = FT−k . On a alors
 
Yk−1 = XT−k+1 ≤ E[XT−k |FT−k+1 ] = E Yk |FT−k .
4.7. Théorème d’arrêt 83

La suite (Yk )k∈−N est donc une sous-martingale indexée par −N pour la filtration (Gk )k∈−N .
De plus, comme |x| = 2x+ − x, on a
sup E[|Yk |] = sup E[|XTn |] ≤ sup 2E[XT+n ] − E[XTn ]

k≤0 n≥0 n≥0
+
≤ 2E[X∞ ] − E[X0 ] < +∞ (4.19)
en utilisant
— E[XTn ] ≥ E[X0 ] par le théorème d’arrêt discret
— et E[XT+n ] ≤ E[X∞
+
] car X + sous-martingale convergeant ps et L1 vers X∞
+
.
La borne (4.19) assure qu’on peut utiliser Prop. 4.21-4 pour la convergence de la sous-
martingale discrète (Yk )k≤0 , et on a la convergence ps et L1 quand k → −∞ de (Y−k )k≤0 ,
c’est à dire de (XTn )n≥1 quand n → +∞. Comme Tn ↘ T , par continuité à droite, la limite
presque sûre est nécessairement XT , ce qui donne en particulier XT ∈ L1 car il y a aussi
convergence dans L1 .
Au temps d’arrêt S, on associe de même qu’en (4.18) la suite Sn ↘ S vérifiant aussi
Sn ≤ Tn (quitte à réindexer Sn ), et XSn converge vers XS ps et dans L1 . Puisque Sn ≤ Tn ,
le théorème d’arrêt discret donne XSn ≤ E[XTn |FSn ] ainsi, pour A ∈ FS ⊂ FSn , on a :
   
E XSn 1A ≤ E XTn 1A .
L1 L1
Comme XSn −→ XS et XTn −→ XT , quand n → +∞, en passant à la limite L1 quand
n → +∞, il vient    
E X S 1A ≤ E XT 1A
pour tout A ∈ FS . Comme d’après la Prop. 4.12, XS est FS -mesurable, cette inégalité
assure alors que XS ≤ E[XT |FS ], ce qui conclut le 1). Soit a ≥ 0 tel que T ≤ a.
2) On suppose S ≤ T bornés par K ∈ R+ . On applique le cas 1) à la sous-martingale
X K = (Xt∧K )t≥0 qui est fermée par XK . Puis on remarque que XTK = XT ∧K = XT et
XSK = XS∧K = XS . □

Remarque 4.33 (Sur le mouvement brownien) Le théorème d’arrêt ne s’applique que pour
des (sous, sur-) martingales uniformément intégrables (fermées, Th. 4.32-1)) ou pour des
temps d’arrêt (déterministiquement) bornés (Th. 4.32-2)). Par exemple si B est un mou-
vement brownien, c’est bien une martingale (mais non uniformément intégrable sinon le
Th. 4.25 (convergence ps) exigerait la convergence ps Bt → B∞ ce qui est faux). Si pour
a > 0, on pose Ta = inf(t ≥ 0 : Bt = a) alors on a bien un temps d’arrêt mais il est
non (déterministiquement) borné, cf. (3.9) dans la Remarque 3.43. Le théorème d’arrêt
(Th. 4.32) ne s’applique effectivement pas dans ce cas puisque E[B0 ] = 0 ̸= E[BTa ] = a
malgré 0 ≤ Ta .
Définition 4.34 (Martingale arrêtée) Étant donné un temps d’arrêt T , on définit le pro-
cessus arrêté X T = (XtT )t≥0 par XtT := Xt∧T , c’est le processus qui vaut Xt tant que t ≤ T
puis qu’on arrête à sa valeur XT en T pour les dates ultérieures à T .
84 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

Corollaire 4.35 Soit X une martingale à trajectoires continues à droite, uniformément


intégrable, et soit T un temps d’arrêt. Alors le processus (XtT )t≥0 est aussi une martingale
uniformément intégrable, et
XtT = E[XT |Ft ] (4.20)
avec la convention XT = X∞ = limt→+∞ Xt sur {T = +∞}.

Démonstration : Il suffit d’établir (4.20) : on aura alors une martingale fermée donc uni-
formément intégrable (Th. 4.28). Rappelons que XT ∈ L1 d’après le théorème d’arrêt
(Th. 4.32). Comme S := t ∧ T ≤ T , ce même théorème assure

XtT = XS = E[XT |FS ] = E[XT |Ft∧T ].

Il reste à voir que


E[XT |Ft∧T ] = E[XT |Ft ]. (4.21)
Puisque XT 1{T <+∞} est FT -mesurable (Prop. 4.12), la Prop. 4.10 assure que XT 1{T ≤t} est
Ft -mesurable et aussi FT -mesurable, donc Ft∧T -mesurable. Il en découle que
   
E XT 1{T ≤t} |Ft∧T = XT 1{T ≤t} = E XT 1{T ≤t} |Ft . (4.22)

Pour compléter la preuve de (4.21), il reste à voir que


   
E XT 1{T >t} |Ft∧T = E XT 1{T >t} |Ft . (4.23)

Or si A ∈ Ft , on a
— A ∩ {T > t} ∈ Ft car A, {T > t} = {T ≤ t}c ∈ Ft ;
— puis A ∩ {T > t} ∈ FT car A ∩ {T > t} ∩ {T ≤ s} = ∅ ∈ Fs si s ≤ t et
A ∩ {T > t} ∩ {T ≤ s} ∈ Fs si t ≤ s car A, {T > t} = {T ≤ t}c ∈ Ft ⊂ Fs et
{T ≤ s} ∈ Fs .
Finalement, A ∩ {T > t} ∈ FT ∩ Ft = Ft∧T (Prop. 4.9-8)). On a aussi {T > t} ∈ Ft∧T =
Ft ∩ FT car
— {T > t} = {T ≤ t}c ∈ Ft
— et {T > t} ∈ FT car {T > t} = {T ≤ t}c et pour tout s ≥ 0 : {T ≤ t} ∩ {T ≤ s} =
{T ≤ t ∧ s} ∈ Ft∧s ⊂ Fs .
Pour tout A ∈ Ft , on a :
   
E[1A 1{T >t} XT ] = E E[1A 1{T >t} XT |Ft∧T ] = E 1A 1{T >t} E[XT |Ft∧T ]
 
= E 1A E[XT 1{T >t} |Ft∧T ] .

Comme E[XT 1{T >t} |Ft∧T ] est Ft∧T - donc Ft -mesurable, on a


   
E XT 1{T >t} |Ft∧T = E XT 1{T >t} |Ft

c’est à dire (4.23), et compte tenu de (4.22), cela termine la preuve du Corollaire 4.35. □

On a aussi
4.8. Processus de Poisson 85

Corollaire 4.36 (Martingale arrêtée) Soit X est une martingale à trajectoires continues et
T un temps d’arrêt. Alors X T = (Xt∧T )t≥0 définit bien une martingale appelée martingale
arrêtée. Elle est uniformément intégrable si X l’est ou si T est (déterministiquement)
borné.
Démonstration : Étant donné a > 0 quelconque, on considère Y = (Xt∧a )t≥0 . Il s’agit
d’une martingale fermée par Xa donc elle est uniformément intégrable (Th. 4.28). Par le
Corollaire 4.35, pour tout temps d’arrêt T , Y T = (Xt∧T ∧a )t≥0 est une martingale uniformé-
ment intégrable. Comme on peut prendre a > 0 aussi grand qu’on le désire, on récupère la
propriété de martingale directement pour X T = (Xt∧T )t≥0 : étant donnés s ≤ t, on prend
a > t ≥ s, et la propriété de martingale pour Y T = (Xt∧T ∧a )t≥0 , E[Xt∧T ∧a |Fs ] = Xs∧T ∧a ,
s’écrit E[Xt∧T |Fs ] = Xs∧T , c’est à dire : X T = (Xt∧T )t≥0 est bien une martingale. □

4.8 Processus de Poisson


Si le mouvement brownien est le processus à trajectoires continues typique, le processus
à saut typique est le processus de Poisson qu’on décrit (très) sommairement dans cette
section. Ce type de processus est utilisé par exemple pour modéliser les files d’attente
comme les arrivées des appels téléphoniques à un central.

Définition 4.37 (Processus de Poisson) Soit λ > 0 et (Sn )n≥1 une suite de variables aléa-
toires indépendantes de même loi exponentielle E(λ). On pose Tn = S1 + · · · + Sn . On
définit alors le processus de comptage N = (Nt )t≥0 à valeurs dans N ∪ {+∞} par
X
Nt = 1{Tn ≤t} .
n≥1

Ce processus s’appelle le processus de Poisson d’intensité λ.

Définition 4.38 On définit (FtN )t≥0 la filtration naturelle complétée du processus de Pois-
son.

Remarque 4.39 Le processus se réécrit aussi sous la forme Nt = sup n ≥ 0 : Tn ≤ t .
Réciproquement, on remarque que Tn = inf t ≥ 0 : Nt = n est un (FtN )-temps d’arrêt.
P
Comme pour t > s, on a Nt − Ns = n≥1 1{s<Tn ≤t} , N est un processus à accroisssements
indépendants et stationnaires (PAIS) et à trajectoires càdlàg. On montre qu’il vérifie alors
la propriété de Markov forte : soit T un (FtN )-temps d’arrêt fini presque sûrement ; on
note N ′ le processus défini pour s ≥ 0 par Ns′ = NT +s − NT . Alors le processus N ′ est
indépendant de FTN et a même loi que N .

Proposition 4.40 (Caractérisation du processus de Poisson) Un processus N = (Nt )t≥0


est un processus de Poisson d’intensité λ si et seulement si il s’agit d’un processus de
comptage à trajectoires continues à droite tel que
86 Chapitre 4. ©JCB – M2 Math. – Université de Rennes

— N (0) = 0 ;
— N est un processus à accroissements indépendants et stationnaires ;
— pour tout t ≥ 0, Nt suit la loi de Poisson P(λt).

Démonstration : Calculs fastidieux. . . , cf. [BC]. □

Théorème 4.41 Soit N un processus de Poisson d’intensité λ. Alors les processus suivants
sont des martingales :
e = (Nt − λt, t ≥ 0) ;
1. le processus de Poisson compensé : N

2. (Nt − λt)2 − λt t≥0 .

Remarque 4.42 — On peut voir le processus de Poisson comme une mesure aléatoire
sur (R, B(R)) : la mesure de l’intervalle ]s, t] est N (]s, t]) = Nt − Ns .
— Le mouvement brownien et le processus de Poisson sont deux représentants d’une
classe plus vaste de processus dit de Lévy (processus càdlàg à accroissements indé-
pendants et stationnaires).
Chapitre 5

Semimartingales à trajectoires continues

Les semimartingales à trajectoires continues forment la classe générale de processus à


trajectoires continues pour laquelle on peut développer une théorie de l’intégration sto-
chastique qui sera l’objet du chapitre suivant. Par définition, une semimartingale est la
somme d’une martingale (locale) et d’un processus à variation bornée. Dans ce chapitre
nous étudions séparément ces deux classes de processus. En particulier, nous introduisons
la notion de variation quadratique d’une martingale qui jouera un rôle fondamental pour
l’intégration stochastique.
Dans ce chapitre, on considère un espace de probabilité filtré (Ω, F, (Ft )t≥0 , P) satisfaisant
les conditions habituelles. On considère d’abord des processus à variation bornée en Sec-
tion 5.1 puis des martingales locales en Section 5.2 dont on étudie la variation quadratique
en Section 5.3. On résume les résultats obtenus pour les semimartingales en Section 5.4.

5.1 Processus à variation bornée


5.1.1 Fonctions à variation bornée
Soit T > 0 fixé. On rappelle que sur [0, T ], il y a une bijection entre les fonctions croissantes
continues à droite et les mesures ν positives finies.

Proposition 5.1 Il y a une bijection entre les fonctions croissantes continues à droite g :
[0, T ] → R+ et les mesures ν positives finies sur [0, T ]. Elle est donnée par

g(t) = ν([0, t]) et ν(]s, t]) = g(t) − g(s). (5.1)

De plus, g est continue si et seulement si la mesure ν est sans atome (ie. ν({t}) = 0 pour
tout t ∈ [0, T ]).

Démonstration : On commence par remarquer que la donnée de ν sur les intervalles ]s, t] en
(5.1) détermin uniquement la mesure ν sur B([0, T ]) par un argument de classe monotone.
De plus, par monotonie de la mesure µ, on observe que

87
88 Chapitre 5. ©JCB – M2 Math. – Université de Rennes
T 
— lims↘t µ([0, s]) = µ [0, s] = ν([0, t]) ;
 Ss>t 
— lims↗t µ([0, s]) = µ s>t [0, s] = ν([0, t[).
De ce fait, il découle de 5.1.1) que g est continue à droite (ie. lims↘t g(s) = g(t)) et de
5.1.1) que g admet des limites à gauche (ie. lims↘t g(s) = µ([0, t[))). De plus, si µ est sans
atome alors µ([0, t[) = µ([0, t]) et g est continue à gauche donc continue. □

Exemple 5.2 — Si g(x) = x alors ν est la mesure de Lebesgue λ.


— Si g(x) = 1[a,+∞[ (x) alors ν est la mesure de Dirac δa .
— Si g est la fonction de répartition d’une variable aléatoire X alors µ est la loi de X.

Définition 5.3 (Mesure signée) Une mesure finie est dite signée si elle est différence de
deux mesures positives finies.

L’écriture d’une mesure µ signée sous la forme d’une différence de deux mesures positives
finies n’est pas unique, cependant il existe une seule décomposition canonique :
Proposition 5.4 (Décomposition canonique d’une mesure signée) Il existe une seule dé-
composition µ = µ+ − µ− minimale dans le sens où µ+ et µ− sont deux mesures positives
finies portées par des boréliens disjoints. Il s’agit de la décomposition canonique de µ.
Dans la suite, pour une fonction h à valeurs réelles, on note h+ = h ∨ 0 et h− = −(−h ∨ 0)
ses parties positive et négative.
Démonstration : Pour obtenir l’existence d’une telle décomposition, on considère une dé-
composition quelconque µ = µ1 − µ2 de µ, on pose ν = µ1 + µ2 . Comme µ1 ≪ ν et µ2 ≪ ν,
on écrit par le théorème de Radon-Nikodym :

µ1 (dt) = h1 (t)ν(dt), µ2 (dt) = h2 (t)ν(dt).

Avec h := h1 − h2 on a

µ(dt) = h(t)ν(dt) = h(t)+ ν(dt) − h(t)− ν(dt)

ce qui donne la décomposition µ = µ+ −µ− avec µ+ (dt) = h(t)+ ν(dt), µ− (dt) = h(t)− ν(dt).
Notons que les mesures µ+ et µ− sont bien à supports disjoints puisqu’elles sont portées
respectivement par D+ = {t ∈ [0, T ] : h(t) > 0} et D− = {t ∈ [0, T ] : h(t) < 0}. L’unicité
de la décomposition µ = µ+ − µ− vient du fait que l’on a nécessairement

µ+ (A) = sup µ(C) : C ⊂ A, C borélien .

En effet µ(C) ≤ µ+ (C) ≤ µ+ (A) quand C ⊂ A prouvant l’inégalité ≥ ci-dessous et ≤ vient


de : 
µ+ (A) = µ+ (A ∩ D+ ) = µ(A ∩ D+ ) ≤ sup µ(C) : C ⊂ A, C borélien .

5.1. Processus à variation bornée 89

Définition 5.5 (Mesure variation totale) Pour une mesure µ de décompisition canonique
µ = µ+ − µ− , on appelle variation totale de µ la mesure positive

|µ| = µ+ + µ− .

Remarquons que la dérivée de Radon-Nikodym de µ par rapport à |µ| est


= 1D+ − 1D−
d|µ|

où D+ ⊔ D− est une partition de l’espace.

Définition 5.6 (Fonction à variation bornée) Soit T > 0. Une fonction continue F : [0, T ] →
R telle que F (0) = 0 est dite à variation bornée s’il existe une mesure signée µ telle que
F (t) = µ([0, t]) pour tout t ∈ [0, T ].

La mesure µ est alors déterminée de façon unique : l’expression µ(]s, t]) = F (t) − F (s) la
détermine uniquement sur la famille des intervalles ]s, t] puis, par un argument de classe
monotone, sur B([0, T ]). De plus, F étant continue, µ est sans atome.

Proposition 5.7 Une fonction F est à variation bornée si et seulement si F est différence
de deux fonctions croissantes continues nulles en 0.

Démonstration : Si F est à variation bornée, F (t) = µ([0, t]) et avec la décomposition ca-
nonique de µ de la Proposition 5.4, F est différence de deux fonctions croissantes continues
et nulles en 0 : F (t) = µ+ ([0, t]) − µ− ([0, t]) (si µ+ et µ− ont des atomes, ils doivent néces-
sairement coı̈ncider pour s’annuler (µ n’en ayant pas). Mais comme µ+ et µ− sont censés
avoir des supports disjoints, c’est que de tels atomes n’existent pas : µ+ et µ− sont bien
sans atome. Réciproquement, si F = F1 − F2 avec F1 , F2 fonctions croissantes continues et
nulles en 0 alors on associe µ1 et µ2 des mesures positives finies à F1 , F2 et F s’écrit alors
F (t) = µ([0, t]) pour la mesure signée µ = µ1 − µ2 . □

Dans la suite, on note µ la mesure associée à F et µ+ − µ− la décomposition canonique de


µ. La fonction définie par µ+ ([0, t]) + µ− ([0, t]) s’appelle la variation totale de F . D’habi-
tude, les fonctions à variation bornée sont plutôt définies par la propriété suivante qui les
caractérise :

Proposition 5.8 (Variation bornée) Pour tout t ∈ [0, T ], on a


( p )
X
|µ|([0, t]) = sup |F (ti ) − F (ti−1 )| (5.2)
{ti }i=1,...,p i=1

où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = t de [0, t].
90 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

Démonstration : Il suffit de traiter le cas t = T . L’inégalité ≥ s’obtient facilement puisque


|F (ti ) − F (ti−1 )| = |µ(]ti−1 , ti ])| ≤ |µ|(]ti−1 , ti ])
et donc par additivité de |µ| :
p p
X X
|F (ti ) − F (ti−1 )| ≤ |µ|(]ti−1 , ti ]) = |µ|(]0, T ]) = |µ|([0, T ]).
i=1 i=1

Pour l’autre inégalité (≤), on montre le résultat plus fort suivant : pour toute suite 0 =
tn0 < tn1 < · · · < tnpn = T de subdivisions emboı̂tées de [0, T ] de pas tendant vers 0, on a
pn
X
lim |F (tni ) − F (tni−1 )| = |µ|([0, T ]).
n→+∞
i=1

Pour simplifier, on considère les subdivisions dyadiques tni = i2−n T , 0 ≤ i ≤ 2n , de [0, T ].


On utilise un argument de martingales en introduisant l’espace de probabilité
 
|µ|(ds)
(Ω, F, P) := [0, T ], B([0, T ]), .
(|µ|([0, T ])−1 )
Sur cet espace, on considère la filtration discrète (Bn )n≥n où Bn est la tribu engendrée par
les intervalles ](i − 1)2−n T, i2−n T ], avec 1 ≤ i ≤ 2n :
n o
Bn = σ ](i − 1)2−n T, i2−n T ] : i ∈ J1, 2n K

(Noter qu’on a bien Bn ⊂ Bn+1 car les subdivisions sont emboı̂tées). On pose alors

X(s) = (s) = 1D+ (s) − 1D− (s)
d|µ|
où D+ ⊔ D− est une partition de l’espace et on considère pour chaque n ≥ 0 :
Xn = E[X|Bn ].
Il s’agit d’une (Bn )n≥0 -martingale. Comme Xn est Bn -mesurable, Xn est constante sur
chaque intervalle ](i − 1)2−n T, i2−n T ] et vaut
R dµ |µ|(ds)
(s) (|µ|([0,T
 
E X1](i−1)2−n T,i2−n T ] ](i−1)2−n T,i2−n T ] d|µ| ])−1 )
αi = = |µ|(ds)
P ](i − 1)2−n T, i2−n T ]
R
](i−1)2−n T,i2−n T ] (|µ|([0,T ])−1 )
µ(](i − 1)2−n T, i2−n T ]) F (i2−n T ) − F ((i − 1)2−n T )
= = .
|µ|(](i − 1)2−n T, i2−n T ]) |µ|(](i − 1)2−n T, i2−n T ])
Par définition, la martingale discrète (Xn )n≥0 est fermée et comme X est mesurable par
rapport à B([0, T ]) = n≥0 Bn , (Xn )n≥0 converge ps et dans L1 vers X. En particulier, on
W
a:
lim E[|Xn |] = E[|X|] = 1,
n→+∞
5.1. Processus à variation bornée 91

où on utilise |X(s)| = 1, µ-pp. Le résultat (5.2) suit facilement puisque


2 n
X |µ|(](i − 1)2−n T, i2−n T ])
E[|Xn |] = |αi |
i=1
|µ|([0, T ])−1
2n
1 X
= |F (i2−n T ) − F ((i − 1)2−n |.
|µ|([0, T ]) i=1

5.1.2 Intégrale de Stieltjes


On définit alors les intégrales de Stieltjes par rapport à F fonction à variation bornée par
des intégrales dans le sens de Lebesgue par rapport aux mesures µ+ , µ− et |µ| où µ est
la mesure signée associée à F , |µ| sa variation totale et µ = µ+ − µ sa décomposition
canonique.
Définition
R 5.9 (Intégrale de Stieltjes) Soit f : [0, T ] → R une fonction mesurable telle que
[0,T ]
|f (s)| |µ|(ds) < +∞. Alors, on pose
Z t Z Z Z
f (s) dF (s) := f (s) µ(ds) = +
f (s) µ (ds) − f (s) µ− (ds)
0 [0,t] [0,t] [0,t]
Z t Z
f (s) |dF |(s) := f (s) |µ|(ds).
0 [0,t]

On a aussi une écriture en terme d’intégrales par rapport à des mesures positives
Z t Z t Z t
f (s) dF (s) = +
f (s) dF (s) − f (s) dF − (s)
0 0 0

en écrivant
Z t Z Z t Z

+
f (s) dF (s) := +
f (s) µ (ds), f (s) dF (s) := f (s) µ− (ds).
0 [0,t] 0 [0,t]

On a facilement les propriétés suivantes pour l’intégrale de Stieltjes. La propriété 5 ci-


dessous généralise les sommes de Riemann à l’intégrale de Stieltjes et donne donc un moyen
d’approcher les intégrales de Stieltjes par des sommes.

Proposition 5.10 (Propriétés de l’intégrale de Stieltjes) Soit f : [0, T ] → R une fonction


mesurable intégrable par rapport à |dF |. Alors
(1) (Intégrale de Stieltjes et valeurs absolues)
Z t Z t
f (s) dF (s) ≤ |f (s)| |dF |(s). (5.3)
0 0
92 Chapitre 5. ©JCB – M2 Math. – Université de Rennes
Rt
(2) (Variation bornée) La fonction donnée par l’intégrale de Stieltjes t ∈ [0, T ] 7→ 0 f (s) dF (s)
est à variation bornée de mesure signée donnée par la décomposition canonique
Z t Z t  Z t Z t 
+ + − − − + + −
f (s) dF (s) + f (s) dF (s) − f (s) dF (s) + f (s) dF (s) . (5.4)
0 0 0 0

(3) (Associativité) Si de plusR g est une fonction mesurable, intégrable par rapport à |f (s)|dF |(s)
t
alors en notant G(t) = 0 f (s) dF (s), on a
Z t Z t
g(s) dG(s) = g(s)f (s) dF (s).
0 0

(4) (Convergence dominée) Soit (fn )n≥1 une suite de fonction qui converge simplement
vers f avec |fn (t)| ≤ H(t) et H ∈ L1 (d|F |). Alors
Z T Z T
lim fn (s) dF (ds) = f (s) dF (s). (5.5)
n→+∞ 0 0

(5) (Approximation de Riemann) Si f : [0, T ] → R est une fonction bornée et si 0 = tn0 <
tn1 < · · · < tnpn = T est une suite de subdivisions de [0, T ] de pas tendant vers 0. Alors
on a : Z T pn
X
f (tni−1 ) F (tni ) − F (tni−1 ) .

f (s) dF (s) = lim
0 n→+∞
i=1

Démonstration : 1) On a facilement
Z t Z Z Z Z

f (s) dF (s) = +
f (s) µ (ds) − f (s) µ (ds) ≤ +
|f (s)| µ (ds) + |f (s)| µ− (ds)
0 [0,t] [0,t] [0,t] [0,t]
Z Z Z t
= |f (s)| (µ+ + µ− )(ds) = |f (s)| |µ|(ds) = |f (s)| |dF |(s).
[0,t] [0,t] 0

2) On justifie que 0 f (s) dF (s) est à variation bornée en écrivant
Z t Z t Z t 
+ + − −
f (s) dF (s) = f (s) dF (s) + f (s) dF (s)
0 0 0
Z t Z t 
− + + −
− f (s) dF (s) + f (s) dF (s)
0 0
Rt Rt Rt Rt
où t 7→ 0 f + (s) dF + (s) + 0 f − (s) dF − (s) et t 7→ 0 f − (s) dF + (s) + 0 f + (s) dF − (s) sont
des fonctions croissantes. De plus, en notant Df± et DF± les supports de f ± et F ± , alors le
support de f + (t) dF + (t)+f − (t) dF − (t) est (Df+ ∩DF+ )∪(Df− ∩DF− ) et celui de f − (t) dF + (t)+
f + (t) dF − (t) est (Df+ ∩ DF− ) ∪ (Df− ∩ DF+ ). Comme

(Df+ ∩ DF+ ) ∪ (Df− ∩ DF− ) ∩ (Df+ ∩ DF− ) ∪ (Df− ∩ DF+ ) = ∅


 
5.1. Processus à variation bornée 93

les mesures f + (t) dF + (t) + f − (t) dF − (t), et f − (t) dF + (t) + f + (t) dF − (t) sont de supports
disjoints, ce qui assure que (5.4) est la décomposition canonique de sa mesure signée associée
f (s)µ(ds).
3) En utilisant la décomposition canonique de G du 2), on a
Z t Z t Z t
g(s) dG(s) = +
g(s) dG (s) − g(s)dG− (s)
0 0 0
Z t Z t
− −
+ +
g(s) f − (s) dF + (s) + f + (s) dF − (s)
 
= g(s) f (s) dF (s) + f (s) dF (s) −
Z0 t Z t 0

g(s) f + (s) − f − (s) dF + (s) + g(s) f + (s) − f − (s) dF − (s)


 
=
Z0 t Z0 t
g(s)f (s) dF + (s) − dF − (s) =

= g(s)f (s) dF (s)
0 0

4) Le théorème de convergence dominée pour les intégrales (de Lebesgue) par rapport à
µ± donne
Z Z
+
fn (s) µ (ds) −→ f (s) µ+ (ds)
[0,T ] [0,T ]
Z Z
fn (s) µ− (ds) −→ f (s) µ− (ds)
[0,T ] [0,T ]

Par différence, il vient (5.5).


5) Pour chaque n ≥ 1, soit fn la fonction constante par morceaux définie par fn (s) = f (tni−1 )
si s ∈]tni−1 , tni ]. Alors,
pn Z
X
f (tni−1 )(F (tni ) − F (tni−1 )) = fn (s) µ(ds).
i=1 [0,T ]

Comme f est bornée, le théorème de convergence dominée (cf. 4) ci-dessus) s’applique et


conclut. □

Intégrale de Stieltjes impropre


Définition 5.11 (Variation bornée sur R+ ) Une fonction continue F : R+ → R est dite à
variation bornée sur R+ si, pour tout T > 0, la restriction de F à [0, T ] est à variation
bornée, dans le sens de la Définition 5.6.

Il est alors facile d’étendre les définitions précédentes


R +∞ des intégrales à R+ en supposant f
|dF |-intégrable. En particulier, on peut définir 0 f (s) dF (s) pour toute fonction f telle
R +∞ RT
que 0 |f (s)| |dF |(s) = supT >0 0 |f (s)| |dF |(s) < +∞.
94 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

5.1.3 Processus à variation bornée


On rappelle qu’on considère un espace de probabilité filtré (Ω, F, (Ft )t≥0 , P) satisfaisant
les conditions habituelles.

Définition 5.12 (Processus à variation bornée et processus croissant)


— Un processus à variation bornée A = (At )≥0 est un processus adapté dont toutes les
trajectoires sont à variation bornée au sens de la Définition 5.6.
— Le processus A est appelé processus croissant si de plus les trajectoires de A sont
croissantes.

Remarque 5.13 — En particulier, d’après la Définition 5.6 d’une fonction à variation


bornée, on a A0 = 0 et les trajectoires de A sont continues.
— Le mouvement brownien n’est pas à variation bornée, cf. Prop. 3.30 : on ne pourra
donc pas utiliser cette section pour construire l’intégrale contre un mouvement brow-
nien !

Proposition 5.14 Soit A un processus à variation bornée et H un processus progressif tel


que Z t
∀t ≥ 0, ∀ω ∈ Ω, |Hs (ω)| |dAs (ω)| < +∞.
0
Alors le processus H · A défini par
Z t
(H · A)t = Hs (ω) dAs (ω)
0

est aussi un processus à variation bornée.

Remarque 5.15 Quand on intègre contre un processus à variation bornée, on définit une
intégrale trajectorielle : l’intégrale se définit ω par ω (ie. trajectoire par trajectoire).

Démonstration : D’après les observations de la section précédente, les trajectoires de H · A


sont à variation bornée. Il ne reste donc qu’à justifier que H · A est bien adapté. Pour cela,
R t de voir que, si h : [0, t] × Ω → R est mesurable pour la tribu produit
il suffit R t B([0, t]) ⊗ Ft
et si 0 |h(s, ω)| |dAs (ω)| est fini pour tout ω, alors la variable aléatoire 0 h(s, ω) dAs (ω)
est Ft -mesurable.
D’abord, pour h(s, ω) = 1]u,v] (s)1Γ (ω) avec ]u, v] ⊂ [0, t] et Γ ∈ Ft , on a
Z t
h(s, ω) dAs (ω) = (Av (ω) − Au (ω))1Γ (ω)
0

qui est clairement Ft -mesurable puisque (At )t≥0 est adapté, u, v ≤ t et Γ ∈ Ft .


Par un argument de classe monotone, comme {]u,Rv] × Γ, ]u, v] ⊂ [0, t] : Γ ∈ Ft } est un
t
π-système qui engendre B([0, t]) ⊗ Ft , on a aussi 0 h(s, ω) dAs (ω) est Ft -mesurable pour
h = 1G , G ∈ B([0, t]) ⊗ Ft .
5.2. Martingales locales 95

Enfin, on passe au cas général en écrivant h fonction B([0, t]) ⊗ Ft -mesurable, |dAs |(ω)-
intégrable, comme limite simple d’une suite de fonctions étagées hn telles que pour tout n
on ait |hn | ≤ |h|. Par convergence dominée pour l’intégrale de Stieltjes (Prop. 5.10-4)), on
a Z t Z t
n→+∞
hn (s, ω) dAs (ω) −−−−→ h(s, ω) dAs (ω).
0 0
Rt
Comme le cas précédent assure que 0 hn (s, ω) dAs (ω) est Ft -mesurable et que la Ft -
mesurabilité se conserve en passant à la limite, on obtient la Prop. 5.14. □

Remarque 5.16 — Souvent, on sera dans la situation où l’hypothèse plus faible sui-
vante est satisfaite :
Z t
ps ∀t ≥ 0, |Hs | |dAs | < +∞.
0

Dans ce cas, on peut R t encore définir H · A en convenant que, sur l’ensemble de


probabilité nulle où 0 |Hs ||dAs | devient infini, on prend (H · A)t (ω) = 0 pour tout
t ≥ 0. Le processus (H · A) ainsi défini reste adapté lorsque la filtration est supposée
complète (conditions habituelles).
— Sous des hypothèses convenables d’intégrabilité de H et de K, on a la propriété
d’associativité, due à celle de l’intégrale de Stieltjes (Prop. 5.10-3

K · (H · A) = (KH) · A.

Un cas particulier important est celui où At = t : soit H = (Ht )t≥0 un processus progressif
tel que Z t
ps ∀t ≥ 0 |Hs | ds < +∞,
0

le processus 0
Hs ds est un processus à variation bornée.

5.2 Martingales locales


Si T est un temps d’arrêt et X = (Xt )t≥0 un processus à trajectoires continues, on rappelle
que X T désigne le processus arrêté : pour tout t ≥ 0, XtT = Xt∧T . On a vu que si X est
une martingale alors X T l’est aussi (il s’agit de la martingale arrêtée, cf. Corollaire 4.36).

Définition 5.17 (Martingale locale) Un processus M = (Mt )t≥0 est appelé une martingale
locale (à trajectoires continues) s’il s’écrit Mt = M0 + Nt où
— M0 est une variable aléatoire F0 -mesurable et
— (Nt )t≥0 est un processus adapté à trajectoires continues avec N0 = 0 et tel qu’il
existe une suite croissante (Tn )n≥0 de temps d’arrêt avec Tn ↗ +∞ et pour tout
n ∈ N le processus arrêté N Tn est une martingale uniformément intégrable.
96 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

On dit que la suite de temps d’arrêt Tn ↗ +∞ réduit M si pour tout n ∈ N le processus


arrêté N Tn est une martingale uniformément intégrable.
Lorsque M0 = 0, on parle de martingale locale issue de 0.

Remarque 5.18 On n’impose pas dans la définition d’une martingale locale que les va-
riables Mt soient dans L1 (c’est une différence essentielle avec les martingales). En par-
ticulier, d’après la définition précédente, M0 peut être n’importe quelle variable aléatoire
F0 -mesurable.

Dans les propriétés qui suivent, la plupart des justifications viennent des propriétés des
martingales arrêtées énoncées dans le Corollaire 4.36.

Exemple 5.19 Une martingale à trajectoires continues est une martingale locale (et la suite
Tn = n réduit M ).
En effet, cela suit par exemple du Corollaire 4.36 et de ses conséquences avec les temps
d’arrêt Tn = n ↗ +∞, plus simplement, en écrivant M = M0 + N il est immédiat que
pour s < t :  
Ns∧n = E Nt∧n |Fs
et (Nt∧n )t≥0 est fermée par Nn donc est uniformément intégrable.

Proposition 5.20 Dans la définition d’une martingale locale (issue de 0), on peut remplacer
′′
martingale uniformément intégrable′′ par ′′ martingale′′ (en effet, on peut ensuite remplacer
Tn par Tn ∧ n pour récupérer l’uniforme intégrabilité).

Démonstration : Si N Tn est une martingale alors (N Tn )n = N Tn ∧n l’est aussi et elle est


fermée par Nn donc uniformément intégrable. De plus, il est évident que (Tn ∧ n) ↗ +∞
lorsque Tn ↗ +∞. □

Proposition 5.21 Si M est une martingale locale, pour tout temps d’arrêt T , alors M T est
encore une martingale locale.

Démonstration : Si la suite (Tn )n≥0 réduit M = M0 + N alors N Tn est une martingale et


(N T )Tn = N T ∧Tn = (N Tn )T l’est aussi d’après le Corollaire 4.36. □

Proposition 5.22 Si (Tn )n≥0 réduit une martingale locale M et si (Sn )n≥0 est une suite de
temps d’arrêt telle que Sn → +∞, alors la suite (Tn ∧ Sn )n≥0 réduit encore M .

Démonstration : On a (Tn ∧ Sn ) ↗ +∞ et N Tn ∧Sn = (N Tn )Sn est une martingale unifor-


mément intégrable en tant que martingale uniformément intégrable N Tn arrêtée (Corol-
laire 4.36). □

Proposition 5.23 L’espace des martingales locales est un espace vectoriel.


5.2. Martingales locales 97

Démonstration : Si M, N sont des martingales locales réduites respectivement par (Tn )n≥0
et (Sn )n≥0 alors d’après la Prop. 5.22, elles le sont encore toutes les deux par (Tn ∧ Sn )n≥0 .
Mais alors (M + N )Tn ∧Sn = N Tn ∧Sn + N Tn ∧Sn est une martingale, comme somme de mar-
tingales. □

Proposition 5.24 Une martingale locale positive M telle que M0 ∈ L1 est une sur-martingale.
D’après le Théorème 4.25 (convergence ps des sur-martingales) et la Remarque 4.26 qui le
suit, une martingale locale positive converge donc presque sûrement.
Démonstration : Écrivons Mt = M0 + Nt et soit (Tn )n≥0 une suite de temps d’arrêt qui
réduit N . Alors, si s ≤ t, on a pour tout n ≥ 0,
 
Ns∧Tn = E Nt∧Tn |Fs .

En ajoutant des deux côtés la variable aléatoire M0 (qui est F0 -mesurable et dans L1 ), on
trouve  
Ms∧Tn = E Mt∧Tn |Fs . (5.6)
Puisque M est positive, on peut appliquer le lemme de Fatou pour les espérances condi-
tionnelles en faisant n → +∞. Comme Tn ↗ +∞ ps, on a alors
 
Ms = lim Ms∧Tn = lim inf Ms∧Tn = lim inf E Mt∧Tn |Fs
n→+∞ n→+∞ n→+∞
h i  
≥ E lim inf Mt∧Tn |Fs = E Mt |Fs .
n→+∞

En particulier, en prenant s = 0 et l’espérance, on a E[Mt ] ≤ E[M0 ] < +∞, donc comme


M est positive, Mt ∈ L1 pour tout t ≥ 0. L’inégalité précédente assure alors que M est
bien une sur-martingale. □

Proposition 5.25 Soit M une martingale locale. S’il existe une variable Z ∈ L1 telle que,
pour tout t ≥ 0, |Mt | ≤ Z, alors M est une martingale. En particulier, une martingale
locale bornée est une martingale.
Démonstration : Si M est dominée par une variable aléatoire Z intégrable, on obtient
comme pour la Prop. 5.24 pour s ≤ t :
 
Ms∧Tn = E Mt∧Tn |Fs .

Comme par convergence dominée la suite Mt∧Tn converge dans L1 vers Mt , on peut passer
à la limite n → +∞ pour trouver
  h i  
Ms = lim Ms∧Tn = lim E Mt∧Tn |Fs = E lim Mt∧Tn |Fs = E Mt |Fs .
n→+∞ n→+∞ n→+∞


98 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

Remarque 5.26 Attention, il n’est donc pas facile d’affaiblir les conditions de le Prop. 5.25 :
si M est une martingale locale uniformément intégrable, en général M n’est pas une mar-
tingale (cf. le contre-exemple 2.13 p. 182 dans [RY] ). Par contre si on a une condition
d’uniforme intégrabilité pour tous les temps d’arrêt, on a un résultat positif :

Proposition 5.27 Soit M une martingale locale telle que la famille {MT : T temps d’arrêt}
est uniformément intégrable. Alors M est une vraie martingale uniformément intégrable.

Démonstration : D’abord toutes les variables aléatoires Mt , t ≥ 0, sont intégrables car en


particulier {Mt : t ≥ 0} est uniformément intégrable.
Ensuite, soit s ≤ t, A ∈ Fs et Tn les temps d’arrêt qui réduisent M . La propriété de
martingale pour M Tn donne
E 1A MtTn ] = E 1A MsTn
  
(5.7)
Mais, par hypothèse, {MTn ∧t }n≥1 et {MTn ∧s }n≥1 sont deux familles uniformément inté-
ps ps
grables. De plus, quand n → +∞, MTn ∧t − → Mt ps et MTn ∧s − → Ms . Avec le théorème de
Vitali, on a donc

L1 L1
MTn ∧t −→ Mt , et MTn ∧s −→ Ms , n → +∞,

et on peut passer à la limite dans (5.7), ce qui donne E[1A Mt ] = E[1A Ms ] pour tout s ≤ t
et A ∈ Fs . On a donc la propriété de martingale pour M . L’uniforme intégrabilité découle
de l’hypothèse. □

Proposition 5.28 Soit M une martingale locale à trajectoires continues avec M0 = 0. Alors
M est réduite par la suite de temps d’arrêt Tn = inf t ≥ 0 : |Mt | = n .

Démonstration : Comme M Tn est une martingale locale bornée, c’est aussi une martingale
uniformément intégrable par la Prop. 5.25. De plus M est à trajectoires continues, on a bien
Tn ↗ +∞. En effet, soit A > 0, comme M est à trajectoires continues, {Mt : t ∈ [0, A]}
est compact donc borné par R(A) < +∞. On a alors pour tout n ≥ R(A), Tn ≥ A, ie.
Tn ↗ +∞. □

Dans la suite, on utilise abondamment le résultat immédiat suivant :

Lemme 5.29 Soit M une martingale de carré intégrable. Alors pour 0 ≤ s ≤ t, on a :

E (Mt − Ms )2 |Fs = E Mt2 |Fs − E Ms2 |Fs ,


     

E (Mt − Ms )2 = E Mt2 − E Ms2 .


     
5.2. Martingales locales 99

Démonstration : La deuxième partie découle de la première en y prenant l’espérance. Pour


la première, on a

E (Mt −Ms )2 |Fs = E (Mt2 −2Mt Ms +Ms2 ) |Fs = E Mt2 |Fs −2E Mt Ms |Fs +E Ms2 |Fs .
         

Mais par la propriété de martingale, on a

E Mt Ms |Fs = Ms E[Mt |Fs ] = Ms2 = E Ms2 |Fs ,


   

ce qui conclut. □

Le résultat suivant montre qu’une martingale locale à trajectoires continues qui n’est pas
triviale est à variation non bornée. L’ensemble des martingales locales est donc un ensemble
vraiment différent de celui des processus à variation bornée.

Théorème 5.30 Soit M une martingale locale (à trajectoires continues) issue de 0. Alors
si M est un processus à variation bornée, M est indistinguable de 0.

Démonstration : Supposons que M est un processus à variation bornée et posons pour


tout n ∈ N : Z t
 
τn = inf t ≥ 0 : |dMs | ≥ n .
0

Les temps τn sontR des temps d’arrêt d’après l’Exemple 3.35 (pour cela, il faut remarquer
t
que le processus 0 |dMs | est adapté et à trajectoires continues, ce qui se voit par l’ap-
proximation donnée par Prop. 5.10-5). Fixons n ≥ 1 et posons N = M τn . Alors N est une
martingale locale telle que
Z +∞ Z τn
|dNs | = |dMs | ≤ n,
0 0

en particulier en utilisant Prop. 5.10-1 pour l’intégrale de Stieltjes par rapport à M


Z t∧τn Z t∧τn
|Nt | = dMs ≤ |dMs | ≤ n.
0 0

D’après la Prop. 5.25, N est alors une vraie martingale bornée.


Ensuite, soit t > 0 et soit 0 = t0 < t1 < · · · < tp = t une subdivision de [0, t]. Alors, avec
le Lemme 5.29, on a :
p p
X  X
E[Nt2 ]
 2 2
E (Nti − Nti−1 )2
 
= E Nti − Nti−1 =
i=1 i=1
p
" X #  
≤ E sup Nti − Nti−1 |Nti − Nti−1 | ≤ nE sup Nti − Nti−1
1≤i≤p 1≤i≤p
i=1
100 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

en utilisant la Prop. 5.8. On applique l’inégalité précédente à une suite 0 = tk0 < tk1 <
· · · < tkpk = t de subdivisions de [0, t] de pas tendant vers 0. En utilisant la continuité des
trajectoires, et le fait que N est bornée par n (fixé dans cette partie de l’argument), on a
par convergence dominée :
 
lim E sup Ntki − Ntki−1 = 0.
k→+∞ 1≤i≤pk
2
On conclut alors que E[Nt2 ] = 0 c’est à dire E[Mt∧τ n
] = 0. En faisant ensuite tendre
n → +∞, comme τn → +∞, on obtient par le lemme de Fatou :
   
 2 2 2
 2 
E Mt = E lim Mt∧τn = E lim inf Mt∧τn ≤ lim inf E Mt∧τ n
= 0.
n→+∞ n→+∞ n→+∞

Finalement pour tout t ≥ 0, Mt = 0 ps. La martingale locale M admet donc 0 comme


version. Pour conclure, comme le processus nul et M sont à trajectoires continues, le pro-
cessus M est en fait indistinguable de 0. □

5.3 Variation quadratique d’une martingale locale


Le théorème ci-dessous définit la variation quadratique (ou crochet) d’une martingale locale.
Cette notion est clef dans le calcul stochastique qui va être développé dans la suite.
Théorème 5.31 (Variation quadratique d’une martingale locale) Soit M = (Mt )t≥0 une
martingale locale à trajectoires continues.
(1) Il existe un processus croissant, noté ⟨M, M ⟩ = (⟨M, M ⟩t )t≥0 unique à indistinguabilité
près, tel que
Mt2 − ⟨M, M ⟩t (5.8)
est une martingale locale à trajectoires continues.
(2) De plus, pour tout t > 0, étant donnée une suite de subdivisions emboı̂tées de [0, t],
0 = tn0 < tn1 < · · · < tnpn = t, de pas tendant vers 0 alors dans le sens de la convergence
en probabilité, on a pour tout t ≥ 0 :
pn
X 2
⟨M, M ⟩t = P- lim Mtni − Mtni−1 . (5.9)
n→+∞
i=1

Le processus ⟨M, M ⟩ est appelé la variation quadratique ou crochet de M .


Remarque 5.32
— (Martingale) Pour les martingales, on a mieux : si M est une martingale de carré
intégrable alors Mt2 − ⟨M, M ⟩t est une martingale aussi, cf. Th. 5.36 ci-dessous.
— (Mouvement brownien) Dans le cas où M = B est un mouvement brownien, on a
vu en Prop. 3.29 que ⟨B, B⟩t = t.
— Pour la dernière assertion, il n’est pas nécessaire en fait de supposer que les subdi-
visions sont emboı̂tées.
5.3. Variation quadratique d’une martingale locale 101

Démonstration du Théorème 5.31


L’unicité découle du Th. 5.30. En effet, si A et A′ sont deux processus croissants satis-
faisant la condition (5.8), le processus At − A′t = (Mt2 − A′t ) − (Mt2 − At ) doit être à la fois
une martingale locale (car différence de martingales locales) et un processus à variation
bornée (car différence de tels processus), le Th. 5.30 exige alors sa nullité à indistinguabilité
près.
Pour l’existence, on procède de la façon suivante :
1) On considère d’abord le cas où M0 = 0 et M est bornée.
2) On traite le cas général d’une martingale M non bornée

Étape 1 : M0 = 0 et M est bornée


D’après la Prop. 5.25, M est alors une vraie martingale. On se fixe t > 0 et on considère
une suite de subdivisions 0 = tn0 < tn1 < · · · < tnpn = t emboı̂tées de [0, t] de pas tendant
vers 0. Pour chaque n ≥ 1, on considère le processus X (n) défini par
pn
X
Xs(n)

= Mtni−1 Mtni ∧s − Mtni−1 ∧s , s ∈ [0, t].
i=1

Lemme 5.33 Pour chaque n ≥ 1 le processus X (n) est une martingale à trajectoires conti-
nues.
Démonstration : Le processus X est adapté et à trajectoires continues car la martingale
M l’est, il est intégrable car M est bornée. Pour la propriété de martingale, pour s ≤ r,
on a

E Xr(n) |Fs
 
pn
X  
= E Mtni−1 (Mtni ∧r − Mtni−1 ∧r ) |Fs
i=1
X  
= E Mtni−1 (Mtni ∧r − Mtni−1 ∧r ) |Fs
i:tn
i−1 ≤r
X   X  
= E Mtni−1 (Mtni ∧r − Mtni−1 ∧r ) |Fs + E Mtni−1 (Mtni ∧r − Mtni−1 ∧r ) |Fs
i:s≤tn
i−1 ≤r i:tn
i−1 ≤s≤r
X    X  
= E Mtni−1 E (Mtni ∧r − Mtni−1 ∧r ) |Ftni−1 ]|Fs + Mtni−1 E (Mtni ∧r − Mtni−1 ∧r ) |Fs
i:s≤tn
i−1 ≤r i:tn
i−1 ≤s≤r
X   X
= E Mtni−1 (Mtni−1 − Mtni−1 ) |Fs + Mtni−1 (Mtni ∧s − Mtni−1 ∧s )
i:s≤tn ≤r i:t n ≤s≤r
| {z }
i−1 i−1
=0
X
= Mtni−1 (Mtni ∧s − Mtni−1 ∧s ) = Xs(n) .
i:tn
i−1 ≤s
102 Chapitre 5. ©JCB – M2 Math. – Université de Rennes


On a ensuite :
(n)
Lemme 5.34 Les variables aléatoires Xt , n ≥ 1, vérifient la propriété de Cauchy dans
L2 :  (n) (m) 
lim E (Xt − Xt )2 = 0.
n,m→+∞

Démonstration : On commence par observer que, puisque les subdivisions sont emboı̂tées,
on peut écrire lorsque n ≤ m :
pn pn
X X X
Mtni−1 (Mtni − Mtni−1 ) = Mtni−1 (Mtm
j
− Mtm
j−1
),
i=1 i=1 tm n m
j ∈]ti−1 ,ti ]
pm pn
X X X
Mtm
j−1
(Mtm
j
− Mtm
j−1
) = Mtm
j−1
(Mtm
j
− Mtm
j−1
).
j=1 i=1 tm n m
j ∈]ti−1 ,ti ]

Avec des calculs (fastidieux. . . ) qui utilisent la propriété de martingale sous la forme du
Lemme 5.29, pour n ≤ m on a :
 (n) (m) 
E (Xt − Xt )2
 !2 
pn pm
X X
= E Mtni−1 (Mtni − Mtni−1 ) − Mtmj−1
(Mtm
j
− Mtm j−1
) 
i=1 j=1
 2 
pn pn
X X X X
= E  Mtni−1 (Mtm
j
− Mtm
j−1
)− Mtm
j−1
(Mtm
j
− Mtm
j−1
) 
i=1 tm n m
j ∈]ti−1 ,ti ]
i=1 tm n m
j ∈]ti−1 ,ti ]

(les subdivisions sont emboı̂tées)


 2 
pn
X X
= E  (Mtni−1 − Mtm
j−1
)(Mtm
j
− Mtm
j−1
) 
i=1 tm n n
j ∈]ti−1 ,ti ]
 2 
pn
X X
= E  (Mtni−1 − Mtm
j−1
)(Mtm
j
− Mtm
j−1
) 
i=1 tm n n
j ∈]ti−1 ,ti ]

car la propriété de martingale annule les termes croisés du carré de la somme : en effet
pour i1 < i2
  
X X
E  (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
)  (Mtni −1 − Mtmj −1
)(Mtm
j
− Mtm
j −1
)
1 1 1 1 2 2 2 2
tm n n
j ∈]ti −1 ,ti ] tm n n
j ∈]ti −1 ,ti ]
1 1 1 2 2 2
  
X
= E E  (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
)
1 1 1 1
tm n n
j ∈]ti −1 ,ti ]
1 1 1
5.3. Variation quadratique d’une martingale locale 103
  
X
 (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
) Ftni 
2 2 2 2 1
tm n n
j ∈]ti −1 ,ti ]
2 2 2
 
X
= E  (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
)
1 1 1 1
tm n n
j ∈]ti −1 ,ti ]
1 1 1
  
X
E  (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
) Ftni 
2 2 2 2 1
tm n n
j ∈]ti −1 ,ti ]
2 2 2
 
X
= E  (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
)
1 1 1 1
tm n n
j ∈]ti −1 ,ti ]
1 1 1
 
X h i
E E (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
) Ftm
j −1
Ftni 
2 2 2 2 2 1
tm n n
j ∈]ti −1 ,ti ]
2 2 2
 
X
= E  (Mtni −1 − Mtm
j −1
)(Mtm
j
− Mtm
j −1
)
1 1 1 1
tm n n
j1 ∈]ti1 −1 ,ti1 ]
 
X h i
(Mtni −1 − Mtm ) E (Mtm − Mtm ) Ftm Ftni 
 
E j2 −1 j2 j2 −1 j2 −1
2 1
tm n n
j2 ∈]ti2 −1 ,ti2 ]
| {z }
=0

car pour tm n n n m
j2 ∈]ti2 −1 , ti2 ], on a ti2 −1 ≤ tj2 −1 et (Mtn
i2 −1
− Mtm
j2 −1
) est Ftmj2 −1
-mesurable. On a
donc
 2 
pn
 (n) (m)
X X
E (Xt − Xt )2 =

E  (Mtni−1 − Mtm j−1
)(Mtmj
− Mtm j−1
) 
i=1 tm n n
j ∈]ti−1 ,ti ]
pn h i
X X
2 2
= E (M tn
i−1
−M tm
j−1
) (M tm
j
−M tm
j−1
) (5.10)
i=1 tm n n
j ∈]ti−1 ,ti ]

car à nouveau la propriété de martingale annule les termes croisés du carré de la somme :
pour j1 < j2 avec tm m n n
j1 , tj2 ∈]ti−1 ti ], on a
h i
E (Mtni−1 − Mtm j1 −1
)(M m
tj − M m
tj −1 )(M n
ti−1 − M m
tj −1 )(M m
tj − M m
tj −1 )
1 1 2 2 2
h h ii
= E E (Mtni−1 − Mtm j1 −1
)(Mtm j1
− Mtm j1 −1
)(Mtni−1 − Mtm j2 −1
)(Mtm j2
− Mtmj2 −1
) Ftm
j2 −1
 
h i
= E (Mtni−1 − Mtm )(Mtm − Mtm )(Mtni−1 − Mtm ) E (Mtm − Mtm ) Ftm
 
j1 −1 j1 j1 −1 j2 −1 j2 j2 −1 j2 −1

| {z }
=0
104 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

= 0.

car tni−1 , tm m m
j1 −1 , tj1 ≤ tj2 −1 . Et donc à partir de (5.10), on a
 (n) (m) 
E (Xt − Xt )2
  
pn
X X
≤ sup (Mtni−1 − Mtm )2  (Mtm − Mtm )2 
  
E  j−1 j j−1
i=1 tm n n tm n n
j ∈]ti−1 ,ti ]
j ∈]ti−1 ,ti ]
1≤i≤pn
  
pm
!
X
2
= E  sup (Mtni−1 − Mtm ) (Mtm − Mtm )2 
 
j−1 j j−1

tm n n
j ∈]ti−1 ,ti ] j=1
1≤i≤pn
 1/2 
pm
!2 1/2
X
≤ E sup (Mtni−1 − Mtm )4  (Mtm − Mtm )2 (5.11)
 
j−1
E j j−1

tm n n
j ∈]ti−1 ,ti ] j=1
1≤i≤pn
(par l’inégalité de Cauchy-Schwarz)

Comme M est à trajectoires continues, donc uniformément continues sur [0, t], on a

lim sup (Mtni−1 − Mtm


j−1
)=0
n,m→+∞ tm ∈]tn ,tn ]
j i−1 i
1≤i≤pn

et comme M est bornée, disons par K :

sup (Mtni−1 − Mtm


j−1
) ≤ 2K
tm n n
j ∈]ti−1 ,ti ]
1≤i≤pn

si bien que, par convergence dominée, on a


 

lim sup (Mtni−1 − Mtm )4  = 0. (5.12)


 
E j−1
n,m→+∞ tm n n
j ∈]ti−1 ,ti ]
1≤i≤pn

Pour conclure il suffit de montrer qu’il existe une constante C telle que
 !2 
pm
X
E (Mtmj
− Mtmj−1
)2  ≤ C. (5.13)
j=1

En effet, en combinant (5.11), (5.12) et (5.13), on aura


 (n) (m) 
lim E (Xt − Xt )2 = 0.
n,m→+∞
5.3. Variation quadratique d’une martingale locale 105

Pour voir (5.13) (avec C = 8K 4 ), on développe les carrés en utilisant le Lemme 5.29 :
 !2 
pm
X
E (Mtmj
− Mtm j−1
)2 
j=1
"p #
m
X X
= E (Mtm
j
− Mtm
j−1
)4 + 2 (Mtm
j
− Mtm
j −1
)2 (Mtm
j
− Mtm
j −1
)2
1 1 2 2
j=1 1≤j1 <j2 ≤pm
"p #
m h h ii
X X
≤ (2K)2 E (Mtm
j
− Mtm
j−1
)2 + 2 E E (Mtm
j
− Mtm
j −1
)2
(Mtm − Mtm
j j −1
)2
|F tm
j
1 1 2 2 1
j=1 1≤j1 <j2 ≤pm
pm h i h h ii
X X
2 2 2 2
≤ (2K) E (Mtm
j
− M m
tj−1 ) +2 E (Mtm
j
− M m
tj −1 ) E (M m
tj − M m
tj −1 ) |F m
tj
1 1 2 2 1
j=1 1≤j1 <j2 ≤pm

On estime les deux termes en utilisant le Lemme 5.29 : pour le premier terme, on a
pm h i pm h i
X X
2 2 2
 2  2  2
E (M tm
j
−M tm
j−1
) = E Mtm
j
− Mtm
j−1
= E Mtm ] − E Mt
pm 0
= E Mt ] ≤ K 2 .
j=1 j=1

Puis h i h i
2 2 2
E (Mtm
j
− M m
tj −1 ) |F m
tj = E M m
tj − M m
tj −1 |F m
tj
2 2 1 2 2 1

si bien que
X h h ii
2 2
E (Mtj − Mtj −1 ) E (Mtj − Mtj −1 ) |Ftj
m m m m m
1 1 2 2 1
1≤j1 <j2 ≤pm
pm pm
" #
X X h i
= E (Mtm
j
− Mtm
j −1
)2 E Mt2m
j
− Mt2m
j −1
Ftm
j
1 1 2 2 1
j1 =1 j2 =j1 +1
pm h h ii
X
2 2 2
= E (Mtm
j
− M m
tj −1 ) E Mt − M m
tj F m
tj
1 1 1 1
j1 =1
pm h i pm h i
X X
2 2 2 2 2
≤ E (Mtm
j
− Mtm
j −1
) (2K ) = (2K ) E M m
tj − M m
tj −1
1 1 1 1
j1 =1 j1 =1

= (2K 2 ) E Mt2m − E Mt20 = (2K 2 )E Mt2 ≤ 2K 4 .


     
pm

Finalement, 
pm
!2 
X
E (Mtm
j
− Mtm
j−1
)2  ≤ 8K 4 .
j=1


106 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

En combinant le Lemme 5.33, l’inégalité de moment de Doob (Prop. 4.18 avec p = q = 2),
on obtient : h i
(n) (m) 2
lim E sup Xs − Xs = 0. (5.14)
n,m→+∞ s≤t

On peut alors extraire une sous-suite (nk )k≥0 telle que


h 2 i
E sup Xs(nk ) − Xs(nk+1 ) ≤ 2−2k .
s≤t

Avec l’inégalité de Cauchy-Schwarz, il vient alors


" +∞ # +∞  +∞
 1/2 X

(nk+1 ) 2
X X
E (nk )
sup Xs − Xs (nk+1 )
≤ (nk )
E sup Xs − Xs ≤ 2−k = 2 < +∞.
s≤t s≤t
k=1 k=1 k=0

On en déduit que presque sûrement :


+∞
X
sup Xs(nk ) − Xs(nk+1 ) < +∞.
s≤t
k=1

(n ) 
Presque sûrement, la suite de fonction Xs k s∈[0,t] , k ≥ 1, converge donc uniformément
sur [0, t] vers une limite qu’on note (Ys )s∈[0,t] . Sur l’ensemble négligeable où il n’y a pas la
convergence, on impose Ys ≡ 0. Le processus limite (Ys )s∈[0,t] ainsi construit a alors des
trajectoires continues.
(n)
Comme d’après le Lemme 5.33 pour chaque s ∈ [0, t], (Xs )n≥1 est une suite de Cauchy
(n) L2
dans L2 , on a aussi la convergence Xs −→ Ys quand n → +∞. En passant à la limite L2
dans l’égalité de martingale pour X (n) aux dates s et r,

Xs(n) = E Xr(n) |Fs , s ≤ r,


 

on obtient la propriété de martingale pour Y sur [0, t] :


 
Ys = E Yr |Fs , s ≤ r. (5.15)

Le processus Y = (Ys )0≤s≤t est donc une martingale à trajectoires continues.


Puis par un calcul simple, pour tout n ≥ 1 et j ∈ {1, . . . , pn }, on a
j
(n)
X
Mt2nj − 2Xtnj = (Mtni − Mtni−1 )2 . (5.16)
i=1

(n) Pj  Pj 2

En effet Xtnj = Mtn Mtn − Mtn = Mtn Mtn − M n et donc
i=1 i−1 i i−1 i=1 i−1 i ti−1

j j
(n)
X X
Mt2nj − 2Xtnj = Mt2nj +2 Mt2ni−1 −2 Mtni−1 Mtni
i=1 i=1
5.3. Variation quadratique d’une martingale locale 107

j j j
X X X
= Mt2ni + Mt2ni−1 −2 Mtni−1 Mtni
i=1 i=1 i=1
(en reindexant la somme et avec Mtn0 = M0 = 0)
j
X
Mt2ni + Mt2ni−1 − 2Mtni−1 Mtni

=
i=1
j
X 2
= Mtni − Mtni−1 .
i=1

Le processus M 2 − 2X (n) est donc croissant le long de la subdivision {tni : 0 ≤ i ≤ pn }. En


passant à la limite avec la sous-suite nk → +∞ trouvée précédemment (pour laquelle il y
a convergence presque sûre), par continuité, la fonction s ∈ [0, t] 7→ Ms2 − 2Ys est presque
sûrement croissante sur [0, t].
On pose alors, pour s ∈ [0, t], ⟨M, M ⟩s := Ms2 −2Ys (avec, par convention, ⟨M, M ⟩s ≡ 0 sur
l’ensemble de probabilité nulle où la fonction s ∈ [0, t] 7→ Ms2 − 2Ys n’est pas croissante).
Ainsi, ⟨M, M ⟩ est un processus croissant et par construction Ms2 − ⟨M, M ⟩s = 2Ys est une
martingale, sur l’intervalle de temps [0, t], cf. (5.15).
Rappelons que t est fixé depuis le début de l’argument. Pour étendre la définition de
⟨M, M ⟩s à tout s ∈ R+ , on applique ce qui précède avec t = k pour tout entier k ≥ 1 et on
note A(k) le processus ainsi construit. Par unicité (à indistinguabilité près), on remarque
que le processus obtenu avec t = k doit être la restriction à [0, k] de celui obtenu avec
(k+1)
t = k + 1 : A(k) = A . On définit alors un processus ⟨M, M ⟩t , t ≥ 0, croissant vérifiant
[0,k]
(5.8) en prenant
(k)
⟨M, M ⟩t = At pour k ≥ t.
L’égalité des restrictions des A(k) assure la cohérence de la définition ci-dessus. Le processus
⟨M, M ⟩ ainsi construit vérifie la première partie du Th 5.31.

La partie unicité montre aussi que le processus ⟨M, M ⟩ = ⟨M, M ⟩t t≥0 ne dépend pas de
la suite de subdivisions (emboı̂tées) choisies pour le construire. On déduit alors de (5.16)
(avec j = pn ) que pour tout t > 0, pour n’importe quelle suite de subdivisions emboı̂tées
de [0, t] de pas tendant vers 0, on a
pn
X
2
L - lim (Mtnj − Mtm
j−1
)2 = ⟨M, M ⟩t
n→+∞
j=1

dans L2 . Cela achève la preuve du théorème dans le cas borné.

Étape 2 : cas général


Considérons maintenant une martingale locale générale qu’on écrit sous la forme Mt =
M0 + Nt . On a donc Mt2 = M02 + 2M0 Nt + Nt2 .
108 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

On remarque que (M0 Nt )t≥0 est une martingale locale. En effet, en notant (Tn )n≥1 la  suite
de temps d’arrêt qui réduit la martingale locale N et Sn = inf n ≥ 0 : |M0 Nt | ≥ n , alors
Sn est un temps d’arrêt ((M0 Nt )t≥0 est adaptée) et Sn ↗ +∞ (continuité de t 7→ M0 Nt ,
Tn ∧Sn
comme en Prop. 5.28). Comme M0 Nt t≥0 est bornée et vérifie la propriété de martingale,
(M0 Nt )t≥0 est bien une martingale locale réduite par la suite de temps d’arrêt Tn ∧Sn , n ≥ 1.
Ainsi pour montrer que Mt2 − At = (M02 + 2M0 Nt ) + Nt2 − At , t ≥ 0, est une martingale
locale, il suffit de le faire pour (Nt2 − At )t≥0 , et sans perte de généralité, on suppose donc
que M0 = 0 et on pose alors

Tn = inf t ≥ 0 : |Mt | ≥ n ,

et on applique le résultat déjà prouvé dans le cas borné aux martingales bornées M Tn .
Notons A(n) = ⟨M Tn , M Tn ⟩ le processus associé à M Tn . D’après l’unicité, les processus
(n+1) (n)
At∧Tn et At sont indistinguables. On en déduit qu’il existe un processus croissant A tel
(n)
que, pour tout n ≥ 1, At∧Tn et At sont indistinguables. De plus, par construction du cas
2
borné, Mt∧Tn
− At∧Tn = (Mt2 − At )Tn est une martingale, c’est à dire Mt2 − At est une
martingale locale puisque Tn ↗ +∞.
On prend alors ⟨M, M ⟩t = At et cela termine la preuve de la partie existence.

Deuxième partie du Th. 5.31


Enfin, la deuxième partie du théorème reste vraie dans le cas d’une martingale locale :
T
en effet, si on remplace M et ⟨M, M ⟩t par M Tp et ⟨M Tp , M Tp ⟩t = ⟨M, M ⟩t p (en anticipant
la Prop. 5.35 juste ci-dessous) alors le cas borné assure :
pn
X T T 2
⟨M, M ⟩t∧Tp = P- lim p
Mtnip − Mtni−1
n→+∞
i=1

(même avec convergence dans L2 plutôt qu’en probabilité). On conclut en observant que,
pour tout t > 0, on a P(t ≤ Tp ) → 1, quand p → +∞, ce qui affaiblit la convergence L2 en
une convergence en probabilité : soit ε > 0, posons
pn
( )
X
An (ε) = ⟨M, M ⟩t − (Mtni − Mtni−1 )2 ≥ ε
i=1

   
alors P An (ε) = P An (ε), t ≤ Tp + P An (ε), Tp < t avec P An (ε), Tp < t ≤ P(Tp <
t) ≤ ε pour p assez grand et
pn
( )
X T Tp 2
An (ε) ∩ {t ≤ Tp } = ⟨M, M ⟩t∧Tp − (Mtnip − Mtni−1 ) ≥ε ∩ {t ≤ Tp }.
i=1
5.3. Variation quadratique d’une martingale locale 109

Il vient
pn
!
X T
(Mtnip − MtTpn )2 ≥ ε

lim P An (ε) ≤ P(Tp < t) + lim P ⟨M, M ⟩t∧Tp − ≤ ε.
n→+∞ n→+∞ i−1
i=1
(5.17)
Ppn 2
Comme ε > 0 est quelconque, on a P- limn→+∞ i=1 M −M
tn
i tn
i−1
= ⟨M, M ⟩t . □

Proposition 5.35 (Crochet et arrêt) Si T est un temps d’arrêt, alors on a

⟨M T , M T ⟩t = ⟨M, M ⟩Tt .

Démonstration : Cela vient de ce que

(MtT )2 − ⟨M, M ⟩Tt = Mt∧T


2
− ⟨M, M ⟩t∧T = (M 2 − ⟨M, M ⟩)Tt

est une martingale locale comme martingale locale arrêtée. Par conséquent le crochet ar-
rêté ⟨M, M ⟩T vérifie la propriété/définition de ⟨M T , M T ⟩ du Théorème 5.31. Par unicité
du crochet, on doit avoir ⟨M T , M T ⟩ = ⟨M, M ⟩T à indistinguabilité près. □

Le théorème suivant montre comment les propriétés d’une martingale locale M sont liées à
celles de sa variation quadratique ⟨M, M ⟩. Ainsi, les intervalles sur lesquels M est constante
sont exactement ceux sur lesquels ⟨M, M ⟩ est constant. Si A est un processus croissant, on
note A∞ la limite croissante de At quand t → +∞.

Théorème 5.36 (Crochet d’une martingale L2 ) Soit M une martingale locale à trajectoires
continues avec M0 = 0.
(1) Il y a équivalence entre :
 
(a) M est une (vraie) martingale bornée dans L2 (ie. supt≥0 E Mt2 < +∞).
 
(b) E ⟨M, M ⟩∞ < +∞.
Sous ces conditions, M 2 − ⟨M, M ⟩ est une martingale uniformément intégrable.
(2) Il y a aussi équivalence entre :
 
(a) M est une (vraie) martingale L2 (ie. E Mt2 < +∞ pour tout t ≥ 0).
 
(b) E ⟨M, M ⟩t < +∞ pour tout t ≥ 0.
Sous ces conditions, M 2 − ⟨M, M ⟩ est une (vraie) martingale.

Remarque 5.37 Dans la partie 1) de l’énoncé, il est essentiel de supposer que M est une
martingale, et pas seulement une martingale locale car on utilise l’inégalité de moment de
Doob et elle n’est pas valable pour une martingale locale.
110 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

Démonstration : 1a) ⇒ 1b) On suppose que M est une martingale à trajectoires conti-
nues, bornée dans L2 . L’inégalité de Doob (Proposition 4.18 avec p = q = 2) assure
h i
E sup Mt ≤ 4 sup E Mt2 < +∞.
2
 
t≥0 t≥0

En particulier, M est une martingale uniformément intégrable qui converge (ps et, par
convergence dominée, dans L2 ) vers une limite M∞ ∈ L2 quand t → +∞. Pour tout entier
n ≥ 1, on pose 
Sn = inf t ≥ 0 : ⟨M, M ⟩t ≥ n .
Alors Sn est un temps d’arrêt et ⟨M, M ⟩t∧Sn ≤ n. On en déduit que la martingale locale
2
Mt∧S n
− ⟨M, M ⟩t∧Sn est dominée par la variable intégrable n + supt≥0 Mt2 . D’après la Pro-
position 5.25, cette martingale locale est donc une vraie martingale. Comme elle est nulle
en 0, la propriété de martingale assure
 2   2 
E Mt∧S n
− ⟨M, M ⟩t∧Sn = E M0∧Sn − ⟨M, M ⟩0∧Sn = 0,

soit    2 
E ⟨M, M ⟩t∧Sn = E Mt∧Sn
.
En faisant tendre t → +∞ (avec le théorème de convergence monotone pour le terme de
gauche, le théorème de convergence dominée pour celui de droite), on trouve

E ⟨M, M ⟩Sn = E MS2n .


   

Puis comme Sn ↗ +∞, en faisant tendre n → +∞, on trouve de la même façon (conver-
gences monotone et dominée)
   2
E ⟨M, M ⟩∞ = E M∞ < +∞.
  
1b) ⇒ 1a) On suppose maintenant E ⟨M, M ⟩∞ < +∞. Avec Tn = inf t ≥ 0 : |Mt | ≥ n ,
M Tn est bornée donc c’est une vraie martingale bornée. De plus, la martingale locale
2
Mt∧T n
− ⟨M, M ⟩Tt n est aussi une vraie martingale uniformément intégrable, car elle est
dominée par la variable aléatoire intégrable n2 + ⟨M, M ⟩∞ (cf. encore Prop. 5.25)).
Soit S un temps d’arrêt fini ps. D’après le théorème d’arrêt (Th. 4.32) appliqué à la mar-
2
tingale uniformément intégrable (Mt∧T n
− ⟨M, M ⟩Tt n )t≥0 avec S ≥ 0, on a
 2   
E MS∧T n
= E ⟨M, M ⟩S∧Tn .

Par le lemme de Fatou, on a alors (en utilisant S fini et Tn ↗ +∞ ps) :

E MS2 = E lim inf MS∧T


2
     2     
n
≤ lim inf E MS∧T n
= lim inf E ⟨M, M ⟩S∧Tn ≤ E ⟨M, M ⟩∞ .
n→+∞ n→+∞ n→+∞

La famille {MS : S temps d’arrêt fini} est donc bornée dans L2 et par conséquent unifor-
mément intégrable.
5.3. Variation quadratique d’une martingale locale 111

En particulier, la sous-famille (Mt∧Tn )n≥1 est uniformément intégrable et converge ps vers


Mt quand n → +∞, elle converge donc aussi dans L1 (théorème de Vitali). De même, on a
L1  
Ms∧Tn −→ Ms . En passant à la limite L1 quand n → +∞ dans l’égalité E Mt∧Tn |Fs = MsTn
(pour s ≤ t), on en déduit  
E Mt |Fs = Ms ,
ie. M est une vraie martingale. De plus, M est bornée dans L2 puisque {Ms , s ≥ 0} est
une sous-famille de {MS : S temps d’arrêt fini} qui est bornée dans L2 .
Conclusion de 1). Sous les conditions de 1), comme
 la martingale locale M 2 − ⟨M, M ⟩ est
2
dominée par la variable intégrable supt≥0 Mt + ⟨M, M ⟩∞ , c’est une (vraie) martingale
uniformément intégrable (toujours par la Prop. 5.25)).
Preuve
 de l’équivalence
 de 2). Soit a > 0. Comme ⟨M, M ⟩a = ⟨M a , M a ⟩∞ , d’après 1), on
a E ⟨M, M ⟩a < +∞ si et seulement si M a = (Mta )t≥0 est une vraie martingale bornée
dans L2 . L’équivalence de (2a) et (2b) suit alors facilement. Enfin, si ces conditions sont
2
remplies, 1) montre que Mt∧a − ⟨M, M ⟩t∧a est une (vraie) martingale, ce qui prouve la
partie 2) car a est quelconque et peut être choisi arbitrairement grand. □

Proposition 5.38 Soit M une martingale locale à trajectoires continues telle que M0 = 0.
Alors on a ⟨M, M ⟩t = 0 ps pour tout t ≥ 0 si et seulement si M est indistinguable de 0.

Démonstration : ⇒ On suppose ⟨M, M ⟩t = 0 ps pour tout t ≥ 0. D’après la partie 2


du Th. 5.36 ci-dessus, Mt2 est une (vraie) martingale. On a donc E[Mt2 ] = E[M02 ] = 0 et
Mt = 0 ps. Le processus nul est donc une modification de M . Puis comme les deux sont à
trajectoires continues, ils sont indistingables.
⇐ suit par exemple de l’interprétation (5.9) de ⟨M, M ⟩t . □

Crochet de deux martingales locales


Si M et N sont deux martingales locales, on définit leur crochet par polarisation en posant :
1 
⟨M, N ⟩t = ⟨M + N, M + N ⟩t − ⟨M, M ⟩t − ⟨N, N ⟩t .
2
Proposition 5.39 (Propriétés du crochet joint)
(1) ⟨M, N ⟩ est l’unique (à indistinguabilité près) processus à variation bornée tel que
Mt Nt − ⟨M, N ⟩t , t ≥ 0, soit une martingale locale.
(2) Si 0 = tn0 < tn1 < · · · < tnpn = t est une suite de subdivisions emboı̂tées de [0, t] de pas
tendant vers 0, on a, au sens de la convergence en probabilité,
pn
X
P- lim (Mtni − Mtni−1 )(Ntni − Ntni−1 ) = ⟨M, N ⟩t .
n→+∞
i=1
112 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

(3) L’application (M, N ) 7→ ⟨M, N ⟩ est bilinéaire symétrique.


(4) (arrêt) Pour tout temps d’arrêt T ,

⟨M T , N T ⟩t = ⟨M T , N ⟩t = ⟨M, N ⟩t∧T . (5.18)

Démonstration : 1) découle de la caractérisation analogue dans le Théorème 5.31 avec la


polarisation du produit réel (et l’unicité se prouve comme dans le Théorème 5.30). On a
1 
(M + N )2 − ⟨M + N, M + N ⟩ − M 2 − ⟨N, N ⟩ − N 2 − ⟨N, N ⟩
 
M N − ⟨M, N ⟩ =
2
est une martingale locale comme somme des martingales locales (M +N )2 −⟨M +N, M +N ⟩,
M 2 − ⟨N, N ⟩ et N 2 − ⟨N, N ⟩ par définitions de ⟨M + N, M + N ⟩, ⟨M, M ⟩ et ⟨N, N ⟩.
2) est de même une conséquence de l’affirmation analogue dans le Théorème 5.31 par
polarisation : De
1 2 
(Mtni −Mtni−1 )(Ntni −Ntni−1 ) = (Mtni −Mtni−1 )+(Ntni −Ntni−1 ) −(Mtni −Mtni−1 )2 −(Ntni −Ntni−1 )2
2
on déduit
pn
X
(Mtni − Mtni−1 )(Ntni − Ntni−1 )
i=1
pn pn pn
1 X 2 X 2
X 
= (Mtni − Mtni−1 ) + (Ntni − Ntni−1 ) − (Mtni − Mtni−1 ) − (Ntni − Ntni−1 )2
2 i=1 i=1 i=1
P 1 
−→ ⟨M + N, M + N ⟩t − ⟨M, M ⟩t − ⟨N, N ⟩t
2
= ⟨M, N ⟩t ,

en utilisant 2) dans Th. 5.31 pour ⟨M + N, M + N ⟩t , ⟨M, M ⟩t , et ⟨N, N ⟩t .


3) découle, par exemple, de l’expression 2).
Enfin, on peut voir 4) comme une conséquence de la propriété 2), en observant que cette
propriété entraı̂ne presque sûrement

⟨M T , N T ⟩t = ⟨M T , N ⟩t = ⟨M, N ⟩t sur {T ≥ t},


⟨M T , N T ⟩t − ⟨M T , N T ⟩s = ⟨M T , N ⟩t − ⟨M T , N ⟩s = 0 sur {T ≤ s < t}.

Remarque 5.40 En utilisant deux fois 4), on a pour deux temps d’arrêt S, T :

⟨M T , N S ⟩ = ⟨M, N ⟩S∧T .
5.3. Variation quadratique d’une martingale locale 113

Proposition 5.41 Soit M1 , M2 deux martingales locales à trajectoires continues issues de


0. On a M1 = M2 (à indistinguabilité près) si et seulement si pour toute martingale locale
N , on a ⟨M1 , N ⟩ = ⟨M2 , N ⟩.

Démonstration : Le sens direct est immédiat. Pour la réciproque, il suffit de choisir


N = M1 − M2 pour avoir ⟨M1 − M2 , M1 − M2 ⟩ = 0, c’est à dire M1 − M2 est constante
donc nulle. □

Définition 5.42 (Orthogonalité) Deux martingales locales M et N sont dites orthogonales


si ⟨M, N ⟩ = 0 ce qui équivaut à dire que le produit M N est une martingale locale.

Définition 5.43 Un (Ft )t≥0 -mouvement brownien est un mouvement brownien B tel que
— B est (Ft )t≥0 -adapté,
— B est à accroissements indépendants par rapport à (Ft )t≥0 , ie. t ≥ s, Bt − Bs ⊥
⊥ Fs .

Un (Ft )t≥0 -mouvement brownien B est bien sûr une martingale locale, de variation qua-
dratique ⟨B, B⟩t = t.

Proposition 5.44 Deux (Ft )t≥0 -mouvements browniens indépendants B et B


e sont des mar-
tingales orthogonales.

Démonstration : Soit Wt = √12 (Bt + B et ), t ≥ 0. Le processus W est encore une (Ft )t≥0 -
martingale locale, et il s’agit encore d’un mouvement brownien (facile à voir). Sa variation
quadratique est alors donné par ⟨W, W ⟩t = t et par bilinéarité cela entraı̂ne ⟨B, B⟩
e t=0:
* +
B+B e B+B e 1 e t = 1 t + 2⟨B, B⟩

⟨B, B⟩t + 2⟨B, B ′ ⟩t + ⟨B,

t= √ , √ = e B⟩ e t+t .
2 2 2 2
t

D’où ⟨B, B⟩
e t = 0. □

Si M et N sont deux (vraies) martingales bornées dans L2 , on déduit facilement par polari-
sation du Théorème 5.36 que Mt Nt − ⟨M, N ⟩t est une martingale uniformément intégrable.
Si de plus M et N sont orthogonales et issues de 0, on a E[Mt Nt ] = 0, et même E[MS NS ] = 0
pour tout temps d’arrêt S (par arrêt avec S ≥ 0).
Le résultat suivant est une sorte de généralisation de l’inégalité de Cauchy-Schwarz aux
intégrales par rapport à un crochet de martingales locales.

Proposition 5.45 (Inégalité de Kunita-Watanabe) Soit M et N deux martingales locales


et H et K deux processus progressivement mesurables bornés. Alors pour tout t ≥ 0 :
Z t Z t 1/2 Z t 1/2
|Hs | |Ks | |d⟨M, N ⟩s | ≤ Hs2 d⟨M, M ⟩s Ks2 d⟨N, N ⟩s . (5.19)
0 0 0
114 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

Conséquence : Avec H = K = 1, on a |⟨M, N ⟩|2 ≤ ⟨M, M ⟩⟨N, N ⟩.


Démonstration : Par le théorème de convergence monotone, il suffit de voir le résultat
pour H, K processus progressifs bornés. Quitte à remplacer K par gKsgn(HK), où g =
d(⟨M, N ⟩)/d|⟨M, N ⟩| est la densité de Radon-Nikodym à valeurs dans {−1, +1}, on peut
R +∞ R +∞
remplacer 0 |Hs | |Ks | |d⟨M, N ⟩s | à gauche dans (5.19) par 0 Hs Ks d⟨M, N ⟩s .

Notons ⟨M, N ⟩s,t = ⟨M, N ⟩t −⟨M, N ⟩s . On commence par remarquer que presque sûrement
pour tous s < t rationnels (donc aussi par continuité pour tous s < t) on a
q q
|⟨M, N ⟩s,t | ≤ ⟨M, M ⟩s,t ⟨N, N ⟩s,t . (5.20)

En effet, cela découle des approximations en probabilité de ⟨M, M ⟩ et ⟨M, N ⟩ données


respectivement dans le Th. 5.31 et la Prop. 5.39, ainsi que de l’inégalité de Cauchy-Schwarz
(classique pour les sommes) :
pn
!2 pn pn
X X X
2
(Mtni − Mtni−1 )(Ntni − Ntni−1 ) ≤ (Mtni − Mtni−1 ) (Ntni − Ntni−1 )2
i=1 i=1 i=1

où (tni )i=0,...,n est une subdivision de [s, t]. À la limite n → +∞, on obtient bien (5.20).
Dans la suite on fixe un ω ∈ Ω pour lequel (5.20)
Rt est vraie pour tout s < t et on raisonne
pour ce ω presque sûr. L’interprétation de s |d⟨M, N ⟩u | comme variation bornée par la
Prop. 5.8 donne aussi
Z t q q
|d⟨M, N ⟩u | ≤ ⟨M, M ⟩s,t ⟨N, N ⟩s,t . (5.21)
s

En effet, pour une subdivision s = t0 < t1 < · · · < tp = t, on a


p p q q
X X
|⟨M, N ⟩ti−1 ,ti | ≤ ⟨M, M ⟩ti−1 ,ti ⟨N, N ⟩ti−1 ,ti
i=1 i=1
p
!1/2 p
!1/2
X X
≤ ⟨M, M ⟩ti−1 ,ti ⟨N, N ⟩ti−1 ,ti
i=1 i=1
q q
≤ ⟨M, M ⟩s,t ⟨N, N ⟩s,t .

Soit maintenant H, K des processus progressifs simples. Quitte à raffiner les subdivisions
définissant H et K, on peut trouver 0 = t0 < t1 < · · · < tn < +∞ et h0 , . . . , hn , k0 , . . . , kn
telles que hi , ki ∈ L∞ (Fti ), i ∈ J0, n − 1K, et pour lesquels
n−1
X n−1
X
H = h0 1{0} + hi 1]ti ,ti+1 ] , K = k0 1{0} + ki 1]ti ,ti+1 ] .
i=0 i=0
5.4. Semimartingales 115

On a alors
Z t n−1
X Z ti+1 n−1
X Z ti+1
Hs Ks d⟨M, N ⟩s = hi ki d⟨M, N ⟩s ≤ |hi | |ki | d⟨M, N ⟩s
0 i=0 ti i=0 ti
n−1
X Z ti+1 1/2 Z ti+1 1/2
≤ |hi | |ki | d⟨M, M ⟩s d⟨N, N ⟩s
i=0 ti ti
n−1
X Z ti+1 1/2 Z ti+1 1/2
= h2i d⟨M, M ⟩s ki2 d⟨N, N ⟩s
i=0 ti ti

n−1 Z
!1/2 n−1 Z
!1/2
X ti+1 X ti+1
≤ h2i d⟨M, M ⟩s ki2 d⟨N, N ⟩s
i=0 ti i=0 ti
Z t 1/2 Z t 1/2
= Hs d⟨M, M ⟩s Ks d⟨N, N ⟩s .
0 0
Quand H et K sont des processus progressifs bornés, on peut les approximer par deux
suites de processus simples (Hn )n≥1 et (Kn )n≥1 qui convergent vers H et K en restant bor-
nées. On conclut alors par le théorème de convergence dominée pour l’intégrale de Stieltjes
(Prop. 5.10-4. □

5.4 Semimartingales
Les semimartingales forment la classe la plus générale de processus considérés pour construire
une intégrale stochastique au Chapitre 6 suivant.
Définition 5.46 (Semimartingale) Un processus X = (Xt )t≥0 est une semimartingale à
trajectoires continues s’il s’écrit sous la forme Xt = X0 + Mt + At , t ≥ 0, où M est une
martingale locale (issue de 0) et A est un processus à variation bornée.
Toujours grâce au Théorème 5.30, la décomposition ci-dessus est unique à indistinguabilité
près : si X = X0 + M + A = X0 + M ′ + A′ alors A − A′ = M ′ − M est nul car à la fois
martingale locale M − M ′ et un processus à variation bornée A − A′ .
Si Yt = Y0 + Mt′ + A′t est une autre semimartingale à trajectoires continues, on pose par
définition
⟨X, Y ⟩t := ⟨M, M ′ ⟩t .
En particulier, ⟨X, X⟩t = ⟨M, M ⟩t .
Proposition 5.47 Soit X, Y deux semimartingales à trajectoires continues et 0 = tn0 <
tn1 < · · · < tnpn = t une suite de subdivisions emboı̂tées de [0, t] de pas tendant vers 0. Alors,
au sens de la convergence en probabilité :
pn
X  
P- lim Xtni − Xtni−1 Ytni − Ytni−1 = ⟨X, Y ⟩t . (5.22)
n→+∞
i=1
116 Chapitre 5. ©JCB – M2 Math. – Université de Rennes

Remarque 5.48 En particulier, si X ou Y est à variation bornée (et tous les deux à tra-
jectoires continues), alors
pn
X  
P- lim Xtni − Xtni−1 Ytni − Ytni−1 = 0.
n→+∞
i=1

En effet, si par exemple c’est X qui est à variation bornée, on a


pn pn
X X
(Xtni − Xtni−1 )(Ytni − Ytni−1 ) ≤ |Xtni − Xtni−1 | sup |Ytni − Ytni−1 |
i=1,...,pn
i=1 i=1
 Z t
≤ sup |Ytni − Ytni−1 | |dXs | −−−−→ 0
i=1,...,pn 0 n→+∞

Rt
car 0 |dXs | est bornée (processus à variation bornée) et limn→+∞ sup1≤i≤pn |Ytni −Ytni−1 | = 0
par uniforme continuité des trajectoires de Y sur [0, t] (Th. Heine).

Démonstration : Pour simplifier, on suppose X = Y . Le cas général s’obtient ensuite


facilement par polarisation du produit. Comme Xt = X0 + Mt + At , on a :
pn pn pn
X 2 X 2 X 2
X −X
tn
i tn
i−1
= M −M tn
i tn
i−1
+ Atni − Atni−1
i=1 i=1 i=1
pn
X 
+2 Mtni − Mtni−1 )(Atni − Atni−1 . (5.23)
i=1

Pour le premier terme de (5.23) lié à la martingale locale M , le Th. 5.31 donne
pn
X 2
P- lim Mtni − Mtni−1 = ⟨M, M ⟩t = ⟨X, X⟩t . (5.24)
n→+∞
i=1

Pour les deuxième et troisième termes de (5.23), comme A est à variation bornée et M est
à trajectoires continues, la Remarque 5.48 précédente s’applique pour donner
pn
X 
lim Mtni − Mtni−1 )(Atni − Atni−1 = ⟨M, A⟩t = 0, (5.25)
n→+∞
i=1
pn
X 2
lim Atni − Atni−1 = ⟨A, A⟩t = 0. (5.26)
n→+∞
i=1

Finalement, en injectant (5.24), (5.25) et (5.26) dans (5.23), on obtient (5.22) pour X = Y .

Les principaux résultats d’intégration contre un crochet de martingales locales restent vrais
contre un crochet de semimartingales. En particulier, on a :
5.4. Semimartingales 117

Proposition 5.49 (Inégalité de Kunita-Watanabe) Soit X, Y deux semimartingales à tra-


jectoires continues et H, K deux processus progressifs localement bornés (ie. pour tout t ≥ 0,
sups≤t |Hs | < +∞, idem pour K). Alors ps pour t ≥ 0 :
Z t Z t 1/2 Z t 1/2
|Hs | |Ks | |d⟨X, Y ⟩s | ≤ Hs2 d⟨X, X⟩s Ks2 d⟨Y, Y ⟩s . (5.27)
0 0 0
118 Chapitre 5. ©JCB – M2 Math. – Université de Rennes
Troisième partie

Intégration stochastique

119
Chapitre 6

Intégration stochastique

On considère à nouveau dans ce chapitre un espace de probabilité filtré (Ω, F, (Ft )t≥0 , P)
muni d’une filtration (Ft )t≥0 satisfaisant les conditions habituelles. Le but est de construire
une théorie de l’intégration contre les processus stochastiques. La bonne classe de processus
à considérer est celle des semimartingales (à trajectoires continues) introduites dans le
Chapitre 5.
On commence par intégrer par rapport à des martingales à trajectoires continues bor-
nées dans L2 en Section 6.1, cette construction est fondée sur une théorie L2 . On étend cette
construction par propriété d’arrêt en Section 6.2 à des martingales locales à trajectoires
continues. On achève la construction en Section 6.3 avec l’intégration contre des semimar-
tingales. On termine le chapitre par quelques commentaires sur le cas des semimartingales
à trajectoires non continues en Section 6.4.

6.1 Par rapport à une martingale bornée dans L2


Définition 6.1 (Espace Hc2 ) On note Hc2 l’espace des martingales M à trajectoires conti-
nues bornées dans L2 (Ω) et telles que M0 = 0.
Le Th. 5.36 montre que, pour M ∈ Hc2 , on a E[⟨M, M ⟩∞ ] < +∞. D’après l’inégalité de
Kunita-Watanabe (Prop. 5.45), si M, N ∈ Hc2 on a E[|⟨M, N ⟩∞ |] < +∞, en effet :
Z +∞ 
E[|⟨M, N ⟩∞ |] ≤ E |d⟨M, N ⟩s | ≤ E[⟨M, M ⟩∞ ]1/2 E[⟨N, N ⟩∞ ]1/2 < +∞.
0

On définit alors un produit scalaire sur Hc2 par (M, N )Hc2 := E[⟨M, N ⟩∞ ] et on note ∥ · ∥Hc2
la norme sur Hc2 associée à ce produit scalaire :
1/2  1/2
∥M ∥Hc2 = (M, M )Hc2 = E ⟨M, M ⟩∞ .

Remarque 6.2 Noter que si T est un temps d’arrêt et M ∈ Hc2 , alors M T ∈ Hc2 puisque
E[⟨M T , M T ⟩∞ ] = E[⟨M, M ⟩T ∧∞ ] ≤ E[⟨M, M ⟩∞ ] < +∞.

121
122 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

D’après la Prop. 5.38, en identifiant les processus indistinguables, on a bien une norme
puisque (M, M )Hc2 = 0 si et seulement si M = 0 (ie. le produit scalaire considéré est bien
défini positif).

Proposition 6.3 L’espace Hc2 muni du produit scalaire (M, N )Hc2 est un espace de Hilbert.

Démonstration : Il s’agit de vérifier que Hc2 est complet pour la norme ∥ · ∥Hc2 . Pour cela,
on considère une suite de Cauchy (M n )n≥0 pour cette norme : Comme M n ∈ Hc2 , par le
Th. 5.36, la martingale (uniformément intégrable)M n = (Mtn )t≥0 converge ps, L1 et L2
n
vers M∞ . Comme M n − M m ∈ Hc2 , toujours d’après le Théorème 5.36, (M n − M m )2 −
⟨M −M m , M n −M m ⟩ est une martingale uniformément intégrable. L’égalité de martingale
n

assure pour tout t ≥ 0 :

E (M n − M m )2t − ⟨M n − M m , M n − M m ⟩t
 

= E (M n − M m )20 − ⟨M n − M m , M n − M m ⟩0 = 0
 

c’est à dire

E (M n − M m )2t = E ⟨M n − M m , M n − M m ⟩t
   

≤ E ⟨M n − M m , M n − M m ⟩∞ ,
 

soit
sup E (M n − M m )2t ≤ ∥M n − M m ∥2Hc2 .
 
t∈[0,+∞]

La propriété de Cauchy pour la suite (M n )n≥0 dans Hc2 donne donc

lim sup E (Mtn − Mtm )2 = lim ∥M n − M m ∥2Hc2 = 0.


 
m,n→+∞ t≥0 m,n→+∞

L2
Pour tout t ∈ [0, +∞], on a donc Mtn −−−−→ Mt∞ .
n→+∞

L’inégalité de moment de Doob (Prop. 4.18, avec p = q = 2) donne alors


 
lim E sup(Mt − Mt ) ≤ 4 lim sup E (Mtn − Mtm )2 = 0.
n m 2
 
m,n→+∞ t≥0 m,n→+∞ t≥0

On peut alors extraire une sous-suite (nk )k≥0 telle que pour tout k ≥ 0
 
nk nk+1 2 1
E sup(Mt − Mt ) ≤ 2k .
t≥0 2

Avec l’inégalité de Cauchy-Schwarz, on a alors


" +∞ # +∞  1/2 X+∞
X nk nk+1
X nk nk+1 2 1
E sup Mt − Mt ≤ E sup(Mt − Mt ) ≤ < +∞.
k=0
t≥0
k=0
t≥0
k=0
2k
6.1. Par rapport à une martingale bornée dans L2 123

On en déduit que presque sûrement


+∞
n
X
sup Mtnk − Mt k+1 < +∞. (6.1)
t≥0
k=0

Presque sûrement, la suite (Mtnk )t≥0 converge dans C 0 (R+ , R) muni de ∥ · ∥∞ . En effet, en
écrivant
p−1
X X
np
M nk+1 − M nk + M n0 et M = M nk+1 − M nk + M n0 ,
 
M =
k=0 k≥0

par (6.1), on a presque sûrement :

n
n
X
Mt k+1 − Mtnk

sup |Mt − Mt p | = sup
t≥0 t≥0
k≥p
n
X
≤ sup Mt k+1 − Mtnk −−−−→ 0,
t≥0 p→+∞
k≥p

on a la convergence uniforme de M np vers M = (Mt )t≥0 qui est donc dans C 0 (R+ , R). Sur
l’ensemble négligeable où il n’y a pas convergence, on impose Mt ≡ 0. Le processus limite
(Mt )t≥0 a alors des trajectoires continues.
L2 (Ω)
Comme, pour chaque t ≥ 0, Mtnk −−−−→ Mt , en passant à la limite dans L1 (Ω) dans la
k→+∞
propriété de martingale de (Mtnk )t≥0

E Mtnk |Fs = Msnk ,


 
∀s ≤ t

et on obtient celle de (Mt )t≥0 :


 
E Mt |Fs = Ms , ∀s ≤ t

qui est donc aussi une martingale. La suite (M n )n≥1 étant de Cauchy dans Hc2 , elle est
bornée pour ∥ · ∥Hc2 , on a alors pour tout n ≥ 1, t ≥ 0

E (Mtn )2 = E ⟨M n , M n ⟩t ≤ E ⟨M n , M n ⟩∞ = ∥M n ∥2Hc2 ≤ sup ∥M n ∥2Hc2


     
n≥0

soit
sup E (Mtn )2 < +∞.
 
n≥1
t≥0

La collection de variables aléatoires {Mtn : n ≥ 1, t ≥ 0} est donc uniformément bornée


dans L2 (Ω). Par conséquent, la martingale M = (Mt )t≥0 est aussi bornée dans L2 (Ω), ce
qui assure M ∈ Hc2 .
124 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

Enfin, comme M, M nk ∈ Hc2 , (M − M nk )2 − ⟨M − M nk , M − M nk ⟩ est une martingale


uniformément intégrable (Th. 5.31), on a

∥M nk − M ∥2Hc2 = E ⟨M nk − M, M nk − M ⟩∞ = E (M∞
 n
− M∞ )2 −−−−→ 0,
  
k
k→+∞

ce qui montre que la sous-suite (M nk )k≥0 converge vers M dans Hc2 . Finalement, comme
la suite de Cauchy (M n )n≥0 a une sous-suite convergeant vers M , elle converge entièrement
vers M dans Hc2 . □

Rappelons que Prog désigne la tribu progressive sur R+ × Ω (Déf. 4.4) et que les processus,
vus comme fonctions sur (R+ × Ω, Prog) sont appelés progressifs (Déf. 4.3).

Définition 6.4 (Espace L2 (M )) Pour M ∈ Hc2 , on note

L2 (M ) = L2 R+ × Ω, Prog, d⟨M, M ⟩ ⊗ dP


l’espace des processus progressifs H = (Ht )t≥0 tels que


Z +∞ 
2
E Ht d⟨M, M ⟩t < +∞.
0

L’espace L2 (M ) est un espace de Hilbert pour le produit scalaire


Z +∞ 
(H, K)L2 (M ) = E Hs Ks d⟨M, M ⟩s . (6.2)
0

Définition 6.5 (Processus simple) On note S le sous-espace vectoriel de L2 (M ) formé des


processus H, dits simples, de la forme
p−1
X
Ht = H(i) 1]ti ,ti+1 ] (t) (6.3)
i=0

où 0 < t0 < t1 < t2 < · · · < tp et pour chaque 0 ≤ i < p, H(i) est une variable aléatoire
Fti -mesurable et bornée.

Proposition 6.6 (Densité) Pour tout M ∈ Hc2 , l’espace S est dense dans L2 (M ).

Démonstration : Il suffit de montrer que si K ∈ L2 (M ) est orthogonal à S alors K = 0.


Supposons donc K orthogonal à S pour le produit scalaire (6.2).
On pose Z t
Xt = Ku d⟨M, M ⟩u , t ≥ 0.
0
Comme K et ⟨M, M ⟩ sont adaptés, on a la Ft -mesurabilité de Xt . Puis,
Z t 
E[|Xt |] = E Ku d⟨M, M ⟩u
0
6.1. Par rapport à une martingale bornée dans L2 125
"Z 1/2 #
t Z t
≤ E Ku2 d⟨M, M ⟩u d⟨M, M ⟩u
0 0

(par Kunita-Watanabe (5.19) pour d⟨M, M ⟩u )


Z t 1/2
2
 1/2
≤ E Ku d⟨M, M ⟩u E ⟨M, M ⟩t < +∞
0
(par Cauchy-Schwarz pour E)
car M ∈ Hc2 et K ∈ L2 (M ). On a donc Xt ∈ L1 (Ft ) pour tout t ≥ 0. Puis en considérant
H = F 1]s,t] ∈ S pour 0 ≤ s < t et F une variable aléatoire Fs -mesurable bornée, on a
H ⊥ K, soit :
Z   Z t 
0 = (H, K)L2 (M ) = E Hu Ku d⟨M, M ⟩u = E F Ku d⟨M, M ⟩u . (6.4)
s

Comme cela est vraie pour tout F ∈ L∞ (Fs ), (6.4) signifie E[Xt |Fs ] = Xs pour 0 ≤ s ≤ t.
Le processus X = (Xt )t≥0 est donc une martingale.
D’autre part, par la Proposition 5.14, X étant une intégrale contre un processus croissant
est aussi un processus à variation bornée avec X0 = 0. Le Théorème 5.30 exige alors d’avoir
X = 0, ie. Z t
Ku d⟨M, M ⟩u = 0 ∀t ≥ 0 ps.
0
Rt R
Comme 0 = 0 Ku d⟨M, M ⟩u = R+ Ku 1[0,t] (u) d⟨M, M ⟩u , la mesure Ku d⟨M, M ⟩u coı̈ncide
avec la mesure nulle sur la famille des intervalles [0, t], donc par un argument de classe
monotone sur tout B(R+ ). Cela assure que K est ps orthogonal à L2 (M ), ou encore K = 0
dans L2 (M ), établissant la densité de S dans L2 (M ). □

On commence la construction de l’intégrale stochastique avec le cas de processus simple H


à intégrer :
Définition 6.7 (Intégrale stochastique simple) Soit M ∈ Hc2 et H ∈ S de la forme (6.3).
On définit le processus H · M par
p−1
X
(H · M )t = H(i) (Mti+1 ∧t − Mti ∧t ), t ≥ 0.
i=0

Proposition 6.8 Soit M ∈ Hc2 et H ∈ S. Alors on a H · M ∈ Hc2 et on a la propriété de


crochet : Z t
⟨H · M, N ⟩t = Hs d⟨M, N ⟩s = (H · ⟨M, N ⟩)t , ∀N ∈ H2c . (6.5)
0

Remarque 6.9 — En général, on utilise la notation intégrale pour écrire ces processus :
Z t
(H · M )t = Hs dMs .
0
126 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

— L’intégrale H · ⟨M, N ⟩ qui figure dans le terme de droite de (6.5) est une intégrale de
Stieltjes par rapport à un processus à variation bornée ⟨M, N ⟩, comme défini dans
la Section 5.1.2.
— Pour M, N ∈ H2c , H, K ∈ S par symétrie et en itérant (6.5), et avec l’associativité
de l’intégrale de Stieltjes (Prop. 5.10-3)
⟨H · M, H · N ⟩ = H · ⟨M, H · N ⟩
= H · (H · ⟨M, N ⟩)
= H 2 · ⟨M, N ⟩.
De la même façon, on a ⟨H · M, K · M ⟩ = (HK) · ⟨M, M ⟩.
(i)
Démonstration : Pour H ∈ S de la forme (6.3), on écrit H · M = p−1 (i)
P
i=0 M où Mt :=
(i)
H(i) (Mti+1 ∧t − Mti ∧t ), t ≥ 0. On commence par observer que (Mt )t≥0 est une martingale
pour chaque i ∈ J0, p − 1K. En effet : pour s ≤ t,
— si s ≥ ti :
 (i)    
E Mt |Fs ] = E H(i) (Mti+1 ∧t − Mti ∧t )|Fs = H(i) E (Mti+1 ∧t − Mti ∧t )|Fs
= H(i) (Mti+1 ∧s − Mti ∧s ) = Ms(i) ;
— puis si s < ti :
 (i)    
E Mt |Fs ] = E H(i) (Mti+1 ∧t − Mti ∧t ) Fs = E E[H(i) (Mti+1 ∧t − Mti ∧t )|Fti ]|Fs
     
= E H(i) E (Mti+1 ∧t − Mti ∧t )|Fti Fs = E H(i) (Mti ∧t − Mti ∧t ) Fs
= 0 = Ms(i) .
(i) (i)
On a donc E[Mt |Fs ] = Ms pour tout t ≥ s et H ·M = p−1 (i)
P
i=0 M est bien une martingale.
2 2
De plus, comme H est bornée et M ∈ Hc , on a aussi H · M ∈ Hc .
Pour la deuxième partie, on suppose d’abord que H = H(i) 1]ti ,ti+1 ] . Comme M, N ∈ H2c ,
M N − ⟨M, N ⟩ est une martingale (car martingale locale bornée dans L2 d’après la Prop.
5.39). En remplaçant M par M ti+1 ou M ti , on a aussi
M ti+1 N − ⟨M, N ⟩ti+1 et M ti N − ⟨M, N ⟩ti
sont des martingales et par différence :
(M ti+1 − M ti )N − (⟨M, N ⟩ti+1 − ⟨M, N ⟩ti )
= M ti+1 N − ⟨M, N ⟩ti+1 − M ti N − ⟨M, N ⟩ti
 

est aussi une martingale. De plus, elle est nulle en t ≤ ti puisque


t t
Mt i+1 Nt − ⟨M, N ⟩ti+1 = Mti+1 ∧t Nt − ⟨M, N ⟩ti+1 ∧t = Mt Nt − ⟨M, N ⟩t
Mtti Nt − ⟨M, N ⟩tti = Mti ∧t Nt − ⟨M, N ⟩ti ∧t = Mt Nt − ⟨M, N ⟩t .
Comme H(i) ∈ Fti ,
H(i) M ti+1 − M ti N − H(i) ⟨M, N ⟩ti+1 − ⟨M, N ⟩ti
 

est encore une martingale : soit s ≤ t,


6.1. Par rapport à une martingale bornée dans L2 127

— si ti ≤ s, alors H(i) est Fs -mesurable et :


t t
E H(i) Mt i+1 − Mtti Nt − H(i) ⟨M, N ⟩ti+1 − ⟨M, N ⟩tti |Fs
   
t t
= H(i) E Mt i+1 − Mtti Nt − ⟨M, N ⟩ti+1 − ⟨M, N ⟩tti |Fs
   

= H(i) Msti+1 − Mtti Ns − H(i) ⟨M, N ⟩tsi+1 − ⟨M, N ⟩tsi


 
(6.6)

— si s < ti , alors
t t
E H(i) Mt i+1 − Mtti Nt − H(i) ⟨M, N ⟩ti+1 − ⟨M, N ⟩tti |Fs
   
h  i
t t
= E E H(i) Mt i+1 − Mtti Nt − H(i) ⟨M, N ⟩ti+1 − ⟨M, N ⟩tti |Fti |Fs
 
h i
t t
= E H(i) E Mt i+1 − Mtti Nt − ⟨M, N ⟩ti+1 − ⟨M, N ⟩tti |Fti |Fs
  
h i
ti+1 ti
 ti+1 ti

= E H(i) Mti − Mti Nti − H(i) ⟨M, N ⟩ti − ⟨M, N ⟩ti |Fs = 0
| {z }
=0
= H(i) Msti+1 − Msti Ns − H(i) ⟨M, N ⟩tsi+1 − ⟨M, N ⟩tsi e
 
(6.7)

Avec (6.6), (6.7), on a donc pour tout s ≤ t :


t t
E H(i) Mt i+1 − Mtti Nt − H(i) ⟨M, N ⟩ti+1 − ⟨M, N ⟩tti |Fs
   

= H(i) Msti+1 − Msti Ns − H(i) ⟨M, N ⟩tsi+1 − ⟨M, N ⟩tsi .


 

Ensuite, en sommant sur 0 ≤ i ≤ p − 1,


Z ·
(H · M )N − Hs d⟨M, N ⟩s
0
p−1 
X 
H(i) M ti+1 − M ti N − H(i) ⟨M, N ⟩ti+1 − ⟨M, N ⟩ti

=
i=0

reste aussi une martingale. D’après la Prop. 5.39, cette propriété identifie le crochet de
(H · M ) et de N :
⟨(H · M ), N ⟩ = H · ⟨M, N ⟩.

On poursuit la construction de l’intégrale stochastique à partir du cas H, processus simple,


de la Déf. 6.7, en passant au cas H ∈ L2 (M ) par densité (Prop. 6.6).

Théorème 6.10 (Intégrale stochastique L2 ) Soit M ∈ Hc2 . Alors, l’application H ∈ S 7−→


H · M s’étend en une isométrie de L2 (M ) dans Hc2 . De plus,
(1) la martingale H · M est caractérisée par la propriété de crochet :

⟨H · M, N ⟩ = H · ⟨M, N ⟩, ∀N ∈ Hc2 ; (6.8)


128 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

(2) puis, si T est un temps d’arrêt, on a la propriété d’arrêt :

(1[0,T ] H) · M = (H · M )T = H · M T . (6.9)

Avec des notations intégrales, cette dernière propriété s’écrit de façon naturelle :
Z t Z t∧T Z t
1[0,T ] (s)Hs dMs = Hs dMs = Hs dMsT .
0 0 0

Démonstration : L’application H ∈ S 7→ H · M est clairement linéaire. Puis pour H ∈ S,


on a vu que H · M est une martingale avec la propriété caractéristique (6.5) (Prop. 6.8).
On a

∥H · M ∥2Hc2 = E[⟨H · M, H · M ⟩∞ ]
= E[(H 2 · ⟨M, M ⟩)∞ ] (par (6.5) )
Z +∞ 
2
= E Hs d⟨M, M ⟩s
0
2
= ∥H∥L2 (M ) .

L’application H 7→ H · M est donc une isométrie de S dans Hc2 .


Comme Hc2 est un espace de Hilbert (Proposition 6.3) et comme S est dense dans L2 (M )
(Proposition 6.6), on peut prolonger de manière unique cette application en une isométrie
de L2 (M ) dans Hc2 .
1) On vérifie maintenant la propriété de crochet caractéristique (6.8). On sait déjà par
(6.5) qu’elle est vraie si H ∈ S. Pour la généraliser, notons que pour N ∈ Hc2 , l’application
 2
Hc −→ L1 (Ω)
(6.10)
X 7−→ ⟨X, N ⟩∞

est continue de Hc2 dans L1 (Ω) : en effet, par les inégalités (5.27) de Kunita-Watanabe
(Prop. 5.49) et de Cauchy-Schwarz,
1/2
⟨N, N ⟩1/2
   
E |⟨X, N ⟩∞ | ≤ E ⟨X, X⟩∞ ∞ (Kunita-Watanabe)
 1/2  1/2
= E ⟨X, X⟩∞ E ⟨N, N ⟩∞ (Cauchy-Schwarz)
 1/2
= E ⟨N, N ⟩∞ ∥X∥Hc2 .

Par densité de S dans L2 (M ) (Prop. 6.6), soit alors H ∈ L2 (M ) et (H n )n≥0 suite de S qui
H2
converge vers H dans L2 (M ). Par l’isométrie, on a alors H n · M −−−c−→ H · M . Puis par la
n→+∞
continuité de (6.10) :

⟨H · M, N ⟩∞ = L1 - lim ⟨H n · M, N ⟩∞ = L1 - lim (H n · ⟨M, N ⟩)∞ = (H · ⟨M, N ⟩)∞ ,


n→+∞ n→+∞
6.1. Par rapport à une martingale bornée dans L2 129

où les convergences ont lieu dans L1 (Ω) avec pour la dernière égalité l’utilisation, encore,
des inégalités (5.27) de Kunita-Watanabe et de Cauchy-Schwarz :
 Z +∞ 
E (Hs − Hs ) d⟨M, N ⟩s ≤ E[⟨N, N ⟩∞ ]1/2 ∥H n − H∥L2 (M ) .
n
0

(On justifie de la même façon que (H · ⟨M, N ⟩)∞ est bien défini.) On a donc établi la
propriété de crochet (6.8) pour t = +∞. Pour conclure, il faut l’obtenir pour tout t ≥ 0.
Pour cela, il suffit de remplacer N par la martingale arrêtée N t en t ≥ 0 dans l’égalité
⟨H · M, N ⟩∞ = (H · ⟨M, N ⟩)∞ et on trouve

⟨H · M, N ⟩t = ⟨H · M, N ⟩t∞ = ⟨H · M, N t ⟩∞
= (H · ⟨M, N t ⟩)∞ = (H · ⟨M, N ⟩t )∞ , = (H · ⟨M, N ⟩)t

ce qui achève de prouver la propriété de crochet (6.8).


La propriété (6.8) est bien caractéristique pour H · M : soit X une autre martingale de Hc2
qui satisfait la même propriété (6.8), on a pour tout N ∈ Hc2 ,

⟨H · M, N ⟩ = H · ⟨M, N ⟩ = ⟨X, N ⟩

soit
⟨H · M − X, N ⟩ = 0.
Le choix particulier N = H · M − X ∈ Hc2 donne alors ⟨H · M − X, H · M − X⟩ = 0 donc
∥H · M − X∥Hc2 = 0, ie. X = H · M . Cela termine la preuve de 1).
2) Pour prouver la dernière propriété, on utilise la propriété d’arrêt du crochet (5.18) de
deux martingales (Prop. 5.39) et la propriété caractéristique (6.8) déjà prouvée : si N ∈ Hc2 ,
on a
⟨(H · M )T , N ⟩ = ⟨H · M, N ⟩T = (H · ⟨M, N ⟩)T = (H1[0,T ] ) · ⟨M, N ⟩
où l’avant dernière égalité vient de (6.8) et la dernière égalité est évidente puisqu’il s’agit
d’une intégrale de Stieltjes. La martingale arrêtée (H · M )T vérifie donc la propriété carac-
téristique de l’intégrale (1[0,T ] H) · M . Cela justifie la première partie de (6.9). On obtient
la seconde partie en procédant de même :

⟨H · M T , N ⟩ = H · ⟨M T , N ⟩ = H · ⟨M, N ⟩T = (H1[0,T ] ) · ⟨M, N ⟩

où à nouveau la dernière égalité est due au fait qu’il s’agit d’une intégrale de Stieltjes. □

Le résultat suivant est une propriété d’associativité de l’intégrale stochastique sous


réserve de conditions convenables d’intégrabilité des processus à intégrer.

Proposition 6.11 (Associativité de l’intégrale stochastique L2 ) Soit M ∈ Hc2 , K ∈ L2 (M )


et H ∈ L2 (K · M ). Alors HK ∈ L2 (M ) et

(HK) · M = H · (K · M ). (6.11)
130 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

Démonstration : D’après le Théorème 6.10, on a


⟨K · M, K · M ⟩ = K · ⟨M, K · M ⟩ = K 2 · ⟨M, M ⟩,
et donc
Z +∞  Z +∞ 
E Hs2 Ks2 d⟨M, M ⟩s = E Hs2 d⟨K · M, K · M ⟩s < +∞
0 0

ce qui garantit HK ∈ L2 (M ). Pour (6.11), on montre la propriété caractéristique (6.8) : si


N ∈ Hc2 , on a :
⟨(HK) · M, N ⟩ = HK · ⟨M, N ⟩ = H · (K · ⟨M, N ⟩) = H · ⟨K · M, N ⟩ = ⟨H · (K · M ), N ⟩
où la deuxième égalité utilise l’associativité de l’intégrale de Stieltjes (Prop. 5.10-3)).
Comme l’égalité est vraie pour toute N ∈ Hc2 , elle exige (HK) · M = H · (K · M ). □

Remarque 6.12 (Moments des intégrales stochastiques) La proposition précédente légi-


time les écritures informelles suivantes :
Z t Z t
Hs (Ks dMs ) = (Hs Ks ) dMs .
0 0

De même (6.8) s’écrit


Z ·  Z t
Hs dMs , N = Hs d⟨M, N ⟩s .
0 t 0

En appliquant deux fois cette relation, on obtient aussi :


Z · Z ·  Z t
Hs dMs , Ks dNs = Hs Ks d⟨M, N ⟩s . (6.12)
0 0 t 0

En particulier, on a
Z · Z ·  Z t
Hs dMs , Hs dMs = Hs2 d⟨M, M ⟩s .
0 0 t 0

Soit M ∈ Hc2 , N ∈ Hc2 et H ∈ L2 (M ), K ∈ L2 (N ), comme H · M et (H · M )(K · N) −


⟨(H · M ), (K · N )⟩ sont des martingales (en utilisant (6.12)), on a pour tout t ∈ R+ les
moments suivants :
Z t 
E Hs dMs = 0 (6.13)
0
Z t  Z t  Z t 
E Hs dMs Ks dNs = E Hs Ks d⟨M, N ⟩s (6.14)
0 0 0
"Z 2 # Z t  t
E Hs dMs = E Hs2 d⟨M, M ⟩s . (6.15)
0 0
6.2. Par rapport à une martingale locale 131

Attention : Ces relations (6.13), (6.14) ne seront plus forcément vraies pour les extensions
de l’intégrale stochastique qu’on décrit ci-dessous pour les martingales locales.

Remarque 6.13 (Sur l’intégrale contre le mouvement brownien) Le mouvement brownien


est bien une martingale à trajectoires continues mais n’est pas borné dans L2 ; par exemple
avec le Théorème 5.36 parce que son crochet ⟨B, B⟩t = t → +∞ et donc E[⟨B, B⟩∞ ] = +∞
on a donc B ̸∈ Hc2 . Cette section ne permet donc toujours pas de construire une intégrale
contre le mouvement brownien. Les derniers obstacles sont levés dans la section suivante.

6.2 Par rapport à une martingale locale


En utilisant la propriété d’arrêt (6.9), on étend maintenant dans cette section la défini-
tion de H · M au cas où M est une martingale locale à trajectoires continues. Dans cette
section, on considère M une martingale locale à trajectoires continues issue de 0.

Définition 6.14 (Espaces L2loc (M )) On note L2loc (M ) l’espace des processus progressifs H
tels que pour tout t ≥ 0, Z t
Hs2 d⟨M, M ⟩s < +∞ ps.
0

Pour une martingale locale M , on continue à noter L2 (M ) l’espace des processus progressifs
H tels que Z +∞ 
E Hs2 d⟨M, M ⟩s < +∞.
0
Le résultat suivant achève (presque) la construction de l’intégrale stochastique, en consi-
dérant le cas d’une martingale locale M à trajectoires continues.

Théorème 6.15 (Intégrale stochastique générale) Soit M une martingale locale, à trajec-
toires continues, issue de 0. Alors pour tout H ∈ L2loc (M ), il existe une unique martingale
locale issue de 0, notée H · M étendant le Th. 6.10 et vérifiant la propriété de crochet :

⟨H · M, N ⟩ = H · ⟨M, N ⟩ ∀N martingale locale ; (6.16)

De plus, la propriété d’arrêt (6.9) reste vraie : si T est un temps d’arrêt, on a

(1[0,T ] H) · M = (H · M )T = H · M T . (6.17)

Rt
Remarque 6.16 — On note habituellement (H · M )t = 0 Hs dMs .
— Cette définition étend celle du Théorème 6.10 : si M ∈ Hc2 et H ∈ L2 (M ), alors les
définitions des deux théorèmes coı̈ncident.
En effet, si M ∈ Hc2 et H ∈ L2 (M ), l’égalité ⟨H · M, H · M ⟩ = H 2 · ⟨M, M ⟩ entraı̂ne
d’abord que H · M ∈ Hc2 , et ensuite les propriétés caractéristiques (6.8) et (6.16)
montrent que les définitions des Théorèmes 6.10 et 6.15 coı̈ncident.
132 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

— La propriété d’associativité de la Proposition 6.11 reste vraie aussi sous des hypo-
thèses convenables d’intégrabilité.
— Le mouvement brownien B est une martingaleRt locale pour laquelle le Théorème 6.15
définit donc l’intégrale (H · B)t = 0 Hs dBs pour H ∈ L2loc (B). Les intégrales
stochastiques par rapport au mouvement brownien B s’appellent les intégrales d’Itô.
Le calcul stochastique lié à ces intégrales est le calcul d’Itô.

Démonstration : On définit
 Z t 
Tn = inf t ≥ 0 : (1 + Hs2 ) d⟨M, M ⟩s ≥n .
0

Comme pour la Prop. 5.28, il s’agit d’une suite de temps d’arrêt, croissante vers +∞.
Comme on a
Z Tn Z Tn
Tn Tn
⟨M , M ⟩t = ⟨M, M ⟩t∧Tn ≤ d⟨M, M ⟩s ≤ (1 + Hs2 ) d⟨M, M ⟩s = n,
0 0

la martingale locale arrêtée M Tn est une (vraie) martingale bornée dans L2 par le Th. 5.36,
ie. M Tn est dans Hc2 . De plus, H ∈ L2 (M Tn ) car par définition de Tn , on a aussi
Z +∞ Z Tn Z Tn
Hs2 Tn Tn
d⟨M , M ⟩s = Hs2 d⟨M, M ⟩s ≤ (1 + Hs2 ) d⟨M, M ⟩s = n.
0 0 0

D’après le cas L2 borné, l’intégrale stochastique H · M Tn est bien définie pour chaque
n ≥ 1 par le Th. 6.10. Par la propriété caractéristique (6.8), on vérifie facilement que
nécessairement si m > n alors Tm ≥ Tn et on a

H · M Tn = (H · M Tm )Tn . (6.18)

En effet, pour toute martingale N ∈ H2c comme M Tn ∈ Hc2 et H ∈ L2 (M Tn ), en utilisant


la propriété de crochet (6.8) vue dans ce cadre :
Z t∧Tn
Tm Tn Tm
⟨(H · M ) , N ⟩t = ⟨(H · M ), N ⟩t∧Tn = Hs d⟨M Tm , N ⟩s
0
Z t∧Tn Z t∧Tn ∧Tm
Tm
= Hs d⟨M, N ⟩s = Hs d⟨M, N ⟩s
0 0
Z t∧Tn
= Hs d⟨M, N ⟩s = (H · ⟨M, N ⟩)Tt n = ⟨(H · M ), N ⟩Tt n
0
= ⟨(H · M )Tn , N ⟩t .

On a donc ⟨(H · M Tm )Tn − (H · M )Tn , N ⟩ = 0 pour toute N ∈ Hc2 . En particulier avec N =


(H ·M Tm )Tn −(H ·M )Tn ∈ Hc2 , on a ⟨(H ·M Tm )Tn −(H ·M )Tn , (H ·M Tm )Tn −(H ·M )Tn ⟩ = 0,
soit (6.18).
6.2. Par rapport à une martingale locale 133

Comme conséquence de (6.18), pour t ≤ Tn ≤ Tm , on a :

H · M Tn t = H · M Tm t∧Tn = H · M Tm t
  

et la définition suivante ne dépend alors pas de n et a bien un sens

(H · M )t = H · M Tn t ∀n tel que Tn ≥ t.

(6.19)

Le processus H · M ainsi construit en (6.19) étend tous les H · M Tn puisque pour tout
n ≥ 1,
(H · M )Tn = H · M Tn .

D’après le Théorème 6.10 (isométrie entre L2 (M ) et Hc2 ), les processus (H ·M )Tn = H ·M Tn


sont des martingales de Hc2 . Comme Tn ↗ +∞, H · M est en fait une martingale locale.
On montre que H · M contruit en (6.19) vérifie bien la propriété de crochet (6.16). Pour
cela, soit N une martingale locale issue de 0 et soit Tn′ = inf(t ≥ 0 : |Nt | ≥ n), n ≥ 1, une

suite de temps d’arrêt qui réduit N en une martingale bornée (N Tn ∈ H2c ). On pose alors
Sn = Tn ∧ Tn′ . Comme M Sn , N Sn ∈ H2c (Remarque 6.2), on a

⟨H · M, N ⟩Sn = ⟨(H · M )Sn , N Sn ⟩


= ⟨(H · M Tn )Sn , N Sn ⟩ (car Sn ≤ Tn ) (6.20)
Tn Sn
= ⟨H · M , N ⟩ (propriété (5.18) du crochet)
= H · ⟨M Tn , N Sn ⟩ (d’après (6.8) du cas L2 borné avec H ∈ L2 (M Tn ) et M Tn , N Sn ∈ Hc2 )
= H · ⟨M Tn , N ⟩Sn (propriété (5.18) du crochet)
= H · ⟨M, N ⟩Sn ∧Tn = H · ⟨M, N ⟩Sn ( car Sn ≤ Tn )
= (H · ⟨M, N ⟩)Sn (propriété de l’intégrale de Stieltjes). (6.21)

Comme Sn ↗ +∞, en faisant n → +∞, on déduit de (6.21) pour tout t ≥ 0 : ⟨H ·M, N ⟩t =


H · ⟨M, N ⟩t . Finalement, on a ⟨H · M, N ⟩ = H · ⟨M, N ⟩, établissant la propriété de crochet
(6.16) dans ce cas général.
La caractérisation de H · M par (6.16) se justifie exactement comme précédemment dans
le Th. 6.10 : si pour toute martingale locale N

⟨(H · M ), N ⟩ = H · ⟨M, N ⟩ = ⟨X, N ⟩,

alors pour la martingale locale N = (H · M ) − X, on a ⟨(H · M ) − X, (H · M ) − X⟩ = 0,


et donc (H · M ) − X = 0, à indistiguabilité près (cf. Prop. 5.38).
On termine avec la propriété d’arrêt (6.17) : elle est obtenue pour les martingales locales
par les mêmes arguments que dans la preuve du Th. 6.10 (noter que ces arguments utilisent
seulement la propriété caractéristique (6.8) qu’on vient d’étendre) :
— on a (H · M )T = (1[0,T ] H) · M car pour toute martingale locale :

⟨(H · M )T , N ⟩ = ⟨H · M, N ⟩T = (H · ⟨M, N ⟩)T = (H1[0,T ] ) · ⟨M, N ⟩.


134 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

— on a H · M T = (H1[0,T ] ) · M car pour toute martingale locale :

⟨H · M T , N ⟩ = H · ⟨M T , N ⟩ = H · ⟨M, N ⟩T = (H1[0,T ] ) · ⟨M, N ⟩.

Remarque 6.17 (Moments des intégrales stochastiques) Discutons maintenant de l’exten-


sion des formules de moments (6.13), (6.14) énoncées en Remarque 6.12. Soit M une mar-
tingale locale, H ∈ L2loc (M ) et t ∈ [0, +∞]. Alors, sous la condition
Z t 
2
 
E ⟨H · M, H · M ⟩t = E Hs d⟨M, M ⟩s < +∞,
0

on a H ∈ L2 (M t ) et on peut appliquer le Théorème 5.36 à H · M t = (H · M )t pour obtenir


"Z 2 #
Z t  t Z  t
E Hs dMs = 0, E Hs dMs =E Hs2 d⟨M, M ⟩s .
0 0 0

De façon générale, la propriété d’isométrie de l’intégrale stochastique du cas borné dans


L2 est remplacée par
"Z 2 #
t Z t 
2
E Hs dMs ≤E Hs d⟨M, M ⟩s . (6.22)
0 0

En effet, soit le majorant est +∞ et l’inégalité est vraie, soit il est fini et l’estimation de
la variance reste valable et donne l’égalité.

L’énoncé suivant établit une approximation par des sommes de Riemann des intégrales
stochastiques (contre une martingale locale) et complète Prop. 5.10-5) valable dans le cas
de processus à variation bornée.

Proposition 6.18 (Approximation de Riemann) Soit M une martingale locale à trajec-


toires continues et H un processus adapté à trajectoires continues. Alors, pour tout t > 0,
pour toute suite 0 = tn0 < · · · < tnpn = t de subdivisions de [0, t] de pas tendant vers 0, on
a, au sens de la convergence en probabilité :
pn −1 Z t
X
P- lim Htni (Mtni+1 − Mtni ) = Hs dMs . (6.23)
n→+∞ 0
i=0

Démonstration : On commence par observer que (6.23) est immédiate pour un processus
H (n) simple donné par
pn −1
X
(n)
H = Htni 1]tni ,tni+1 ] .
i=0
6.2. Par rapport à une martingale locale 135

Dans le cas général, on pose pour tout p ≥ 1 :



Tp = inf s ≥ 0 : |Hs | + ⟨M, M ⟩s ≥ p (6.24)

et on remarque que H, H (n) et ⟨M, M ⟩ sont bornés sur l’intervalle ]0, Tp ]. D’après la théorie
L2 de l’intégrale stochastique en Section 6.1 (avec notamment l’expression (6.14) pour le
moment d’ordre 2), on a pour tout p fixé :
h 2 i h 2 i
E (H (n) · M Tp )t − (H · M Tp )t = E (H (n) 1[0,Tp ] · M )t − (H1[0,Tp ] · M )t
h 2 i
= E ((H (n) − H)1[0,Tp ] ) · M t
Z t 
(n) 2
= E (Hs − Hs ) 1[0,Tp ] (s) d⟨M, M ⟩s
0
Z t∧Tp 
(n) 2
= E (Hs − Hs ) d⟨M, M ⟩s .
0

(n)
Sur [0, Tp ], on a (Hs − Hs )2 ≤ (2p)2 et ⟨M, M ⟩ bornée par p, on a :
(n)
— limn→+∞ Hs = Hs par continuité des trajectoires de H
(n)
— (Hs − Hs )2 1[0,Tp ] (s) ≤ (2p)2 1[0,Tp ] (s) avec
hZ t i
(2p) 1[0,Tp ] (s) d⟨M, M ⟩s ≤ 4p2 E ⟨M, M ⟩t∧Tp ≤ 4p3 .
2
 
E
0

Le théorème de convergence dominée s’applique pour la mesure P ⊗ d⟨M, M ⟩ et donne


h 2 i
(n) Tp Tp
lim E (H · M )t − (H · M )t = 0.
n→+∞

L2
On a donc (H (n) · M Tp )t −−−−→ (H · M Tp )t . Ensuite, en utilisant la propriété d’arrêt (6.17),
n→+∞
on en déduit la convergence dans L2

L2 - lim (H (n) · M )t∧Tp = (H · M )t∧Tp .


n→+∞

Pour conclure, on remarque que limp→+∞ P(Tp > t) = 1, ce qui affaiblit la convergence L2
obtenue en une convergence en probabilité, comme en (5.17) : pour t ≥ 0 et ε, η > 0 fixés,
on pose
An (ε) = (H (n) · M )t − (H · M )t ≥ ε


alors   
P An (ε) = P An (ε), t ≤ Tp + P An (ε), Tp < t
avec 
P An (ε), Tp < t ≤ P(Tp < t) ≤ η
136 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

pour p assez grand fixé dans la suite. On a alors

An (ε) ∩ {t ≤ Tp } = (H (n) · M )t∧Tp − (H · M )t∧Tp ≥ ε ∩ {t ≤ Tp }




et

lim sup P An (ε) ≤ P(Tp < t) + lim P (H (n) · M )t∧Tp − (H · M )t∧Tp ≥ ε ≤ η,


 
n→+∞ n→+∞

En faisant η ↘ 0, on obtient P(An (ε)) −−−−→ 0, soit, comme ε > 0 est quelconque :
n→+∞

(H (n) · M )t −−−−→ (H · M )t .
P
n→+∞

6.3 Par rapport à une semimartingale


On achève complètement dans cette section la construction de l’intégrale stochastique en
intégrant finalement par rapport aux semimartingales à trajectoires continues. Pour cela,
on dit qu’un processus progressif H est localement borné si

ps ∀t ≥ 0, sup |Hs | < +∞.


s≤t

En particulier, tout processus continu adapté est localement borné (cf. Prop. 4.6). De plus,
lorsque H est un processus localement borné :
— pour tout processus V à variation bornée, on a :
Z t Z t
ps ∀t ≥ 0, |Hs | |dVs | ≤ sup |Hs | |dVs | < +∞;
0 s≤t 0

— pour toute martingale locale M à trajectoires continues, on a H ∈ L2loc (M ) car pour


tout t ≥ 0, on a :
Z t  
Hs2 d⟨M, M ⟩s ≤ sup |Hs | ⟨M, M ⟩t < +∞.
0 s≤t

La définition suivante synthétise l’intégration par rapport à la partie martingale locale du


Th. 6.15 et l’intégrale par rapport à la partie processus à variation bornée (Section 5.1.2) :
Définition 6.19 (Intégrale par rapport à une semimartingale) Soit X = X0 + M + A une
semimartingale à trajectoires continues, et H un processus progressif localement borné.
L’intégrale stochastique H · X est alors définie par

H ·X =H ·M +H ·A (6.25)
6.3. Par rapport à une semimartingale 137

où H · M est définie dans la Section 6.2 (Th. 6.15) et H · A est définie en Section 5.1.3
en tant qu’intégrale de Stieltjes. Traditionnellement, on note :
Z t
(H · X)t = Hs dXs .
0

Des propriétés déjà vues pour l’intégrale contre une martingale locale et contre un processus
à variation bornée, on déduit facilement :

Proposition 6.20 (Propriétés de l’intégrale stochastique)


(1) L’application (H, X) 7→ H · X est bilinéaire.
(2) H · (K · X) = (HK) · X, si H et K sont localement bornés.
(3) (Propriété d’arrêt) Pour tout temps d’arrêt T , (H · X)T = (H1[0,T ] ) · X = H · X T .
(4) Lorsque X est une semimartingale, H · X est encore une semimartingale, de décom-
position (6.25). Lorsque X est une martingale locale (resp. lorsque X est un processus
à variation bornée), alors il en est de même pour H · X.
(5) (Intégrale simple) Si H est un processus progressif de la forme Hs = p−1
P
i=0 H(i) 1]ti ,ti+1 ] (s)
où, pour chaque i ∈ J1, p − 1K, H(i) est Fti -mesurable, alors

p−1
X
(H · X)t = H(i) (Xti+1 ∧t − Xti ∧t ).
i=0

(6) (Approximation de Riemann) Soit X une semimartingale à trajectoires continues et


soit H un processus adapté à trajectoires continues. Alors, pour tout t ≥ 0, pour toute
suite 0 = tn0 < · · · < tnpn = t de subdivisions de [0, t] de pas tendant vers 0, on a, au
sens de la convergence en probabilité :
pn −1 Z t
X
P- lim Htni (Xtni+1 − Xtni ) = Hs dXs .
n→+∞ 0
i=0

Démonstration : Toutes les propriétés viennent de celles vues en Section 5.1 pour la partie
variation bornée et en Section 6.2 pour la partie martingale locale. Par exemple, 6) vient de
la Prop. 5.10-5) (approximation de Riemann-Stieltjes pour l’intégrale de Stieltjes) et de la
Prop. 6.18 (approximation de Riemann pour l’intégrale stochastique contre une martingale
locale). □

Remarque 6.21
— Remarquer que dans la propriété 5 ), on ne suppose pas que les variables aléatoires
H(i) sont bornées.
138 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

— Le résultat d’approximation dans 6) généralise dans le cas de l’intégration stochas-


tique l’approximation des intégrales de Riemann. Ce résultat sera utile dans la suite,
notamment pour prouver la formule d’Itô.
— Dans ce résultat, il est essentiel de considérer Htni dans l’approximation de Riemann.
Un autre choix conduit à un autre type d’intégrale stochastique : par exemple Htni+1
mène à une intégrale dite anticipante, et H(tni+1 +tni )/2 mène à l’intégrale de Stra-
tonovich alors que pour le choix Htni , fait dans ce chapitre, on obtient l’intégrale
d’Itô.

Le résultat suivant est une version du théorème de convergence dominée pour les intégrales
stochastiques :

Théorème 6.22 (Convergence dominée pour l’intégrale stochastique) Soit X une semi-
martingale à trajectoires continues et (H (n) )n≥1 une suite de processus progressifs locale-
(n)
ment bornés telle que, pour tout t ≥ 0, limn→+∞ Ht = Ht et telle qu’il existe un processus
K borné satisfaisant |H (n) | ≤ K pour tout n ≥ 1. Alors, uniformément sur tout compact,
Z t Z t
Hs(n)
P
dXs −−−−→ Hs dXs .
0 n→+∞ 0

Démonstration : Il s’agit de voir pour tout t ≥ 0 :

sup |(H (n) · X)s − (H · X)s | −−−−→ 0.


P
(6.26)
s≤t n→+∞

On écrit X = X0 + M + A avec M martingale locale et A processus à variation bornée.


On a

sup |(H (n) ·X)s −(H ·X)s | ≤ sup |(H (n) ·M )s −(H ·M )s |+sup |(H (n) ·A)s −(H ·A)s | (6.27)
s≤t s≤t s≤t

et on s’intéresse aux deux termes de (6.27).


D’après le théorème de convergence dominée pour l’intégrale de Stieltjes (Prop. 5.10-4)),
on a
Z s
(n)
sup |(H · A)s − (H · A)s | = sup (Hs(n) − Hs ) dAs
s≤t s≤t 0
Z t
≤ |Hs(n) − Hs | |dAs | −−−−→ 0. (6.28)
0 n→+∞

Comme la martingale locale M est réduite par la suite de temps d’arrêt (Tp )p≥1 donnée
comme en (6.24) par

Tp = inf s ≥ 0 : Ks + ⟨M, M ⟩s ≥ p , p ≥ 1,
6.3. Par rapport à une semimartingale 139

alors H (n) converge vers H dans L2 (M Tp ) car


Z +∞ 
(n) 2 (n)
2 Tp Tp
H − H L2 (M Tp ) = E Hs − Hs d⟨M , M ⟩s
0
Z Tp 
(n) 2
= E (Hs − Hs ) d⟨M, M ⟩s .
0

(n) (n)
Comme Hs −−−−→ Hs pour tout s ≥ 0 et |(Hs − Hs )1[0,Tp ] (s)| ≤ 2Ks 1[0,Tp ] (s) ≤
n→+∞
2p1[0,Tp ] (s) avec
hZ i
2p1[0,Tp ] (s)d⟨M, M ⟩s ≤ p E ⟨M, M ⟩Tp = 2p2 < +∞,
 
E
R+

le théorème de convergence dominée s’applique avec la mesure P ⊗ d⟨M, M ⟩ et donne

lim H (n) − H L2 (M Tp )
= 0.
n→+∞

Par l’isométrie L2 du Théorème 6.10, pour chaque p ≥ 1 :


H2
H (n) · M Tp −−−c−→ H · M Tp .
n→+∞

En particulier comme
2
H (n) · M Tp − H · M Tp H (n) · M Tp − H · M Tp , H (n) · M Tp − H · M Tp
 

est une martingale uniformément intégrable (Th. 5.36), avec l’inégalité de moment de Doob
(Prop. 4.18 avec p = q = 2), on a pour tout t ≥ 0 :
2  2 
E sup H (n) · M Tp − H · M Tp s ≤ 4 E H (n) · M Tp − H · M Tp t
 
s≤t

= 4 E H (n) · M Tp − H · M Tp , H (n) · M Tp − H · M Tp t
   

≤ 4 E H (n) · M Tp − H · M Tp , H (n) · M Tp − H · M Tp ∞
   
2
= 4 H (n) · M Tp − H · M Tp −−−−→
Hc2 n→+∞
0. (6.29)

Finalement, comme limp→+∞ P(Tp ≥ t) = 1, on déduit la convergence en probabilité comme


en (5.17) : pour ε, η > 0 fixé, on pose
 
(n)
An (ε) = sup (H · M )s − (H · M )s ≥ ε
s≤t

alors   
P An (ε) = P An (ε), t ≤ Tp + P An (ε), Tp < t
140 Chapitre 6. ©JCB – M2 Math. – Université de Rennes

avec

P An (ε), Tp < t ≤ P(Tp < t) ≤ η
pour p assez grand fixé dans la suite. On a alors
( )
An (ε) ∩ {t ≤ Tp } = sup (H (n) · M )s − (H · M )s ≥ ε ∩ {t ≤ Tp }
s≤t∧Tp
 
(n) Tp Tp
= sup (H · M )s − (H · M )s ≥ ε ∩ {t ≤ Tp }
s≤t

et par (6.29) :
 
(n) Tp Tp

lim sup P An (ε) ≤ P(Tp < t) + lim P sup (H · M )s − (H · M )s ≥ ε ≤ η.
n→+∞ n→+∞ s≤t

En faisant η ↘ 0, on obtient P(An (ε)) −−−→ 0, soit, comme ε > 0 est quelconque :
→+∞

sup (H (n) · M )s − (H · M )s −−−−→ 0.


P
(6.30)
s≤t n→+∞

En combinant (6.27), (6.28), (6.30), on obtient (6.26). □

6.4 Cas de processus à trajectoires non continues


La théorie d’intégration stochastique présentée dans ce chapitre s’applique pour des semi-
martingales à trajectoires continues. On pourrait s’intéresser à des semimartingales à tra-
jectoires càdlàg (continues à droite et avec des limites à gauche) ou càglàd (continues à
gauche avec des limites à droite). On intègre alors des processus dits prévisibles ((Ft− )t≥0 -
adaptés et continus à gauche) ou optionnels ((Ft )t≥0 - adaptés et continus à droite). Dans
le cadre càdlàg, la décomposition d’une semimartingale en martingale locale + processus à
variation bornée n’est plus unique (heuristiquement : on peut jouer sur les sauts) à moins
d’imposer par exemple que le processus à variation bornée soit prévisible (dans ce cas, on
′′
fixe′′ les sauts).
Il faut cependant introduire deux crochets [M, M ]t et ⟨M, M ⟩t (qui est la projection prévi-
sible de [M, M ]t ). Chacun de ces deux crochets hérite d’une des propriétés fondamentales
(5.8), (5.9) de l’unique crochet défini dans le cadre continu (cf. Théorème 5.31), on retrouve
ainsi que
— [M, M ]t = lim|∆|→0 ti ∈∆ (Mti+1 − Mti )2 est la variation quadratique de M où ∆ est
P
une subdivision de [0, t] et |∆| désigne son pas.
— ⟨M, M ⟩ = (⟨M, M ⟩t )t≥0 est l’unique processus prévisible tel que M 2 − ⟨M, M ⟩ est
une martingale locale.
6.4. Cas de processus à trajectoires non continues 141

Dans ce contexte, il faut alors porter une attention particulière aux sauts ∆Xt = Xt − Xt−
du processus. On consultera [Pro] pour une introduction au calcul stochastique avec saut
ou, pour le cas spécifique des processus de Lévy, [CT] ou [App].
142 Chapitre 6. ©JCB – M2 Math. – Université de Rennes
Bibliographie

[App] David Applebaum. Lévy Processes and Stochastic Calculus. Cambridge series in
advanced mathematics, vol. 93, 2004.
[BC] Bernard Bercu, Djalil Chafaı̈. Modélisation stochastique et simulation. Dunod, 2007.
[JCB-mesure] Jean-Christophe Breton. Intégrale de Lebesgue. Notes de cours, L3 Mathé-
matiques, Université de Rennes 1, 2016.
[JCB-proba] Jean-Christophe Breton. Fondement des probabilités. Notes de cours, L3 Ma-
thématiques, Université de Rennes 1, 2014.
[JCB-martingale] Jean-Christophe Breton. Probabilités avancées. Notes de cours, M1 Ma-
thématiques, Université de Rennes 1, 2022.
[JCB-stoch] Jean-Christophe Breton. Calcul stochastique. Notes de cours, M2 Mathéma-
tiques, Université de Rennes 1, 2021.
[Bil2] Patrick Billingsley. Convergence of Probability Measures. 2nd Edition, Wiley series
in probabilities and mathematical statistics, 1999.
[Chung] Kai Lai Chung. A Course in Probability Theory. 3rd Edition, Academic Press,
2001.
[CM] Francis Comets, Thierry Meyre. Calcul stochastique et modèles de diffusions. Dunod,
2006.
[CT] Rama Cont, Peter Tankov. Financial Modelling with Jump Processes. Chapman &
Hall, 2003.
[Dav] Youri Davydov. Cours de DEA ”Processus stochastiques”. Université Lille 1, 1999.
[DM] Claude Dellacherie, Pierre-André Meyer. Probabilités et potentiels. Hermann, 1975.
[EGK] Nicole El Karoui, Emmanuel Gobet, Etienne Pardoux. Introduction au calcul sto-
chastique. École Polytechnique, 2001.
[Fel] William Feller. An Introduction to Probability Theory and Its Applications. Vol. 1.
3rd Edition, Wiley series in probabilities and mathematical statistics, 1968.
[Gal] Léonard Gallardo. Mouvement brownien et calcul d’Itô. Coll. Méthodes mathéma-
tiques. Ed. Hermann. 2008.
[Gué] Hélène Guérin. Processus à temps continu. Notes de cours, M2 Mathématiques, Uni-
versité de Rennes 1, 2009.

143
144 Bibliographie

[Kal] Olav Kallenberg. Foundations of Modern Probability. 2nd Edition, Springer Series in
Statistics. Probability and its Applications, 2002.
[KS] Ioannis Karatzas, Steven E. Shreve. Brownian Motion and Stochastic Calculus. Sprin-
ger, 1987.
[Kin] John Kingman. Poisson Processes. Oxford University Press, 1993.
[LG0] Jean-François Le Gall. Introduction au mouvement brownien. Gazette des Mathé-
maticiens, vol. 40, 1989.
[LG1] Jean-François Le Gall. Mouvement brownien, martingales et calcul stochastique.
Spinger, Coll. Mathématiques et applications, vol. 71, 2013.
[Lif] Michel Lifshits. Gaussian Random Functions, Kluwer, 1995.
[Mal] Florent Malrieu. Processus de Markov et inégalités fonctionnelles. Notes de cours de
Master 2, 2006.
[Pro] Philipp Protter. Stochastic Integration and Differential Equations. Springer, 1995.
[RY] Daniel Revuz, Marc Yor. Continuous Martingales and Brownian Motion. Springer,
[Link]
[Tud] Ciprian Tudor. Cours de calcul stochastique. Notes de cours M2 Mathématiques,
Université Lille 1, 2011.

Vous aimerez peut-être aussi