0% ont trouvé ce document utile (0 vote)
102 vues93 pages

Calcul Stochastique Avancé

Transféré par

palace
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
102 vues93 pages

Calcul Stochastique Avancé

Transféré par

palace
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Calcul stochastique et modèles de diffusion

Cyril Labbé

Année universitaire 2023/2024


M2MO : Modélisation Aléatoire, Finance et Data Science
Université Paris Cité
Probabilités

2
Université Paris Cité
Table des matières

I Mouvement Brownien 5
1 Processus à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Définition du mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3 Continuité des trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4 Quelques propriétés du mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . 14
5 Propriété de Markov forte du mouvement Brownien . . . . . . . . . . . . . . . . . . 16
6 Mesure de Wiener, mouvement Brownien multi-dimensionnel . . . . . . . . . . . . . 19

II Martingales 21
1 Martingales à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1) Inégalités maximales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3) Martingales fermées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3 Variation finie et martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

III Intégrale stochastique et formule d’Itô 35


1 Intégrale stochastique contre le mouvement Brownien . . . . . . . . . . . . . . . . . 36
1) Intégrale stochastique des processus élémentaires . . . . . . . . . . . . . . . . 36
2) Intégrale stochastique des processus progressifs intégrables . . . . . . . . . . . 39
3) Intégrale stochastique des processus progressifs localement intégrables . . . . 41
4) Un résultat d’approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2 Intégrale stochastique contre une martingale continue . . . . . . . . . . . . . . . . . 44
3 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

IV Outils en calcul stochastique 49


1 Martingales exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2 Caractérisation de Lévy et théorème de Dubins-Schwarz . . . . . . . . . . . . . . . . 51
3 Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Inégalités de Burkholder-Davis-Gundy . . . . . . . . . . . . . . . . . . . . . . . . . . 55

V Equations différentielles stochastiques et processus de diffusion 57


1 Processus d’Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2 Solutions fortes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3 Solutions fortes - dimensions quelconque . . . . . . . . . . . . . . . . . . . . . . . . . 63

3
Probabilités

4 Solutions faibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1) Un exemple d’EDS sans solution forte . . . . . . . . . . . . . . . . . . . . . . 64
2) Un résultat d’existence utilisant le théorème de Girsanov . . . . . . . . . . . 65

VI Processus de Markov et EDP 67


1 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2 Liens avec des EDP linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
1) Générateur infinitésimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2) Equation de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3) EDP parabolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4) Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

A Généralités 75
1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2 Caractérisation d’une loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1) Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2) Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5 Modes de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

B Uniforme intégrabilité 81

C Martingales à temps discret 85


1 Théorème d’arrêt borné . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2 Inégalités maximales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3 Convergence de martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4 Martingales fermées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

4
Université Paris Cité
Chapitre I

Mouvement Brownien

Approx. 2 séances de cours

1 Processus à temps continu


Définition I.1
Soit pE, Eq un ensemble mesurable, T un ensemble quelconque et pΩ, F, Pq un espace de probabilité.
On dit que pXt , t P Tq est un processus stochastique sur pΩ, F, Pq à valeurs dans pE, Eq si pour tout
t P T, Xt est une variable aléatoire de pΩ, Fq dans pE, Eq.

Lorsque T “ N, on parle de processus à temps discret. Lorsque T est égal à R` ou à un intervalle


quelconque de R, on parle de processus à temps continu. L’essentiel de ce cours porte sur les pro-
cessus stochastiques à temps continu et à valeurs réelles. De façon générique, on supposera dans la
suite que T “ R` , et que E “ R muni de la tribu Borélienne E “ BpRq (mais toutes les définitions
présentées font encore sens si T est un intervalle borné, etc.).

Etant donné un processus stochastique pXt , t P R` q et un n-uplet t1 , . . . , tn P R` , le vecteur


pXt1 , . . . , Xtn q forme une variable aléatoire à valeurs dans Rn . Les variables Xt sont appelées mar-
ginales uni-dimensionnelles, et les vecteurs pXt1 , . . . , Xtn q marginales finies-dimensionnelles. Ces
variables aléatoires peuvent être vues comme des projections d’un objet plus gros : l’application

X : Ω Ñ RR`
ω ÞÑ pXt pωq, t P R` q

qui prend ses valeurs dans un espace de trajectoires.

De quelle tribu peut-on munir cet espace de trajectoires ? La réponse la plus simple est : la tribu
produit BpRqbR` , c’est-à-dire, la plus petite tribu sur RR` rendant mesurables les applications
coordonnées t ÞÑ xt pour tout t P R` . On notera qu’il s’agit également de la plus petite tribu
contenant les cylindres de dimension finie, c’est-à-dire, les sous-ensembles de RR` de la forme
ź
At , avec At P BpR` q , et #tt P R` : At ‰ Ru ă 8 .
tPR`

5
Probabilités

Lemme I.2
Si pXt , t P R` q est un processus stochastique, alors l’application X définie ci-dessus est mesurable
de pΩ, Fq dans pRR` , BpRqbR` q.

Démonstration Si l’on note C la classe des cylindres de dimension finie, alors X ´1 pCq Ă F
par définition d’un processus stochastique ; or σpCq n’est rien d’autre que la tribu produit et une
propriété générale de théorie de la mesure assure que X ´1 pσpCqq “ σpX ´1 pCqq et ainsi X est
mesurable. l
Ainsi un processus stochastique pXt , t P R` q peut être vu comme une variable aléatoire à valeurs
dans un espace de trajectoires. La loi P d’un tel processus stochastique est la mesure image de P
par l’application X. Comme la classe des cylindres est stable par intersection finie, un corollaire
du théorème de classe monotone assure que la loi d’un processus stochastique est entièrement
caractérisée par la donnée de PpCq pour tout C P C. Or si l’on note t1 , . . . , tn les indices pour
lesquels At ‰ R on observe que

PpCq “ PppXt1 , . . . , Xtn q P At1 ˆ ¨ ¨ ¨ ˆ Atn q .

Ainsi la loi d’un processus stochastique est entièrement caractérisée par les lois de ses margi-
nales fini-dimensionnelles : si Y est un autre processus stochastique et si pour tout n et tous
t1 , . . . , tn P R` les vecteurs pXt1 , . . . , Xtn q et pYt1 , . . . , Ytn q ont même loi, alors X et Y ont même
loi.

A ce stade, il nous faut formuler une observation subtile mais importante. Si pXt , t P R` q est un
processus stochastique, rien n’assure que les ensembles

tω : @t P r0, 1s : Xt pωq ď 10u , tω : t ÞÑ Xt pωq est continuu ,

soient mesurables en général. En effet, ces ensembles dépendent d’une collection non-dénombrables
d’indices t P R` , et ne peuvent pas s’écrire a priori comme union/intersection dénombrables
d’événements ne faisant intervenir que les marginales uni-dimensionnelles. Autrement dit, les en-
sembles
t@t P r0, 1s : xt ď 10u , tt ÞÑ xt est continuu ,
n’appartiennent pas à la tribu produit et rien ne dit que X reste mesurable si l’on munit l’ensemble
des trajectoires d’une tribu contenant ces ensembles.
Nous reviendrons sur la continuité des trajectoires d’un processus stochastique un peu plus loin
dans ce chapitre.

La tribu engendrée par un processus stochastique X, parfois notée σpXq, est la plus petite tribu
rendant mesurables les v.a. Xt , t P R` . On dira qu’un processus stochastique X est indépendant
d’une tribu G (sur Ω) si les tribus σpXq et G sont indépendantes. On peut vérifier que cela est vrai
si et seulement si toutes les marginales finies dimensionnelles de X sont indépendantes de la tribu G.

Citons à présent un résultat important d’existence de processus stochastiques. Sa preuve repose


sur des arguments délicats de construction de mesures et est omise.
Théorème I.3 (Théorème d’extension de Kolmogorov )
Pour toute partie finie I de R` , soit PI une mesure de probabilité sur RI . On suppose que les

6
Université Paris Cité
Probabilités

mesures pPI qI sont compatibles au sens suivant :

pPJ q|I “ PI , I Ă J Ă R` , J fini .

Alors il existe une unique mesure de probabilité P sur la tribu produit de RR` telle que P|I “ PI
pour toute partie finie I Ă R` .

Nous allons appliquer ce théorème pour constuire des processus gaussiens.


Définition I.4
On dit qu’un processus stochastique pXt , t P R` q est gaussien si toutes ses marginales finies-
dimensionnelles forment des vecteurs gaussiens.

Autrement dit, un processus stochastiqueřpXt , t P R` q est gaussien si pour tous t1 , . . . , tn P R` et


tous λ1 , ¨ ¨ ¨ , λn P R, la variable aléatoire ni“1 λi Xti est gaussienne.

Proposition I.5
La loi d’un processus gaussien pXt , t P R` q est complétement caractérisée par la donnée de sa
fonction moyenne et de sa fonction de covariance :

t ÞÑ ErXt s , ps, tq ÞÑ CovpXs , Xt q .

Démonstration Il est bien connu que la loi d’un vecteur gaussien pXt1 , . . . , Xtn q est caractérisée
par son vecteur moyenne et sa matrice de covariance. Or ces deux quantités sont complétement
décrites par les fonctions introduites dans l’énoncé. Pour conclure, on rappelle que la loi d’un proces-
sus stochastique est complétement caractérisée par les lois de ses marginales finies-dimensionnelles.
l
Réciproquement, on se donne une fonction t ÞÑ mt de R` dans R ainsi qu’une fonction Γ : R` ˆ
R` Ñ R vérifiant :
n
ÿ
Γps, tq “ Γpt, sq , λi λj Γpti , tj q ě 0 , @n ě 1 , λi P R , ti P R` .
i,j“1

Le théorème d’extension de Kolmogorov assure qu’il existe un processus gaussien de fonction


moyenne égal à m et de fonction de covariance donnée par Γ. En effet, pour tout ensemble fini
I Ă R` il est bien connu que la loi normale N pm|I , Γ|I q existe, où m|I et Γ|I sont les restrictions
à I et I ˆ I des fonctions m et Γ. Par ailleurs, il est facile de vérifier la propriété de consistence :
la restriction de la loi normale N pm|J , Γ|J q aux indices I est la loi normale N pm|I , Γ|I q, pour tout
I Ă J Ă R` avec J fini.

On notera que si X est un processus gaussien de moyenne m et de fonction de covariance Γ, alors


pXt ´ mt , t P R` q est un processus gaussien centré de même fonction de covariance.

2 Définition du mouvement Brownien


Définition I.6
Un processus stochastique pBt , t P R` q est appelé mouvement Brownien (issu de 0) si :
7
Université Paris Cité
Probabilités

1. B est un processus gaussien centré de fonction de covariance

CovpBs , Bt q “ ErBs Bt s “ minps, tq , @s, t P R` ,

2. les trajectoires de B sont continues.

Quelques remarques s’imposent. Tout d’abord, un tel processus vérifie B0 “ 0 p.s. car toute variable
gaussienne de variance nulle est égale p.s. à sa moyenne. Par ailleurs, par la Proposition I.5 la loi
d’un processus vérifiant cette définition est unique. On pourra parler de la loi du mouvement
Brownien sans ambiguité.
L’existence d’un processus vérifiant la première condition a déjà été démontrée : en effet, il n’est
pas difficile de vérifier que la fonction de covariance de la définition est bien symétrique positive
et l’on peut alors appliquer le théorème d’extension de Kolmogorov comme expliqué à la section
précédente. En revanche la continuité d’un tel processus n’est pas acquise : ce faisant, l’existence
du mouvement Brownien reste à établir. Ce sera l’objet des deux sections suivantes.
Notons enfin qu’il existe des processus gaussiens qui ne sont pas continus. Par exemple, si X est
un processus gaussien centré de fonction de covariance Γps, tq “ minps, tq1ts,tPQ` u , alors X est
constant égal à 0 aux temps irrationnels et a une variance non-triviale aux temps rationnels : s’il
était continu, il serait constant égal à 0 partout.
Commençons par manipuler les propriétés présentées dans la définition.
Proposition I.7
Soit pBt , t P R` q un processus stochastique. Il y a équivalence entre :
(i) B est un processus gaussien centré de fonction de covariance CovpBs , Bt q “ minps, tq,
(ii) B vérifie :
(a) B0 “ 0 p.s.,
(b) pour tout n ě 2, pour tous 0 ď t1 ă t2 ă . . . ă tn , les variables aléatoires Bt1 , Bt2 ´ Bt1 ,
. . ., Btn ´ Btn´1 sont indépendantes,
(c) pour tous 0 ď s ď t, la variable Bt ´ Bs suit la loi gaussienne N p0, t ´ sq

Ainsi tout processus B dont les trajectoires sont continues et qui satisfait les propriétés (a), (b) et
(c) est un mouvement Brownien.
Démonstration Supposons que B vérifie (i). On a déjà vu plus haut que B0 “ 0 p.s, d’où le
point (a). Par ailleurs la variable Bt ´ Bs est gaussienne centrée de variance

VarpBt ´ Bs q “ VarpBt , Bt q ´ 2 CovpBs , Bt q ` VarpBs , Bs q “ t ´ s ,

ce qui prouve le point (c). En ce qui concerne les point (b), le vecteur pBt1 , Bt2 ´Bt1 , ¨ ¨ ¨ , Btn ´Btn´1 q
étant gaussien, il suffit de vérifier que sa matrice de covariance est diagonale (exercice).
Supposons que B vérifie (ii). Les points (b) et (c) assurent que pour tout n ě 2 et pour tous
0 ď t1 ă t2 ă . . . ă tn , les variables Bt1 , Bt2 ´Bt1 , . . ., Btn ´Btn´1 sont indépendantes et gaussiennes
centrées de variances t1 , t2 ´ t1 , ¨ ¨ ¨ , tn ´ tn´1 ; ces variables forment donc un vecteur gaussien de
matrice de covariance diagonale avec pour entrées sur la diagonale les variances précédentes. La
stabilité sous transformation linéaire des vecteurs gaussiens assure que pBt1 , ¨ ¨ ¨ , Btn q forme un

8
Université Paris Cité
Probabilités

vecteur gaussien centré tel que pour tous 1 ď i ď j ď n


j
i ÿ
ÿ
CovpBti , Btj q “ CovpBtk ´ Btk´1 , Bt` ´ Bt`´1 q
k“1 `“1
ÿi
“ VarpBtk ´ Btk´1 q
k“1
“ ti “ minpti , tj q .

On a donc prouvé que B est un processus gaussien centré de fonction de covariance CovpBs , Bt q “
minps, tq. l

Corollaire I.8
Soit B un mouvement Brownien. Pour tout n ě 1 et tous 0 ď t1 ă ¨ ¨ ¨ ă tn , la loi du vecteur
pBt1 , Bt2 , . . . , Btn q admet une densité sur Rn donnée par
˜ ¸
n
1 ÿ pxi ´ xi´1 q2
ppx1 , . . . , xn q “ a exp ´ ,
p2πqn{2 t1 pt2 ´ t1 q ¨ ¨ ¨ ptn ´ tn´1 q i“1
2pti ´ ti´1 q

avec x0 “ 0 et px1 , . . . , xn q P Rn .

Démonstration Comme on l’a vu dans la preuve précédente, le vecteur pBt1 , Bt2 ´ Bt1 , ¨ ¨ ¨ , Btn ´
Btn´1 q est composé de v.a. gaussiennes centrées indépendantes, il est donc gaussien et admet pour
densité
˜ ¸
n
1 ÿ pyi ´ yi´1 q2
ppy1 , . . . , yn q “ a exp ´ .
p2πqn{2 t1 pt2 ´ t1 q ¨ ¨ ¨ ptn ´ tn´1 q i“1
2pti ´ ti´1 q

En appliquant le changement de variables xi “ y1 ` ¨ ¨ ¨ ` yi (de Jacobien égal à 1) on obtient le


résultat voulu. l
Pour l’instant, nous n’avons pas établi l’existence du mouvement Brownien : la difficulté réside
dans la continuité des trajectoires, que nous examinons à présent.

3 Continuité des trajectoires


Afin de prouver l’existence du mouvement Brownien, nous allons nous appuyer sur un résultat
général dû à Kolmogorov qui affirme que, sous une hypothèse sur les moments d’un processus
stochastique, on peut “modifier” le processus pour le rendre continu. Commençons par introduire
cette notion de modification :
Définition I.9
Soient deux processus stochastiques pXt , t P Iq et pX̃t , t P Iq indexés par un ensemble I Ă R, et
définis sur un même espace de probabilité. On dit que X̃ est une modification de X si

@t P I, PpXt “ X̃t q “ 1 .

9
Université Paris Cité
Probabilités

On notera que si X̃ est une modification de X, alors les marginales de dimension finie des deux
processus coı̈ncident et ainsi les deux processus ont même loi. En revanche, il se peut que les
trajectoires des deux processus soient très différentes ! En effet, l’égalité de la définition ne fournit
aucun contrôle sur des collections non-dénombrables d’indices t P I. Pour cela, il faut imposer une
condition plus forte, ce qui donne lieu à la notion suivante.
Définition I.10
Soient deux processus stochastiques pXt , t P Iq et pX̃t , t P Iq indexés par un ensemble I Ă R, et
définis sur un même espace de probabilité. On dit que X et X̃ sont indistinguables si

Pp@t P I : Xt “ X̃t q “ 1 .

Remarque I.11
Une formulation plus rigoureuse est : On dit que X et X̃ sont indistinguables s’il existe un sous-
ensemble N Ă Ω qui est négligable, c’est-à-dire, N est inclus dans un événement de mesure nulle
et tel que
@ω P ΩzN, @t P I, Xt pωq “ X̃t pωq .
En supposant N négligeable, on relâche la contrainte de mesurabilité de l’ensemble des réalisations
où les deux processus diffèrent. Il s’agit là d’un point de détail.

Il est facile de vérifier que si deux processus sont indistinguables, alors l’un est une modification de
l’autre.
Théorème I.12 (Théorème de continuité de Kolmogorov )
Soit pXt , t P Iq un processus stochastique à valeurs réelles indicé par un intervalle borné I Ă R.
Supposons qu’il existe des réels q, , C ą 0 tels que pour tous s, t P I

Er|Xs ´ Xt |q s ď C|t ´ s|1` .

Alors il existe une modification X̃ de X dont les trajectoires sont Hölderiennes d’exposant α pour
tout ω P Ω et tout α Ps0, {qr, c’est-à-dire, pour tout α Ps0, {qr il existe une variable aléatoire
positive Cα telle que pour tous s, t P I et tout ω P Ω

|X̃s pωq ´ X̃t pωq| ď Cα pωq|t ´ s|α .

Dans la preuve, nous aurons besoin du lemme technique suivant. Soit D l’ensemble dénombrable
des nombres dyadiques de l’intervalle r0, 1s.
Lemme I.13
Soit f : r0, 1s Ñ R. On suppose qu’il existe α, K ą 0 tels que pour tout entier n ě 1 et tout
i P t1, . . . , 2n u
|f ppi ´ 1q2´n q ´ f pi2´n q| ď K2´nα .
Alors pour tous s, t P D
2K
|f psq ´ f ptq| ď |t ´ s|α .
1 ´ 2´α

10
Université Paris Cité
Probabilités

Démonstration Soient s, t P D tels que s ă t. On note p ě 0 l’unique entier tel que 2´p ď t ´ s ă
2´pp´1q . Nécessairement il existe k, `, m entiers tels que

s “ k2´p ´ p`1 2´p´1 ´ ¨ ¨ ¨ ´ p`` 2´p´` ,


t “ k2´p ` 1p 2´p ` 1p`1 2´p´1 ` ¨ ¨ ¨ ` 1p`m 2´p´m .

où les i , 1j valent 0 ou 1. On pose

si “ k2´p ´ p`1 2´p´1 ´ ¨ ¨ ¨ ´ p`i 2´p´i , i P t0, . . . , `u


´p
tj “ k2 ` 1p 2´p ` 1p`1 2´p´1 ` ¨¨¨ ` 1p`j 2´p´j , j P t0, . . . , mu .

On observe que s` “ s et tm “ t. Ainsi l’hypothèse du lemme assure que

|f psq ´ f ptq| “ |f ps` q ´ f ptm q|


`
ÿ m
ÿ
ď |f ps0 q ´ f pt0 q| ` |f psi´1 q ´ f psi q| ` |f ptj´1 q ´ f ptj q|
i“1 j“1
´ `
ÿ m
ÿ ¯
´pα ´pp`iqα ´pp`jqα
“K 2 ` 2 ` 2
i“1 j“1

ď 2K2 ´pα
p1 ´ 2 ´α ´1
q ď 2Kpt ´ sqα p1 ´ 2´α q´1 .

l
Présentons à présent la preuve du théorème. On va se restreindre aux indices de temps dyadiques
et montrer que le processus X, restreint aux dyadiques, est continu p.s. (cela fait sens car on ne
manipule qu’un nombre dénombrable de v.a.). Puis on étendra cette définition à tous les indices
de temps par densité des dyadiques et continuité. Il ne restera plus qu’à vérifier que l’objet ainsi
construit est bien une modification du processus de départ.
Démonstration [du Théorème de continuité de Kolmogorov] Sans perte de généralité, on peut
supposer que I “ r0, 1s. On fixe α Ps0, {qr. L’hypothèse de l’énoncé combinée à l’inégalité de
Markov assure que pour tout n ě 1 et pour tout i P t1, . . . , 2n u

Pp|Xpi´1q2´n ´ Xi2´n | ą 2´nα q ď 2nαq Er|Xpi´1q2´n ´ Xi2´n |q s ď C2´np1`q 2nαq .

Ainsi ˜ n
2
¸
ď
P t|Xpi´1q2´n ´ Xi2´n | ą 2 ´nα
u ď C2´n 2nαq .
i“1

Comme  ´ αq ą 0 on obtient
˜ n
2
¸
ÿ ď
P t|Xpi´1q2´n ´ Xi2´n | ą 2´nα u ă8.
ně1 i“1

Le lemme de Borel-Cantelli assure donc que pour P-presque tout ω P Ω, il existe un entier n0 “
n0 pωq tel que
@n ě n0 , @i P t1, . . . , 2n u, |Xpi´1q2´n ´ Xi2´n | ď 2´nα .

11
Université Paris Cité
Probabilités

Ceci assure que la variable aléatoire


|Xpi´1q2´n ´ Xi2´n |
Kα :“ sup sup ,
ně1 iPt1,...,2n u 2´nα

est finie presque sûrement. (En effet pour n ě n0 pωq cette quantité est majorée par 1, tandis que
le supremum sur n ă n0 porte sur un nombre fini de termes.)
Sur l’événement tKα ă 8u, qui est de probabilité 1, on déduit du lemme précédent que pour tous
s, t P D
|Xs pωq ´ Xt pωq| ď Cα pωq|t ´ s|α ,
avec Cα pωq “ 2Kα pωq{p1 ´ 2´α q. On a donc montré que sur l’événement tKα ă 8u, les trajectoires
de X restreintes à l’ensemble D sont α-Höldériennes. On peut alors poser sans ambiguité
#
limsÑt,sPD Xs pωq siKα pωq ă 8
X̃t pωq :“
0 siKα pωq “ 8 .

Il reste à montrer que X̃ est une modification de X. Si t P D alors

PpX̃t ‰ Xt q ď PpKα “ 8q “ 0 .

Supposons à présent que t R D. L’hypothèse du théorème assure que pour tout s P r0, 1s

Er1 ^ |Xt ´ Xs |q s ď Er|Xt ´ Xs |q s ď C|t ´ s|1` .

Pour s P D, on sait déjà que Xs “ X̃s p.s. de sorte que

Er1 ^ |Xt ´ X̃s |q s ď C|t ´ s|1` .

En faisant tendre s Ñ t avec s P D, le théorème de convergence dominée assure que

Er1 ^ |Xt ´ X̃t |q s “ 0 ,

et ainsi Xt “ X̃t p.s. l


Corollaire I.14
Le mouvement Brownien existe !
Démonstration Soit B un processus gaussien centré de fonction de covariance CovpBs , Bt q “
minps, tq. (L’existence d’un tel processus a déjà été discutée plus haut). Afin d’appliquer le théorème
de continuité de Kolmogorov, il nous faut? évaluer les moments des incréments de ce processus. On
remarque que Bt ´ Bs a même loi que t ´ s Y où Y suit une loi normale centrée réduite. Ainsi
en posant Cq :“ Er|Y |q s qui est fini (les gaussiennes admettent des moments de tous ordres) on
obtient
Er|Bt ´ Bs |q s “ Cq pt ´ sqq{2 .
En choisissant q ą 2 et un intervalle borné I Ă R` arbitraire, on déduit du théorème l’existence
d’une modification pB̃t , t P Iq dont les trajectoires sont Höldériennes donc continues. En appliquant
cette construction sur chacun des intervalles r0, 1s, r1, 2s, ¨ ¨ ¨ , rn, n ` 1s, ¨ ¨ ¨ on obtient alors une
collection de modifications que l’on peut concaténer afin de former un processus pB̃t , t P R` q à
trajectoires continues et qui est une modification de pBt , t P R` q. l

12
Université Paris Cité
Probabilités

Construction du mouvement Brownien par Paul Lévy. Nous venons d’appliquer un théorème
général de la théorie des processus afin de construire le mouvement Brownien. Il se trouve que l’on
peut donner une construction beaucoup plus géométrique (et élégante !) du mouvement Brownien.
Celle-ci est due à Paul Lévy et s’appuie sur l’observation suivante
Lemme I.15
Pour tout 0 ď s ă t, le vecteur pBs , Bps`tq{2 , Bt q a même loi que le vecteur

Bs ` Bt
pBs , ` Y, Bt q ,
2
où Y est une variable aléatoire N p0, pt ´ sq{4q indépendante de Bs et Bt .

Démonstration Exercice. l
On se restreint à l’intervalle r0, 1s, on note Dn :“ tk2´n : k P t0, . . . , 2n uu et l’on construit de façon
pnq
récursive une suite de processus pBt , t P r0, 1sq tels que :
1. Les marginales de dimensions finies de B pnq restreint à Dn coı̈ncident avec celles du Brownien.
pnq
Plus précisément : les vecteurs pBt , t P Dn q et pBt , t P Dn q ont même loi.
pnq pmq
2. La procédure est consistente sur les dyadiques. Plus précisément : Bt “ Bt pour tout
t P Dn X Dm .
3. Chaque processus B pnq est affine entre deux points consécutifs de Dn . Plus précisément :
pnq pnq pnq
Bt “ 2n pt ´ k2´n qBpk`1q2´n ` 2n ppk ` 1q2´n ´ tqBk2´n , t P rk2´n , pk ` 1q2´n s .

On commence la procédure en se donnant une variable aléatoire X de loi N p0, 1q et l’on pose
p0q
Bt :“ tX .
On suppose avoir construit le processus B pnq pour un certain entier n ě 0. Pour construire B pn`1q il
suffit de définir correctement les marginales aux temps t P Dn`1 zDn puis d’interpoler linéairement
entre les points de Dn`1 . Pour ce faire, on se donne une collection de v.a. Xk,n , k P t0, . . . , 2n ´ 1u
i.i.d. N p0, 2´n {4q, indépendantes de toutes les v.a. utilisées jusqu’alors dans la construction. Pour
chaque k P t0, . . . , 2n ´ 1u, on pose
pn`1q pnq
Bp2k`1q2´pn`1q :“ Bp2k`1q2´pn`1q ` Xk,n ,

tandis que pour tout t P Dn , on pose


pn`1q pnq
Bt “ Bt .
pn`1q
Il est clair que pBt , t P Dn`1 q est un vecteur gaussien centré. Pour s’assurer qu’il a la bonne
loi, il suffit de calculer les covariances entre les entrées de ce vecteur (exercice). On peut ensuite
achever la construction de B pn`1q en interpolant de façon affine entre deux points consécutifs de
Dn`1 .
pnq
On peut alors montrer qu’avec probabilité 1, la suite de fonctions continues pBt , t P r0, 1sq converge
uniformément vers un objet limite que l’on note pBt , t P r0, 1sq.

Nécessairement B est continu. Par construction, ses marginales de dimensions finies restreintes à
D coı̈ncident en loi avec celle du mouvement Brownien. Pour conclure, on utilise le lemme suivant.

13
Université Paris Cité
Probabilités

Lemme I.16
Soient pXt , t P r0, 1sq et pYt , t P r0, 1sq deux processus stochastiques dont les trajectoires sont
continues. Supposons qu’il existe un ensemble J Ă r0, 1s dense dans r0, 1s tel que les marginales de
dimensions finies de X et Y , restreintes à J, coı̈ncident en loi. Alors les deux processus pXt , t P r0, 1sq
et pYt , t P r0, 1sq ont même loi.

Démonstration Il suffit de montrer que pour tout n ě 1 et tous 0 ď t1 ď t2 ď . . . ď tn , les lois


des vecteurs pXt1 , . . . , Xtn q et pYt1 , . . . , Ytn q coı̈ncident.
On sait que cela est vrai dès que tous les indices de temps appartiennent à J. Pour conclure, il
suffit de montrer que le vecteur aléatoire pXs1 , . . . , Xsn q (resp. pYs1 , . . . , Ysn q) converge en loi vers
pXt1 , . . . , Xtn q (resp. pYt1 , . . . , Ytn q) dès que si Ñ ti pour tout i P t1, . . . , nu avec les si P J. Or, sous
cette hypothèse, la continuité des trajectoires assure que pXs1 , . . . , Xsn q converge presque sûrement
vers pXt1 , . . . , Xtn q, et ainsi la convergence a également lieu en loi. l

4 Quelques propriétés du mouvement Brownien


Dans cette partie, B “ pBt , t P R` q désignera toujours un mouvement Brownien. Pour tout t ě 0,
on note Ft :“ σpBs , s P r0, tsq : intuitivement, il s’agit de la plus petite tribu contenant toute
l’information encodée par la trajectoire Brownienne jusqu’au temps t. On introduit également
F8 :“ σpBs , s ě 0q.
Proposition I.17 (Propriétés d’invariance)
1. ´B est un mouvement Brownien [invariance par changement de signe],
2. pour tout λ ą 0, le processus B λ , défini par Btλ :“ λ´1 Btλ2 , est un mouvement Brownien
[invariance par changement d’échelle],
pT q
3. pour tout T ě 0, le processus B pT q , défini par Bt :“ BT `t ´BT , est un mouvement Brownien
[invariance par translation]

Démonstration Dans les trois cas, il est immédiat que les processus sont gaussiens centrés :
en effet, toute combinaison linéaire de marginales de dimension finie du processus ´B, resp. B λ ,
resp. B pT q , est combinaison linéaire de marginales de dimension finie du processus B, et ainsi, est
une gaussienne centrée. Par ailleurs, la continuité des trajectoires est préservée dans chaque cas. Il
reste à calculer la fonction de covariance dans chaque cas.

Covp´Bt , ´Bs q “ CovpBt , Bs q “ minps, tq ,


CovpBtλ , Bsλ q “ λ´2 CovpBtλ2 , Bsλ2 q “ λ´2 minptλ2 , sλ2 q “ minpt, sq ,
pT q
CovpBt , BspT q q “ CovpBT `t ´ BT , BT `s ´ BT q
“ CovpBT `t , BT `s q ´ CovpBT , BT `s q ´ CovpBT , BT `t q ` CovpBT , BT q
“ minpT ` s, T ` tq ` T ´ 2T “ minps, tq .

l
La propriété d’invariance par translation s’agrémente d’une propriété d’indépendance.
Proposition I.18 (Propriété de Markov simple)
pT q
Pour tout T ě 0, le processus B pT q , défini par Bt :“ BT `t ´ BT , est un mouvement Brownien
14
Université Paris Cité
Probabilités

indépendant de la tribu FT .

Démonstration Nous avons déjà montré que B pT q était un mouvement Brownien. Il nous faut
prouver qu’il est indépendant de FT . Rappelons que cela signifie que les tribus engendrées par
pBs , s P r0, T sq d’une part et par pBT `t ´BT , t P R` q d’autre part sont indépendantes. Pour prouver
cette assertion, il suffit de montrer que pour tous n, m ě 1 et tous 0 ď s1 ď s2 ď . . . ď sn ď T ,
0 ď t1 ď t2 ď . . . ď tm les vecteurs

pBs1 , . . . , Bsn q , pBT `t1 ´ BT , . . . , BT `tm ´ BT q ,

sont indépendants. Comme ces deux vecteurs forment conjointement un vecteur gaussien dans
Rn`m , l’indépendance des deux vecteurs est équivalente aux identités

CovpBsi , BT `tj ´ BT q “ 0 , @i P t1, . . . , nu , @j P t1, . . . , mu .

On vérifie aisément que ces identités sont vraies. l


Le résultat suivant montre que le comportement “juste après” le temps 0 suit la loi du tout ou rien.
Proposition I.19
La tribu č
F0` :“ Fs ,
są0

est grossière au sens suivant : pour tout A P F0` , PpAq “ 0 ou 1.

Démonstration Il suffit de montrer que F0` est indépendante de F8 . En effet, comme F0` Ă F8 ,
cela permet de déduire que F0` est indépendante d’elle-même, et est donc grossière.
Soient n ě 1, 0 ă t1 ă . . . ă tn et f : Rn Ñ R une fonction continue bornée. La continuité des
trajectoires combinée au Théorème de Convergence Dominée assure que pour tout A P F0`

Er1A f pBt1 , . . . , Btn qs “ lim Er1A f pBt1 ´ B , . . . , Btn ´ B qs .


Ñ0

Or A P F et la propriété de Markov simple assure que le vecteur pBt1 ´ B , . . . , Btn ´ B q est


indépendant de F . Ainsi

Er1A f pBt1 , . . . , Btn qs “ lim PpAqErf pBt1 ´ B , . . . , Btn ´ B qs “ PpAqErf pBt1 , . . . , Btn qs .
Ñ0

On a donc montré que F0` est indépendante de σpBt , t ą 0q. Par ailleurs, B0 étant déterministe,
il est mesurable par rapport à n’importe quelle tribu et ainsi σpBt , t ą 0q “ σpBt , t ě 0q “ F8 , ce
qui achève la preuve. l
On déduit de cette dernière proposition des propriétés trajectorielles remarquables.
Corollaire I.20
On a presque sûrement
@ ą 0, sup Bs ą 0 , inf Bs ă 0 .
0ďsď 0ďsď

Par ailleurs pour tout a P R, si l’on note Ta :“ inftt ě 0 : Bt “ au alors presque sûrement

@a P R, Ta ă 8 .

15
Université Paris Cité
Probabilités

En conséquence presque sûrement

lim sup Bt “ `8 , lim inf Bt “ ´8 .


tÑ8 tÑ8

Démonstration Soit pn qn une suite de réels strictement positifs décroissant vers 0. On pose
č
A :“ t sup Bs ą 0u .
n 0ďsďn

L’événement A est F0` -mesurable et est une intersection d’événements décroissants, de sorte que

PpAq “ lim Pp sup Bs ą 0q .


nÑ8 0ďsďn

Or
Pp sup Bs ą 0q ě PpBn ą 0q “ 1{2 ,
0ďsďn

et ainsi la probabilité de A est supérieure ou égale à 1{2. Cet événement étant trivial, sa probabilité
est donc égale à 1. On a donc montré que presque sûrement @ ą 0, sup0ďsď Bs ą 0. L’assertion
concernant l’infimum est obtenue en remplaçant B par ´B.
On prouve à présent la finitude p.s. de tous les Ta . On commence par écrire

1 “ Pp sup Bs ą 0q “ lim Pp sup Bs ą δq .


0ďsď1 δÓ0 0ďsď1

On fixe a ą 0. En posant λ “ δ{a et en utilisant l’invariance d’échelle du mouvement Brownien on


obtient

Pp sup Bs ą δq “ Pp sup λ´1 Bs ą λ´1 δq “ Pp sup λ´1 Bsλ2 ą aq “ Pp sup Bs ą aq .


0ďsď1 0ďsď1 0ďsďλ´2 0ďsďλ´2

En prenant la limite δ Ó 0, c’est-à-dire, λ´2 Ò 8 on obtient que

Ppsup Bs ą aq “ 1 .
sě0

On a donc montré que Ta ă 8 p.s. On en déduit que presque sûrement, pour tout a P p0, 8q X Q,
Ta ă 8. Or la continuité des trajectoires assure que pour tout 0 ă a ă b, Tb ă 8 ñ Ta ă 8. On a
donc montré que presque sûrement pour tout a ą 0, Ta ă 8.
En remplaçant B par ´B, on en déduit que cela reste vrai pour a ă 0.
On a donc montré que presque sûrement la trajectoire t ÞÑ Bt visite toutes les valeurs a P R.
Nécessairement lim suptÑ8 Bt “ `8 et lim inf tÑ8 Bt “ ´8. l

5 Propriété de Markov forte du mouvement Brownien


Nous allons montrer que la propriété de Markov simple reste vraie lorsque le temps T est aléatoire
mais n’anticipe pas le futur, c’est-à-dire, dès que T est un temps d’arrêt.
Définition I.21
On dit qu’une variable aléatoire T à valeurs dans r0, 8s est un temps d’arrêt si pour tout t ě 0,

16
Université Paris Cité
Probabilités

l’événement tT ď tu P Ft .

En termes intuitifs, cette définition impose que l’information encodée dans la tribu Ft suffit à
déterminer si T s’est réalisé avant le temps t ou pas.

Donnons quelques exemples et contre-exemples de temps d’arrêt. La v.a. constante T “ t0 est un


temps d’arrêt, ainsi que le premier temps d’atteinte de a par le Brownien

Ta :“ inftt ě 0 : Bt “ au .

En revanche, le dernier temps d’atteinte de 0 avant le temps 1 par le Brownien

suptt ď 1 : Bt “ 0u ,

ainsi que le premier temps où la trajectoire Brownienne atteint son maximum sur r0, 1s

inftt P r0, 1s : Bt “ sup Bs u ,


sPr0,1s

ne sont pas des temps d’arrêt.

Enonçons quelques propriétés élémentaires vérifiées par tout temps d’arrêt.


Lemme I.22
Soit T un temps d’arrêt. Pour tout t ě 0, les événements tT ă tu et tT “ tu sont dans Ft . Par
ailleurs, pour tout n ě 1, Tn :“ 2´n pt2n T u ` 1q est un temps d’arrêt.

Démonstration On note que


ď
tT ă tu “ tT ď qu ,
qPr0,trXQ

de sorte que cet événement est bien dans Ft . En écrivant tT “ tu “ tT ď tuztT ă tu la Ft


mesurabilité de tT “ tu s’en suit.
On observe que Tn prend ses valeurs dans l’ensemble k2´n , k ě 0. Pour tout t ě 0, on introduit
k ě 0 tel que k2´n ď t ă pk ` 1q2´n et l’on écrit

tTn ď tu “ tTn ď k2´n u “ tt2n T u ` 1 ď ku “ t2n T ă ku “ tT ă 2´n ku .

Comme 2´n k ď t, ce dernier événement est Ft -mesurable. l


Etant donné un temps d’arrêt T , on introduit la tribu du passé avant T en posant

FT :“ tA P F8 : @t ě 0, A X tT ď tu P Ft u .

(Nous reviendrons sur cette définition dans le chapitre suivant). On pourra vérifier en exercice
que FT est bien une tribu. On pourra aussi vérifier en exercice que les v.a. T et 1tT ă8u BT sont
FT -mesurables.
Théorème I.23 (Propriété de Markov forte)
Soit T un temps d’arrêt fini presque sûrement. On pose pour tout t ě 0
pT q
Bt :“ 1tT ă8u pBT `t ´ BT q .
17
Université Paris Cité
Probabilités

Le processus B pT q est un mouvement Brownien indépendant de FT .

La propriété de Markov forte a de très nombreuses applications dans l’étude du mouvement Brow-
nien, nous en verrons certaines un peu plus loin. Notons qu’elle est fondamentalement due à
l’indépendance et à la stationarité des incréments du mouvement Brownien.

Démonstration Nous allons montrer que pour tout A P FT et tout m ě 1, tous 0 ď t1 ă t2 ă


. . . ă tm , et toute fonction continue bornée f : Rm Ñ R
pT q pT q
Er1A f pBt1 , . . . , Btm qs “ PpAqErf pBt1 , . . . , Btm qs . (I.1)
Cela suffit pour établir les assertions du théorème. En effet, en prenant A “ Ω, on déduit que B T
a même loi qu’un mouvement Brownien : comme ses trajectoires sont également continues, on en
déduit alors que c’est un mouvement Brownien. Par ailleurs cette identité assure que le vecteur
pT q pT q
pBt1 , . . . , Btm q est indépendant de la tribu FT , et ce pour tout choix de m et de valeurs t1 , . . . , tm .
L’indépendance entre la tribu engendrée par B pT q et FT s’en suit.
Pour établir (I.1), commençons par observer que le cas où T est déterministe est déjà couvert par
la propriété de Markov simple. Supposons à présent que T prend ses valeurs dans un ensemble
dénombrable trk , k ě 1u donné. On calcule alors
pT q pT q
ÿ pT q pT q
Er1A f pBt1 , . . . , Btm qs “ Er1A f pBt1 , . . . , Btm q1tT “rk u s
kě1
ÿ
“ Erf pBrk `t1 ´ Brk , . . . , Brk `tm ´ Brk q1AXtT “rk u s
kě1

Or A X tT “ rk u P Frk . Ainsi la propriété de Markov simple permet de poursuivre le calcul et


d’obtenir
ÿ
“ Erf pBt1 , . . . , Btm qsPpA X tT “ rk uq
kě1
“ Erf pBt1 , . . . , Btm qsPpAq .
Dans le cas général où T prend ses valeurs dans r0, 8s (et est fini p.s.), on introduit la suite
d’approximations Tn :“ 2´n pt2n T u ` 1q, n ě 1. On note que Tn Ñ T presque sûrement quand
n Ñ 8. Ainsi la continuité des trajectoires combinée au Théorème de Convergence Dominée assure
que
pT q pT q pT q pT q
Er1A f pBt1 , . . . , Btm qs “ lim Er1A f pBt1 n , . . . , Btmn qs .
nÑ8

Le cas dénombrable déjà établi s’applique à Tn et B pTn q , et l’on obtient (en notant que si A P FT
alors A P FTn )
pT q pT q
Er1A f pBt1 n , . . . , Btmn qs “ PpAqErf pBt1 , . . . , Btm qs ,
de sorte que
pT q pT q
Er1A f pBt1 , . . . , Btm qs “ PpAqErf pBt1 , . . . , Btm qs .
l
Nous présentons une très jolie identité en loi portant sur le supremum courant du mouvement
Brownien
St :“ sup Bs , t ě 0 .
0ďsďt
La preuve de cette identité repose sur la propriété de Markov forte du mouvement Brownien.

18
Université Paris Cité
Probabilités

Théorème I.24 (Principe de réflexion)


Pour tout t ą 0, tout a ě 0 et tout b ď a on a

PpSt ě a, Bt ď bq “ PpBt ě 2a ´ bq .

En particulier, St a même loi que |Bt |.

La preuve de ce théorème sera vue en TD.


Démonstration On a déjà vu que Ta :“ inftt ě 0 : Bt “ au ă 8 p.s. On écrit alors
a pT q
PpSt ě a, Bt ď bq “ PpTa ď t, Bt ď bq “ PpTa ď t, Bt´T a
ď b ´ aq .

Le Théorème I.23 assure que B pTa q est indépendant de Ta . Comme B pTa q a même loi que ´B pTa q
on en déduit que pTa , B pTa q q a même loi que pTa , ´B pTa q q et ainsi
pT q
a a pT q
PpTa ď t, Bt´T a
ď b´aq “ PpTa ď t, ´Bt´T a
ď b´aq “ PpTa ď t, BTa ´Bt ď b´aq “ PpTa ď t, Bt ě 2a´bq .
Comme 2a ´ b ě a, si Bt ě 2a ´ b alors nécessairement Ta ď t et ainsi
PpSt ě a, Bt ď bq “ PpBt ě 2a ´ bq .
Pour prouver la deuxième assertion, on écrit
PpSt ě aq “ PpSt ě a, Bt ď aq ` PpSt ě a, Bt ą aq .
On note que si Bt ą a alors nécessairement St ě a. En utilisant le principe de réflexion ainsi que
cette dernière observation on obtient
PpSt ě aq “ PpBt ě aq ` PpBt ą aq “ 2PpBt ě aq “ Pp|Bt | ě aq .
l

6 Mesure de Wiener, mouvement Brownien multi-dimensionnel


Soit pBt , t ě 0q un mouvement Brownien. L’application
B : Ω Ñ RR`
ω ÞÑ pBt pωq, t P R` q
est mesurable par rapport aux tribus F et BpRqbR` . Par définition du mouvement Brownien,
nous savons que les trajectoires de B sont continues et ainsi l’application prend ses valeurs dans
CpR` , Rq. Ainsi B est une application mesurable de pΩ, Fq dans CpR` , Rq muni de la tribu produit,
c’est-à-dire, de la plus petite tribu rendant mesurables les applications x ÞÑ xt pour tous t P R` .

Il est habituel de munir CpR` , Rq de la métrique suivante :


ÿ suptPr0,ns |xt ´ yt |
dpx, yq :“ 2´n .
ně1
1 ` suptPr0,ns |xt ´ yt |

On pourra se convaincre que cette distance métrise la topologie de la convergence uniforme sur
tout compact de R` . On note alors C la tribu Borélienne associée à cet espace métrique. Il est alors
possible de montrer le résultat suivant.

19
Université Paris Cité
Probabilités

Lemme I.25
La tribu produit sur CpR` , Rq coı̈ncide avec la tribu C.

La loi W du mouvement Brownien sur pCpR` , Rq, Cq est appelée mesure de Wiener.

Terminons ce chapitre en introduisant la version multi-dimensionnelle du mouvement Brownien.


p1q pdq
Un processus stochastique pBt , t P R` q “ ppBt , . . . , Bt q, t P R` q à valeurs dans Rd est un mou-
piq
vement Brownien en dimension d si les processus pBt , t P R` q, i P t1, . . . , du sont des mouvements
Browniens indépendants.

20
Université Paris Cité
Chapitre II

Martingales

Approx. 1,5 séance de cours

1 Martingales à temps continu


Soit pΩ, F, pFt qtPR` , Pq un espace de probabilité filtré, c’est-à-dire, un espace de probabilité pΩ, F, Pq
muni d’une collection pFt qtPR` de sous-tribus de F satisfaisant s ď t ñ Fs Ă Ft . Une telle collection
est appelée filtration.
Définition II.1
Soit M “ pMt , t P R` q un processus stochastique à valeurs dans R. On dit que M est une martingale
(resp. sur-martingale, resp. sous-martingale) si :
1. M est adapté à la filtration pFt qtPR` , c’est-à-dire, pour tout t P R` , Mt est Ft -mesurable,
2. pour tout t P R` , Mt est intégrable,
3. pour tous 0 ď s ď t, ErMt | Fs s “ Ms p.s. (resp. ErMt | Fs s ď Ms p.s., resp. ErMt | Fs s ě Ms
p.s.).

Commençons par énoncer quelques propriétés simples.


Lemme II.2
Soient M une martingale (resp. une sous-martingale) et f : R Ñ R une fonction convexe (resp.
convexe croissante). On suppose que pour tout t P R` , f pMt q est intégrable. Alors f pM q est une
sous-martingale.

Démonstration L’inégalité de Jensen pour l’espérance conditionnelle assure que

f pErMt | Fs sq ď Erf pMt q | Fs s .

Si M est une martingale alors f pErMt | Fs sq “ f pMs q et l’on peut conclure. Si M est une sous-
martingale, la croissance de f assure que f pErMt | Fs sq ě f pMs q et l’on peut conclure. l
On rappelle qu’une variable aléatoire T : Ω Ñ N Y t`8u est un temps d’arrêt si pour tout t P R` ,
tT ď tu P Ft . On notera que si T est un temps d’arrêt, alors tT ą tu “ tT ď tuA P Ft et
tT “ tu “ limn Ó tT ď tu X tT ď t ´ 1{nuA P Ft .

21
Probabilités

Définition II.3
Soit T un temps d’arrêt. On appelle tribu du passé avant T la collection FT de tous les événements
A P F tels que pour tout t P R` , A X tT ď tu P Ft .

On peut vérifier que FT est bien une tribu (exercice !).


Remarque II.4
Est-il clair que la tribu FT ainsi définie correspond au passé avant T ? Dans le cas où T est
déterministe, et vaut disons a, alors FT “ Fa . Plus généralement, lorsque T prend ses valeurs
dans un ensemble dénombrable, disons ttn , n P Nu, alors FT n’est rien d’autre que l’ensemble des
événements A qui s’écrivent ď´ ¯
A“ Atn X tT “ tn u ,
n

où chaque Atn P Ftn , et l’on peut se convaincre qu’il s’agit là du passé avant T .
Lorsque T est un temps d’arrêt quelconque, il n’existe pas de description aussi simple de FT .
Cependant, si T ă 8, on peut prouver que A P FT si et seulement si il existe un processus adapté
X à trajectoires continues à droite ainsi qu’un Borélien B tels que A “ tXT P Bu, voir [cn11, Chap
5 Th 1.14].

Lemme II.5
Soient S, T deux temps d’arrêt. Alors S ^ T est encore un temps d’arrêt et FS^T “ FS X FT .

Démonstration Exercice ! l
A ce stade, notons une difficulté technique propre aux processus à temps continu. Soit pXt , t P R` q
un processus stochastique adapté à la filtration pFt , t P R` q. Soit T un temps d’arrêt. Il est naturel
de vouloir manipuler l’application
XT : ω ÞÑ XT pωq pωq

Si T prend ses valeurs dans un ensemble dénombrable ptn qn alors XT dépend de façon explicite des
v.a. pXtn qn et l’on peut montrer qu’il est mesurable. Si T est quelconque, la mesurabilité n’est pas
forcément vraie ! En revanche, on a le résultat suivant :
Lemme II.6
Soit X un processus stochastique à trajectoires continues et soit T un temps d’arrêt fini p.s. Alors
XT est une v.a. FT mesurable.
Si Xt admet une limite p.s. quand t Ñ 8, notée X8 , alors XT est une v.a. FT mesurable sans
condition de finitude sur T .

Remarque II.7
On notera que sur l’événement tT “ 8u, la définition de XT n’a de sens que si Xt admet une limite
quand t Ñ 8. Cependant, si T ă 8 p.s., l’événement tT “ 8u est de mesure nulle et l’on peut y
définir XT de façon arbitraire.

Démonstration On suppose que T ă 8 p.s. On a par continuité des trajectoires que p.s.
8
ÿ
XT “ lim 1k2´n ďT ăpk`1q2´n Xk2´n .
nÑ8
k“0

22
Université Paris Cité
Probabilités

On note que 1k2´n ďT ăpk`1q2´n Xk2´n “ 1k2´n ďT Xk2´n 1T ăpk`1q2´n . La v.a. 1T ăpk`1q2´n est bien FT
mesurable. Montrons alors que chaque 1k2´n ďT Xk2´n est FT mesurable. Cela revient à montrer que
pour tout s P R` , 1sďT Xs est FT mesurable. Soit B un Borélien de R ne contenant pas 0. Pour
tout t P R` on a
#
H si t ă s
t1sďT Xs P Bu X tT ď tu “
tXs P Bu X ts ď T ď tu si s ď t

qui est Ft mesurable dans les deux cas (on notera que ts ď T ď tu “ tT ă suA X tT ď tu). Si B est
un Borélien de R contenant 0 alors
´ ¯
A
t1sďT Xs P Bu X tT ď tu “ tT ď tuz t1sďT Xs P B u X tT ď tu .
l
Dans la suite, şon manipulera toujours des martingales à trajectoires continues de sorte que les
t
quantités MT , 0 Ms ds ou sup0ďsďt Ms seront bien mesurables.

Les martingales sont des objets qui apparaissent dans de nombreux contextes, et il est utile d’établir
des résultats généraux les concernant. Il se trouve que les résultats que nous allons établir sont
tout à fait analogues à ceux connus à temps discret : ce n’est pas étonnant car si M est une
martingale à temps continu alors pour toute suite croissante ptn qn , le processus pMtn , n P Nq est
une martingale à temps discret adapté à la filtration pFtn , n P Nq. Cette “projection” va nous
permettre d’établir certains résultats (comme les inégalités maximales) en utilisant leurs analogues
discrets et en passant à la limite. Cependant, certains énoncés ne pourront pas être obtenus de façon
élémentaire à partir du cas discret, et nécessiteront des détours techniques conséquents : on notera
en particulier que le fait qu’une martingale arrêtée est encore une martingale est délicat à établir
dans le continu (ce sera notre dernier résultat !) tandis qu’il s’agissait d’une propriété élémentaire
dans le discret.

1) Inégalités maximales
Proposition II.8
— Si M est une sous-martingale à trajectoires continues alors pour tout a ą 0 et pour tout
t P R`
aPp sup Ms ą aq ď ErMt` s ,
0ďsďt

— Si M est une sur-martingale à trajectoires continues alors pour tout a ą 0 et pour tout t P R`

aPp sup Ms ą aq ď ErM0 s ` ErMt´ s .


0ďsďt

Démonstration On suppose que M est une sous-martingale. Soit n ě 1 un entier et soient


pnq pnq
0 “ t0 ă t1 ă . . . ă tn “ t. Le processus pMtpnq , 0 ď k ď nq est une sous-martingale à temps
k
discret dans la filtration Gk :“ Ftpnq . Ainsi l’inégalité maximale à temps discret (et le fait que
k
pnq
tn “ t) assure que
aPp sup Mtpnq ą aq ď ErMt` s .
0ďkďn k

23
Université Paris Cité
Probabilités

pnq pnq
On peut choisir les ptk , 0 ď k ď nq de sorte que la suite d’ensembles ttk ; 0 ď k ď nu, n ě 1 soit
croissante et converge vers r0, ts X Q. Par la continuité croissante des probabilités, on obtient

aPp sup Ms ą aq ď ErMt` s .


sPr0,tsXQ

Par continuité des trajectoires de M on a

Pp sup Ms ą aq “ Pp sup Ms ą aq ,
sPr0,tsXQ sPr0,ts

et la première inégalité est prouvée. On procède de façon analogue pour la seconde. l

Proposition II.9 (Inégalité maximale de Doob)


Soit M une martingale à trajectoires continues. Posons Mt˚ :“ sup0ďsďt |Ms | pour tout t P R` .
Pour tout p ą 1 et tout t P R`
´ p ¯p
ErpMt˚ qp s ď Er|Mt |p s .
p´1

Démonstration On suit la même démarche que dans la preuve précédente : si l’on restreint le
supremum à un ensemble fini de marginales, l’inégalité est vraie (cas discret). Par croissance et
continuité, on peut en déduire l’inégalité recherchée. l
L’inégalité maximale de Doob a une conséquence tout à fait remarquable.
Corollaire II.10
Soit M une martingale à trajectoires continues et p ą 1. Si M est bornée dans Lp , c’est-à-dire,
supt Er|Mt |p s ă 8 alors la famille de v.a. |Mt |p , t P R` est uniformément intégrable.

Démonstration On pose C :“ supt Er|Mt |p s. L’inégalité maximale de Doob assure que pour tout
tě0 ´ p ¯p
˚ p
ErpMt q s ď C .
p´1
Or Mt˚ est une fonction croissante de t et ainsi admet une limite p.s. que l’on note M8
˚ “

supsě0 |Ms |. Le Théorème de Convergence Monotone assure alors que


´ p ¯p
˚ p
ErpM8 q sďC .
p´1
On peut appliquer la Proposition B.4. l

2) Convergence
Nous allons admettre le résultat suivant, qui est tout à fait analogue à celui vu dans le discret
(Théorème C.7).
Théorème II.11
Soit M une martingale (resp. sous-martingale, resp. sur-martingale) à trajectoires continues, et
bornée dans L1 , c’est-à-dire, telle que suptPR` Er|Mt |s ă 8. Alors quand t Ñ 8, Mt converge

24
Université Paris Cité
Probabilités

presque sûrement vers une variable aléatoire intégrable M8 .

3) Martingales fermées
Définition II.12
On dit qu’une martingale M est fermée s’il existe une v.a. X P L1 telle que pour tout t P R`

Mt “ ErX | Ft s .

Théorème II.13
Soit M une martingale à trajectoires continues. Il y a équivalence entre :
(i) M est fermée
(ii) M est uniformément intégrable.
(iii) M converge p.s. et dans L1 vers une variable aléatoire M8 intégrable.
Si l’une des trois conditions est vérifiée, alors nécessairement M est fermée par sa limite M8 .

Démonstration (i) ñ (ii). Il suffit d’appliquer la Proposition B.7.


(ii) ñ (iii). Etant u.i., la collection de v.a. pMt , t P R` q est bornée dans L1 . Comme c’est en outre
une martingale, le Théorème II.11 assure qu’elle converge p.s. vers une variable aléatoire intégrable
M8 . Le théorème de convergence dominée optimal Théorème B.6 montre alors que Mt converge
aussi dans L1 vers M8 .
(iii) ñ (i). Pour tout A P Ft , la propriété de martingale assure que

ErMt 1A s “ ErMt`s 1A s .

Or Mt`s Ñ M8 dans L1 quand s Ñ 8. Ainsi

ErMt`s 1A s Ñ ErM8 1A s ,

et l’on en déduit que


ErMt 1A s “ ErM8 1A s .
Ceci prouve que p.s.
Mt “ ErM8 | Ft s .
l

Théorème II.14 (Théorème d’arrêt)


Soit M une martingale à trajectoires continues et fermée. Pour tout temps d’arrêt T on a presque
sûrement
MT “ ErM8 | FT s .
Par ailleurs pour tous temps d’arrêt S ď T on a presque sûrement

MS “ ErMT | FS s .

25
Université Paris Cité
Probabilités

Démonstration La deuxième propriété est une conséquence de la première. En effet

ErMT | FS s “ ErErM8 | FT s | FS s “ ErM8 | FS s “ MS .

La première propriété se prouve comme suit. On introduit pour tout n ě 1


8
ÿ k`1
T pnq :“ 1 ´n ´n ` 81tT “8u .

k“0
2n tk2 ăT ďpk`1q2 u

Il s’agit d’une suite de temps d’arrêt qui converge de façon décroissante vers T .
Pour tout n ě 1, la martingale discrète pMk2´n , k P Nq est adaptée à la filtration pFk2´n , k P Nq, et
est fermée par M8 . Par ailleurs T pnq est un temps d’arrêt dans cette filtration. Le théorème d’arrêt
dans le cas discret assure que presque sûrement

MT pnq “ ErM8 | FT pnq s .

Une conséquence de cette identité est que la collection de v.a. pMT pnq , n ě 1q est uniformément
intégrable.
Soit A P FT . Comme T ď T pnq , on a A P FT pnq et ainsi

Er1A MT pnq s “ Er1A M8 s .

La suite de v.a. 1A MT pnq , n ě 1 converge p.s. vers 1A MT et est u.i. : par le Théorème B.6 on en
déduit que la convergence a aussi lieu dans L1 et ainsi

Er1A MT s “ Er1A M8 s .

Comme le Lemme 1 assure que MT est FT mesurable, ceci assure que MT “ ErM8 | FT s et conclut
la preuve. l
Ce résultat (difficile) a plusieurs conséquences (a priori simples).
Corollaire II.15 (Théorème d’arrêt borné)
Soit M une martingale. Soient S ď T deux temps d’arrêt bornés, c’est-à-dire, tels qu’il existe t0 ě 0
(déterministe !) tel que 0 ď S ď T ď t0 p.s. Alors MS , MT sont intégrables et presque sûrement

ErMT | FS s “ MS .

Démonstration Le processus stochastique pMt^t0 , t ě 0q est à trajectoires continues et est adapté


à la filtration pFt qtPR` . C’est une martingale fermée par Mt0 car la propriété de martingale de M
assure que
ErMt0 | Ft s “ Mt^t0 , @t P R` .
On peut donc appliquer le théorème précédent aux temps d’arrêt S ď T et obtenir

ErMT ^t0 | FS s “ MS^t0 .

Comme T ď t0 et S ď t0 , on peut conclure. l

26
Université Paris Cité
Probabilités

Corollaire II.16
Soient M une martingale à trajectoires continues et fermée, et T un temps d’arrêt. On pose MtT :“
MT ^t pour tout t P R` . Alors M T est une martingale (dans la filtration pFt qtPR` ) fermée par MT .

Démonstration Par le théorème d’arrêt appliqué à t ^ T et T , on sait que Mt^T , MT P L1 et que

ErMT | Ft^T s “ Mt^T .

Si l’on montre que cela reste vrai en remplaçant Ft^T par Ft alors on en déduira que pMt^T , t ě 0q
est fermée par MT et que c’est une martingale dans la filtration pFt qtPR` , ce qui conclura la preuve.
On sait par le Lemme 1 que MT 1T ă8 est FT mesurable. Vérifions que MT 1T ďt est Ft^T mesurable.
La FT mesurabilité est immédiate. Concernant la Ft mesurabilité, on voit que pour tout Borélien
B ne contenant pas 0, on a

tMT 1T ďt P Bu “ tMT P Bu X tT ď tu P Ft ,

tandis que si B contient 0 on a


´ ¯
tMT 1T ďt P Bu “ tT ą tu Y tT ď tu X tMT 1T ă8 P Bu P Ft .

Comme Ft^T “ Ft X FT , on en déduit que MT 1T ďt est Ft^T mesurable. Ainsi

ErMT 1T ďt | Ft^T s “ MT 1T ďt “ ErMT 1T ďt | Ft s .

Pour compléter la preuve, nous allons montrer que

ErMT 1T ąt | Ft^T s “ ErMT 1T ąt | Ft s .

Soit A P Ft . On sait que tT ą tu P Ft et ainsi A X tT ą tu P Ft . Par ailleurs pour tout s ě 0


#
H si s ď t
A X tT ą tu X tT ď su “
A X tt ă T ď su si s ą t .

Dans les deux cas, cet événement est Fs mesurable et ainsi A X tT ą tu P FT . On a donc montré
que A X tT ą tu P Ft^T . On peut alors écrire

ErMT 1T ąt 1A s “ Er1T ąt 1A ErMT | Ft^T ss “ Er1A Er1T ąt Mt^T | Ft^T ss ,

ce qui achève la preuve. l


Finalement, on peut établir que toute martingale arrêtée est encore une martingale : cette propriété
d’apparence simple repose sur les résultats élaborés précédents. On notera que dans le cas discret,
cette propriété est très facile à établir.
Corollaire II.17
Soient pMt , t P R` q une martingale à trajectoires continues (pas forcément fermée !), et T un temps
d’arrêt. Alors M T est encore une martingale.

Démonstration Soit a ą 0. Le processus stochastique pMt^a , t ě 0q est une martingale fermée


par Ma . On peut donc lui appliquer le corollaire précédent et l’on en déduit que pMt^a^T , t ě 0q
est une martingale. En particulier pMt^T , t P r0, asq est une martingale sur r0, as. Comme a est
arbitraire, on peut conclure. l

27
Université Paris Cité
Probabilités

2 Martingales locales
Il est pratique de relâcher certaines hypothèses dans la définition d’une martingale (nous en verrons
de nombreuses applications lorsque nous introduirons l’intégrale stochastique).
Définition II.18
On appelle martingale locale issue de 0 tout processus stochastique M “ pMt , t P R` q adapté, à
trajectoires continues, qui vérifie M0 “ 0 p.s. et pour lequel il existe une suite croissante de temps
d’arrêt pTn , n P Nq telle que Tn Ò 8 et M Tn est une martingale.
Plus généralement, on appelle martingale locale tout processus stochastique M “ pMt , t P R` q tel
que M0 est F0 -mesurable et Nt “ Mt ´ M0 , t P R` est une martingale locale issue de 0.

On dira qu’une suite pTn , n P Nq de temps d’arrêt réduit M si p.s. Tn Ò 8 et M Tn ´ M0 est une
martingale.
Proposition II.19

1. Toute martingale à trajectoires continues est une martingale locale.


2. Soient M une martingale locale et T un temps d’arrêt. Alors M T est encore une martingale
locale.
3. Soit M une martingale locale. S’il existe une v.a. positive Z P L1 telle que pour tout t ě 0,
|Mt | ď Z alors M est une martingale (uniformément intégrable).
4. Si M est une martingale locale issue de 0, alors il existe une suite pTn , n P Nq qui réduit M
et telle que M Tn est une martingale uniformément intégrable.

Remarque II.20
On peut se demander si l’hypothèse de domination s’écrit : p.s., pour tous t ě 0, |Mt | ď Z ou
alors : pour tout t ě 0, p.s. |Mt | ď Z. En fait, la continuité des trajectoires assure que ces deux
assertions sont équivalentes.

Démonstration
1. Par le Corollaire II.17, n’importe quelle suite croissante de temps d’arrêt qui tend p.s. vers
`8 réduit M .
2. Soit Tn une suite de temps d’arrêt qui réduit M . Le Corollaire II.17 appliqué à la martingale
M Tn ´ M0 assure que pM Tn ´ M0 qT est encore une martingale. Or pour tout t ě 0, pM Tn ´
M0 qTt “ MTn ^T ^t ´ M0 “ pM T ´ M0 qTt n ce qui assure que pM T ´ M0 qTn est une martingale.
On en déduit que M T ´ M0 est une martingale locale.
3. Soit pTn qnPN une suite qui réduit M . Alors

Ms^Tn ´ M0 “ ErMt^Tn ´ M0 | Fs s .

Par hypothèse de domination, on peut ajouter M0 aux deux membres de l’inégalité et obtenir

Ms^Tn “ ErMt^Tn | Fs s .

Par continuité des trajectoires et domination, on peut passer à la limite sur n et obtenir

Ms “ ErMt | Fs s .

28
Université Paris Cité
Probabilités

4. Il suffit de prendre Tn :“ inftt ě 0 : |Mt | ě nu car alors M Tn est bornée par n et l’on peut
appliquer le point précédent.
l
Remarque II.21
On pourrait penser que si une martingale locale est intégrable à tout temps, alors il s’agit d’une
vraie martingale. Il s’avère que cela est faux, voir par exemple [RY99, Exercise V.2.13].

3 Variation finie et martingales


Commençons par rappeler la notion de variation d’une fonction. Soit f : R` Ñ R, on définit
ÿ
V pf, s, tq “ sup |f ptk`1 q ´ f ptk q| ,
ptk qk k

où le supremum porte sur toutes les subdivisions finies s “ t0 ă t1 ă . . . ă tn “ t de l’intervalle


rs, ts.

On dit que f est à variation finie si V pf, s, tq ă 8 pour tous 0 ď s ď t.

Il est facile de vérifier que V pf, s, tq ` V pf, t, uq “ V pf, s, uq pour tous triplets s ă t ă u. Par
ailleurs toute fonction continûment différentiable vérifie
żt
V pf, s, tq “ |f 1 prq|dr ă 8 ,
s
et toute fonction monotone vérifie
V pf, s, tq “ |f ptq ´ f psq| .
La fonction f : t ÞÑ 1r1,8r est à variation finie et V pf, 0, 8q “ 1. En revanche, la fonction t ÞÑ 1Q ptq
est à variation infinie. Enfin la fonction
r0, 1s Q t Ñ t sinp1{tq ,
est continue mais sa variation sur l’intervalle r0, 1s est infinie. Cela est laissé en exercice (indication :
1
considérer les temps t “ p2k`1qπ{2 pour k P N).
Proposition II.22
Une fonction f : R` Ñ R est à variation finie si et seulement si c’est la différence de deux fonctions
croissantes.
Démonstration Si f “ g ´ h avec g, h croissantes alors
ÿ ÿ ÿ
|f ptk`1 q ´ f ptk q| ď |gptk`1 q ´ gptk q| ` |hptk`1 q ´ hptk q| ,
k k k

de sorte que V pf, s, tq ď V pg, s, tq ` V ph, s, tq et ainsi f est à variation finie. Réciproquement, si f
est à variation finie alors les fonctions g “ V pf, 0, tq et h “ V pf, 0, tq ´ f ptq sont croissantes. En
effet V pf, 0, t ` sq ´ V pf, 0, tq “ V pf, t, t ` sq ě 0, et V pf, 0, t ` sq ´ V pf, 0, tq ´ pf pt ` sq ´ f ptqq “
V pf, t, t ` sq ´ pf pt ` sq ´ f ptqq ě 0 car tt, t ` su forme une subdivision de l’intervalle rt, t ` ss. l
Il se trouve que le Brownien n’est pas à variation finie.

29
Université Paris Cité
Probabilités

Lemme II.23
Presque sûrement, pour tous 0 ď s ă t, V pB, s, tq “ 8.

Démonstration Il suffit de montrer que pour tous s ă t P Q` , presque sûrement V pB, s, tq “ 8.


Posons tk “ s ` kpt ´ sq{n pour k P t0, . . . , nu. Alors

n´1
ÿ
|Bptk`1 q ´ Bptk q| ,
k“0

est égal en loi à


c
t´s
p|X1 | ` . . . ` |Xn |q ,
n
où les v.a. Xi sont i.i.d. N p0, 1q. Si l’on note c “ Er|X1 |s ą 0 alors
c c
t´s a t´s
p|X1 | ` . . . ` |Xn |q “ npt ´ sqc ` pp|X1 | ´ cq ` . . . ` p|Xn | ´ cqq .
n n

Le théorème central limite assure que le second terme converge en loi vers une gaussienne, tandis
que le premier terme converge vers `8. Ainsi la somme converge en probabilité vers `8 quand
n Ñ 8, ce qui implique que V pB, s, tq “ 8 p.s. l
En fait, il n’existe pas de martingale non-triviale à trajectoires continues qui soit à variation finie.
Théorème II.24
Soit M une martingale locale issue de 0. Si M est un processus à variation finie alors presque
sûrement pour tout t P R` , Mt “ 0.

Remarque II.25
On peut s’interroger sur l’importance de la continuité des trajectoires dans un tel résultat. Il se
trouve qu’elle est cruciale. En effet, si N est un processus de Poisson d’intensité λ ą 0 alors Nt ´ λt
est une martingale. Par ailleurs, c’est un processus à variation finie car c’est la différence de deux
processus croissants : Nt et λt.

Démonstration Posons pour tout n P N

τn :“ inftt ě 0 : V pM, 0, tq ě nu .

Comme M est à variation finie, on a τn Ò 8. Fixons n P N et posons N :“ M τn . Alors V pN, 0, 8q “


V pM, 0, τn q “ n et pour tout t P R` , |Nt | ď V pN, 0, tq ď n. Ainsi N est une martingale locale
bornée donc par la Proposition II.19 3. c’est une vraie martingale bornée. On note alors que pour
tous 0 ď s ď t

ErNs pNt ´ Ns qs “ ErErNs pNt ´ Ns q | Fs ss “ ErNs ErpNt ´ Ns q | Fs ss “ 0 ,

or pNt ´ Ns q2 “ Nt2 ´ Ns2 ´ 2Ns pNt ´ Ns q et ainsi

ErpNt ´ Ns q2 s “ ErNt2 ´ Ns2 s .

30
Université Paris Cité
Probabilités

ppq ppq
On se donne alors une suite (indicée par p ě 1) de subdivisions 0 “ t0 ă . . . ă tkp “ t de pas
tendant vers 0 et l’on calcule
kp
ÿ kp
ÿ kp
ÿ
ErNt2 s “ ErN 2ppq ´ N 2ppq s “ ErpNtppq ´ Ntppq q2 s ď Erp sup |Ntppq ´ Ntppq |q |Ntppq ´ Ntppq |s
ti ti´1 i i´1 1ďiďkp i i´1 i i´1
i“1 i“1 i“1
ď n Er sup |Ntppq ´ Ntppq |s .
1ďiďkp i i´1

Comme le pas tend de la subdivision tend vers 0, la continuité des trajectoires assure que sup1ďiďk pNtppq ´
i
Ntppq q Ñ 0 p.s. quand p Ñ 8. Le caractère borné de N permet alors d’appliquer le théorème de
i´1
convergence dominée pour déduire que

lim Er sup pNtppq ´ Ntppq qs “ 0 .


pÑ8 1ďiďkp i i´1

Ainsi ErNt2 s “ 0 et ErMt^τ


2
n
s “ 0. La continuité des trajectoires assure que Mt^τn Ñ Mt p.s. quand
n Ñ 8. Par le lemme de Fatou, on en déduit que ErMt2 s ď lim inf n ErMt^τ 2
n
s “ 0 . Ainsi pour tout
t P R` , Mt “ 0 p.s. La continuité des trajectoires assure que l’on peut permuter “p.s.” et “pour
tout t P R` ”. l

4 Variation quadratique
Dans la section précédente, nous avons vu que la variation d’une martingale non-triviale est toujours
infinie. Nous allons voir qu’en revanche toute martingale admet une variation quadratique finie.
Théorème II.26
Soit M une martingale locale. Il existe un unique processus à trajectoires continues et croissantes,
noté pxM, M yt , t ě 0q et appelé variation quadratique de M , tel que Mt2 ´ xM, M yt soit une
martingale locale et xM, M y0 “ 0. De plus, pour tout t ą 0 et pour toute suite indicée par n ě 1
de subdivisions emboı̂tées 0 “ tn0 ă tn1 ă . . . ă tnpn “ t de l’intervalle r0, ts dont le pas tend vers 0
quand n Ñ 8, la convergence suivante a lieu en probabilité
pn
ÿ
xM, M yt “ lim pMtni ´ Mtni´1 q2 . (II.1)
nÑ8
i“1

Calculons la variation quadratique du mouvement Brownien. On commence par noter que les
v.a. pBtni ´ Btni´1 q2 sont indépendantes de moyenne tni ´ tni´1 et de variance 2ptni ´ tni´1 q2 . Ainsi
pn
”ÿ pn
ı ÿ
2
E pBti ´ Bti´1 q “
n n tni ´ tni´1 “ t ,
i“1 i“1

et
pn
”´ ÿ ¯2 ı pn
´ÿ ¯ ÿpn ´ ¯ ÿpn
E pBtni ´ Btni´1 q2 ´ t “ Var pBtni ´ Btni´1 q2 “ Var pBtni ´ Btni´1 q2 “ 2ptni ´ tni´1 q2
i“1 i“1 i“1 i“1
´ ¯
ď2 supptni ´ tni´1 q t,
i

31
Université Paris Cité
Probabilités

et cette quantité tend vers 0 quand le pas de la subdivision tend vers 0. Ainsi xB, Byt “ t et la
convergence (II.1) a lieu dans L2 .
Démonstration [Démonstration du Théorème II.26]
Unicité. Si A et A1 sont deux processus croissants tels que Mt2 ´ At et Mt2 ´ A1t sont des martingales
locales, alors At ´ A1t est une martingale locale de variation finie. Par le Théorème II.24, c’est un
processus constant égal à A0 “ A10 “ 0.
Existence. Il s’agit d’un résultat difficile : on renvoie vers [LG13, Th 4.2]. l

Remarque II.27
On peut vérifier que si M est une martingale locale et T un temps d’arrêt alors xM T , M T yt “
xM, M yt^T pour tout t P R` .

La variation quadratique d’une martingale locale apporte de nombreuses informations sur celle-ci.
Un premier résultat dans ce sens est le suivant.
Proposition II.28
Soit M une martingale locale issue de 0. Il y a équivalence entre :
1. M est une vraie martingale bornée dans L2 ,
2. ErxM, M y8 s ă 8.
Sous ces hypothèses, Mt2 ´ xM, M yt est une martingale uniformément intégrable.

Démonstration On suppose que M est une vraie martingale bornée dans L2 , et ainsi, est uni-
formément intégrable. On sait alors que Mt converge p.s. et dans L1 vers une variable M8 . Par
ailleurs, une conséquence de l’inégalité de Doob, voir le Corollaire II.10, assure que

Ersup Mt2 s ă 8 .
tě0

Combiné à la Proposition B.4, ceci assure que pMt2 , t ě 0q est également uniformément intégrable
de sorte que Mt converge aussi dans L2 vers M8 .
On introduit alors le temps d’arrêt

Sn :“ inftt ě 0 : xM, M yt ě nu ,

et l’on a xM, M yt^Sn ď n. Ainsi la martingale locale Mt^S 2 ´ xM, M yt^Sn est dominée par la
n
2
v.a. suptě0 Mt ` n qui est intégrable. La Proposition II.19 3. assure qu’il s’agit alors d’une vraie
martingale (issue de 0) de sorte que
2
ErMt^Sn
´ xM, M yt^Sn s “ 0 .

Du fait de l’intégrabilité de chacun des deux termes, cela se réécrit


2
ErMt^Sn
s “ ErxM, M yt^Sn s .

En faisant tendre t vers l’infini, et en appliquant le théorème de convergence dominée pour le terme
de gauche et le théorème de convergence monotone pour celui de droite, on obtient

ErMS2n s “ ErxM, M ySn s .

32
Université Paris Cité
Probabilités

En faisant tendre n vers l’infini, on obtient à l’aide des mêmes arguments


2
ErM8 s “ ErxM, M y8 s .

On a donc montré que ErxM, M y8 s ă 8. En outre, la martingale locale Mt2 ´ xM, M yt est dominée
par la v.a. intégrable suptě0 Mt2 ` xM, M y8 et il s’agit ainsi d’une vraie martingale uniformément
intégrable.
On suppose que ErxM, M y8 s ă 8. On introduit le temps d’arrêt Tn :“ inftt ě 0 : |Mt | ě nu de
sorte que M Tn est une vraie martingale bornée (Proposition II.19 3.). La martingale locale Mt^T
2
n
´
2
xM, M yt^Tn est dominée par la v.a. intégrable n ` xM, M y8 , c’est donc une vraie martingale
uniformément intégrable (issue de 0). On en déduit que
2
ErMt^Tn
s “ ErxM, M yt^Tn s ď ErxM, M y8 s ă 8 .

L’inégalité de Doob assure donc que


2 2
Ersup Mt^Tn
s ď 4 sup ErMt^Tn
s ď 4ErxM, M y8 s ă 8 .
tě0 tě0

Par le Lemme de Fatou on obtient

Ersup Mt2 s “ Erlim sup Mt^T


2
n
2
s ď lim inf Ersup Mt^Tn
s ď 4ErxM, M y8 s ă 8 .
tě0 n tě0 n tě0

Ainsi la Proposition II.19 3. assure que M est une vraie martingale, qui est de plus bornée dans
L2 . l
On peut aussi donner une version plus faible de cette équivalence. On dit que M est de carré
intégrable si ErMt2 s ă 8 pour tout t ě 0. On notera que cela n’implique pas que M est bornée
dans L2 . En revanche, le Lemme II.2 assure que si M est une martingale de carré intégrable alors
M 2 est une sous-martingale et l’on a supsPr0,ts ErMs2 s ď ErMt2 s ă 8. Ainsi toute martingale de
carré intégrable est localement bornée dans L2 , c’est-à-dire, supsPr0,ts ErMs2 s ă 8.
Corollaire II.29
Soit M une martingale locale issue de 0. Il y a équivalence entre :
1. M est une vraie martingale de carré intégrable,
2. ErxM, M yt s ă 8 pour tout t ě 0.
Sous ces hypothèses, Mt2 ´ xM, M yt est une martingale.

Démonstration Soit M une martingale locale issue de 0. Pour tout a ą 0, M a est encore une
martingale locale. Le résultat précédent appliqué à M a assure qu’il y a équivalence entre
1. M a est une vraie martingale bornée dans L2 ,
2. ErxM a , M a y8 s ă 8.
En utilisant la définition de M a et le commentaire précédant l’énoncé du corollaire, on peut réécrire
cette équivalence sous la forme :
1. M est une vraie martingale sur r0, as et ErMt2 s ă 8 pour tout t P r0, as,
2. ErxM, M yt s ă 8 pour tout t P r0, as.

33
Université Paris Cité
Probabilités

Comme a est arbitraire cela suffit à conclure. Par ailleurs, si l’une de ces conditions est remplie
2 ´ xM, M y
alors Mt^a t^a est une vraie martingale : là encore, comme a est arbitraire, on en déduit
2
que Mt ´ xM, M yt est une martingale. l
Pour finir, on introduit le crochet de deux martingales locales M, N en posant
1´ ¯
xM, N yt :“ xM ` N, M ` N yt ´ xM, M yt ´ xN, N yt , t P R` .
2
Il est possible de montrer que ce processus est l’unique processus à variation finie issu de 0 tel que
Mt Nt ´xM, N yt est une martingale locale. Il est aussi possible d’établir un résultat d’approximation
similaire à ce qui est énoncé dans le Théorème II.26.

34
Université Paris Cité
Chapitre III

Intégrale stochastique et formule d’Itô

Approx. 1,5 séance de cours


Il existe divers champs d’application (physique, finance, biologie) dans lesquels on est amené à
modéliser l’évolution d’une quantité d’intérêt (la trajectoire d’une particule, le cours d’une action,
etc.) par une équation différentielle dirigée par un mouvement Brownien :

dXt “ σpXt qdBt ,

où σ : R Ñ R est une fonction donnée. Pour donner un sens à la solution d’une telle équation, il
est nécessaire de développer une théorie de l’intégration contre le mouvement Brownien.

Une approche naturelle serait d’approximer l’intégrale par des sommes de Riemann. Par exemple,
pour donner un sens à
żt
Bs dBs ,
0

pnq pnq pnq


on peut se donner une suite de subdivisions emboı̂tées 0 “ t0 ă t1 ă . . . ă tn “ t dont le pas
tend vers 0 quand n Ñ 8 et considérer la somme finie

n´1
ÿ
B̃i,n pBtpnq ´ Btpnq q ,
i`1 i
i“0

pnq pnq
où B̃i,n est une valeur prise par B sur l’intervalle rti , ti`1 s. L’idée serait alors de définir l’intégrale
comme la limite (si elle existe !) de la suite des sommes finies.
Dans la théorie de l’intégration de Riemann, la valeur que l’on choisit sur chaque intervalle de la
subdivision (ici B̃i,n ) n’a pas d’impact sur la convergence, ni sur la limite, de la suite des sommes
finies.
Il se trouve que la convergence de cette suite de sommes finies est très instable car elle dépend
fortement du choix de B̃i,n . Illustrons cela par un calcul simple. Considérons deux approximations
pnq pnq
distinctes : la première considère la valeur au début de l’intervalle rti , ti`1 s

n´1
ÿ
pnq
It “ Btpnq pBtpnq ´ Btpnq q ,
i i`1 i
i“0

35
Probabilités

pnq pnq
alors que la seconde choisit la valeur à la fin de l’intervalle rti , ti`1 s

n´1
ÿ
pnq
St “ Btpnq pBtpnq ´ Btpnq q .
i`1 i`1 i
i“0

On voit alors que


n´1
ÿ
pnq pnq
St ´ It “ pBtpnq ´ Btpnq q2 .
i`1 i
i“0

Or le Théorème II.26 montre que cette dernière quantité tend en probabilité vers la variation
quadratique du mouvement Brownien au temps t, c’est-à-dire t. Autrement dit les deux suites de
sommes finies ne peuvent avoir la même limite !

Cet exemple est très instructif : il illustre non seulement l’instabilité des schémas d’approximation
de l’intégrale contre le mouvement Brownien, et il suggère également que la source des difficultés
est la variation quadratique du mouvement Brownien. On rappelle que la théorie de l’intégration
contre des fonctions à variation finie est un cas particulier de la théorie générale de l’intégration
(de Lebesgue). Si f est à variation finie, alors µpdsq “ df psq est une mesure (signée)
ş contre laquelle
on peut intégrer toute fonction mesurable bornée ; en particulier, l’intégrale r0,ts f psqdf psq est bien
définie, et peut être obtenue par approximation.
On a vu que la trajectoire Brownienne est à variation infinie p.s., ainsi il n’est pas possible d’appli-
quer la théorie de la mesure pour définir l’intégrale contre le Brownien. Dans ce chapitre nous allons
présenter une théorie de l’intégration contre le Brownien due à Itô (1948), ainsi que sa généralisation
contre toute martingale à trajectoires continues due à Kunita et Watanabe (1967). Nous allons voir
que la construction par Itô consiste à approximer l’intégrale en choisissant la valeur de l’intégrand
pnq
au début de chaque intervalle de la subdivision : dans l’exemple ci-dessus, il s’agit donc de It .
On notera que de telles approximations préservent la propriété de martingale du Brownien : en
pnq
particulier, It est une martingale (dont on peut calculer explicitement la variation quadratique !).
Cela jouera un rôle prépondérant dans la construction de l’intégrale.

1 Intégrale stochastique contre le mouvement Brownien


1) Intégrale stochastique des processus élémentaires
Le point de départ de la construction est de considérer la classe E des processus élémentaires,
c’est-à-dire, de tous les processus H de la forme
p´1
ÿ
Ht pωq “ H piq pωq1sti ,ti`1 s ptq , t P R` , ω P Ω ,
i“0

où p est un entier positif ou nul, 0 “ t0 ă t1 ă . . . ă tp est une collection de réels positifs et chaque
H piq est une v.a. Fti -mesurable bornée.

Remarque III.1
On impose ici que chaque intervalle sti , ti`1 s est fermé à droite et ouvert à gauche. Il se trouve

36
Université Paris Cité
Probabilités

que ce choix n’a aucun impact sur la suite de la construction : on pourrait considérer par exemple
l’intervalle ouvert à droite et fermé à gauche sans changer les résultats à venir. Cela est dû à la
continuité de la trajectoire Brownienne.

Pour tout processus élémentaire H, on définit l’intégrale de H contre B comme la v.a.


p´1
ÿ
IpHq :“ H piq pωqpBti`1 ´ Bti qpωq .
i“0

Pour définir l’intégrale de H contre B restreinte à chaque intervalle r0, ts, on commence par noter
que pour tout t P R` , H1r0,ts est encore un processus élémentaire , et que
p´1
ÿ
IpH1r0,ts q “ H piq pωqpBti`1 ^t ´ Bti ^t qpωq .
i“0

Pour tout processus élémentaire H, on pose alors

It pHq :“ IpH1r0,ts q , t P R` .

Il est facile de voir que le processus pIt pHq, t P R` q est constant égal à IpHq à partir du temps tp .
Lemme III.2
Pour tout processus élémentaire H, le processus pIt pHq, t P R` q est une martingale continue issue
de 0, bornée dans L2 et de variation quadratique
żt
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0

Démonstration Tout d’abord, il n’est pas difficile de vérifier que It pHq est Ft -mesurable pour
tout t P R` et intégrable (il s’agit d’une somme finie de v.a. bornées). Vérifions la propriété de
martingale. Pour tout s P R` , soit j P t0, . . . , pu l’unique entier tel que tj ď s ă tj`1 (avec pour
convention que tp`1 “ 8). On écrit alors pour tout t ě s
j´1
ÿ p
ÿ
It pHq “ H piq pBti`1 ´ Bti q ` H pjq pBtj`1 ^t ´ Btj q ` H piq pBti`1 ^t ´ Bti ^t q .
i“0 i“j`1

Le premier terme est Ftj Ă Fs -mesurable. Le second terme est la somme du terme Fs -mesurable
H pjq pBs ´ Btj q et de H pjq pBtj`1 ^t ´ Bs q dont l’espérance conditionnelle vaut

ErH pjq pBtj`1 ^t ´ Bs q | Fs s “ H pjq ErBtj`1 ^t ´ Bs | Fs s “ H pjq ErBtj`1 ^t ´ Bs s “ 0 .

Calculons l’espérance conditionnelle du troisième terme. Soit i P tj ` 1, . . . , pu. Si t ă ti alors


H piq pBti`1 ^t ´ Bti ^t q “ 0 et l’espérance conditionnelle s’annule. Si t ě ti alors

ErH piq pBti`1 ^t ´ Bti ^t q | Fs s “ ErErH piq pBti`1 ^t ´ Bti ^t q | Fti s | Fs s


“ ErH piq ErBti`1 ^t ´ Bti ^t | Fti s | Fs s
“ ErH piq ErBti`1 ^t ´ Bti ^t s | Fs s
“0.

37
Université Paris Cité
Probabilités

On a donc montré que


j´1
ÿ p´1
ÿ
piq pjq
ErIt pHq | Fs s “ H pBti`1 ´ Bti q ` H pBs ´ Btj q “ H piq pBti`1 ^s ´ Bti ^s q “ Is pHq .
i“0 i“0

On est donc face à une martingale. Notons que pour tout t P R`


p´1
ÿ
ErIt pHq2 s1{2 ď ErpH piq q2 pBti`1 ^t ´ Bti ^t q2 s1{2 .
i“0

Comme H est un processus élémentaire, il existe une constante C ą 0 telle que pour tout i

ErpH piq q2 pBti`1 ^t ´ Bti ^t q2 s1{2 ď CErpBti`1 ^t ´ Bti ^t q2 s1{2 ď Cpti`1 ´ ti q1{2 ,

de sorte que It pHq est bornée dans L2 . La Proposition II.28 et le Théorème II.26 assurent alors que
xI¨ pHq, I¨ pHqyt est l’unique processus
şt 2 adapté et croissant tel que It pHq2 ´ xI¨ pHq, I¨ pHqyt est une
(vraie) martingale. Comme 0 Hs ds est adapté et croissant, il nous suffit de vérifier que It pHq2 ´
şt 2
0 Hs ds est une martingale. On écrit alors

p´1
ÿ p´1
ÿ
2 piq 2 2
It pHq “ pH q pBti`1 ^t ´ Bti ^t q ` 2 H piq H pjq pBti`1 ^t ´ Bti ^t qpBtj`1 ^t ´ Btj ^t q .
i“0 iăj:i,j“0

Un calcul, similaire au précédent, montre que l’espérance conditionnelle sachant Fs du premier


terme vaut
p´1
ÿ żt
pH q pBti`1 ^s ´ Bti ^s q ` Er Hr2 dr | Fs s ,
piq 2 2
(III.1)
i“0 s

tandis que celle du second terme vaut


p´1
ÿ
2 H piq H pjq pBti`1 ^s ´ Bti ^s qpBtj`1 ^s ´ Btj ^s q .
iăj:i,j“0

En regroupant les termes, on obtient alors que


żt żs
ErIt pHq2 ´ Hr2 dr | Fs s “ Is pHq2 ´ Hr2 dr .
0 0

Donnons les détails du calcul du premier terme. En reprenant les notations du début de la preuve,
on obtient aisément que
p´1
ÿ j´1
ÿ
Er pH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fs s “ pH piq q2 pBti`1 ´ Bti q2
i“0 i“0
pjq 2
` pH q pBs ´ Btj q2 ` ErpH pjq q2 pBtj`1 ^t ´ Bs q2 | Fs s
p
ÿ
` Er pH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fs s
i“j`1

38
Université Paris Cité
Probabilités

Or
ErpH pjq q2 pBtj`1 ^t ´ Bs q2 | Fs s “ pH pjq q2 ErpBtj`1 ^t ´ Bs q2 | Fs s
“ pH pjq q2 ErpBtj`1 ^t ´ Bs q2 s
“ pH pjq q2 ptj`1 ^ t ´ sq ,
tandis que
ErpH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fs s “ ErErpH piq q2 pBti`1 ^t ´ Bti ^t q2 | Fti ^t s | Fs s
“ ErpH piq q2 ErpBti`1 ^t ´ Bti ^t q2 s | Fs s
“ ErpH piq q2 | Fs spti`1 ^ t ´ ti ^ tq .
Or, le processus H étant constant par morceaux, on obtient
żt p
ÿ
Hr2 dr “ pH pjq q2 ptj`1 ^ t ´ sq ` pH piq q2 pti`1 ^ t ´ ti ^ tq ,
s i“j`1

et żt p
ÿ
Er Hr2 dr | Fs s “ pH pjq q2 ptj`1 ^ t ´ sq ` ErpH piq q2 | Fs spti`1 ^ t ´ ti ^ tq .
s i“j`1

En regroupant les termes, on obtient (III.1). l


On notera que E est un espace vectoriel et que H ÞÑ IpHq est linéaire. Ainsi, par polarisation on
calcule que pour tous H, K P E
żt
xI¨ pHq, I¨ pKqyt “ Hs Ks ds .
0

On notera également que le lemme précédent, combiné au fait que It pHq est constant égal à IpHq
pour t assez grand, assure que ż8
ErIpHq2 s “ Er Hs2 dss .
0

2) Intégrale stochastique des processus progressifs intégrables


On souhaite étendre la construction précédente à des integrands plus généraux. Par exemple, on
veut pouvoir considérer des processus H dont les trajectoires sont continues, voire seulement conti-
nues à droites.

Quelle est la “bonne” classe d’intégrands à considérer ?

Jusqu’à présent nous avons construit une application linéaire I sur l’espace vectoriel E et nous
avons vu que pour tout H P E ż8
2
ErIpHq s “ Er Hs2 dss .
0
L’idée est d’utiliser cette identité comme une propriété d’isométrie afin d’étendre par densité l’ap-
plication I.

On considère alors H2 , l’ensemble des processus pHs , s P R` q tels que :

39
Université Paris Cité
Probabilités

(i) (Mesurabilité) l’application ps, ωq ÞÑ Hs pωq est mesurable de pR` ˆ Ω, BpR` q b Fq dans
pR, BpRqq,
(ii) (Progressive mesurabilité) pour tout t P R` , l’application ps, ωq ÞÑ Hs pωq est mesurable de
pr0, ts ˆ Ω, Bpr0, tsq b Ft q dans pR, BpRqq,
ş8
(iii) (Intégrabilité) Er 0 Hs2 dss ă 8
Quelques commentaires s’imposent. L’hypothèse (iii) est nécessaire pour établir la propriété d’isométrie.
şL’hypothèse
8 2
(i) assure que pour tout ω, s ÞÑ Hs pωq est mesurable de sorte que l’on peut manipuler
0 Hs ds. Elle assure aussi que cette dernière quantité est une variable aléatoire et qu’ainsi on peut
en calculer l’espérance, ce qui est nécessaire pour énoncer l’hypothèse (iii). L’hypothèse (ii) est plus
subtile : elle assure que les processus élémentaires sont denses dans H2 .

Cet ensemble de processus est compliqué, et on ne cherchera pas à en caractériser tous les éléments.
En revanche, il contient les processus que l’on souhaite manipuler :
Lemme III.3
Tout processus stochastique adapté dont les trajectoires sont continues à gauche vérifie les propriétés
(i) et (ii). En particulier, E Ă H2 .

Démonstration Soit H un processus adapté dont les trajectoires sont continues à gauche. Pour
tout n ě 1, on définit le processus
pnq
Ht :“ Hk2´n , k2´n ď t ă pk ` 1q2´n .
pnq
Par continuité à gauche des trajectoires, Ht Ñ Ht pour tout t P R` . Il suffit donc d’établir (i) et
(ii) pour chaque H pnq .
Soit A un Borélien, on a
ď“ “
pH pnq q´1 pAq “ k2´n , pk ` 1q2´n ˆ tω : Hk2´n pωq P Au ,
k

et cette union dénombrable d’ensembles produits appartient à BpR` q b F (ici on utilise le caractère
adapté de H). La mesurabilité (i) de H pnq s’en suit.
La progressive mesurabilité (ii) s’établit de façon quasiment identique (on doit restreindre la tra-
jectoire à r0, ts). l
Mentionnons enfin que l’espace H2 est un espace de Hilbert une fois muni du produit scalaire (nous
ne démontrons pas cette affirmation)
ż
xH, KyH2 :“ Er Hs Ks dss .
R`

Venons-en au résultat de densité évoqué précédemment. Etant donné une fonction f P L2 pR` q et
un entier n ě 1, on définit la fonction en escalier
n2n
ÿ” ´ ż i2´n ¯ ı
pPn f qt :“ p´nq _ 2n fs ds ^ n 1si2´n ,pi`1q2´n s ptq , t P R` .
i“1 pi´1q2´n

On peut montrer que pour tout f P L2 pR` q :


1. }Pn f }L2 pR` q ď }f }L2 pR` q ,
2. Pn f Ñ f dans L2 pR` q.

40
Université Paris Cité
Probabilités

Lemme III.4
L’ensemble E est dense dans H2 . Plus précisément, si H P H2 alors :
1. pour tout n ě 1, ppPn Hqt , t P R` q est un processus élémentaire,
2. ppPn Hqt , t P R` q converge, quand n Ñ 8, vers H dans H2 .

Démonstration Pour vérifier le premier point, on observe que t ÞÑ pPn Hqt est une fonction en
escalier, qui s’annule hors de r2´n , n ` 2´n s et que sa valeur est constante sur tout intervalle de la
forme si2´n , pi ` 1q2´n s et que cette valeur est donnée par une v.a. Fi2´n -mesurable bornée.
Pour vérifier le second point, on commence par observer que

}Pn H ´ H}2H2 “ Er}Pn H ´ H}2L2 pR` q s .

Or les propriétés de l’opérateur Pn assurent que pour tout ω P Ω

}Pn H ´ H}L2 pR` q Ñ 0 , nÑ8.

et
}Pn Hpωq ´ Hpωq}L2 pR` q ď }Pn Hpωq}L2 pR` q ` }Hpωq}L2 pR` q ď 2}Hpωq}L2 pR` q .
Ainsi le Théorème de Convergence Dominée assure que

}Pn H ´ H}H2 Ñ 0 , nÑ8.

l
On peut alors prolonger de manière unique l’application I en une application linéaire continue sur
l’espace H2 tout entier. Cette application vérifie la propriété d’isométrie : pour tout H P H2
ż8
2
ErIpHq s “ Er Ht2 dts .
0

On peut ensuite introduire l’intégrale fonction de sa borne supérieure en posant

It pHq :“ IpH1r0,ts q , t P R` .

Proposition III.5
Pour tout H P H2 , le processus pIt pHq, t P R` q est une martingale continue issue de 0, bornée dans
L2 et de variation quadratique ż t
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0

Démonstration Ces propriétés s’obtiennent en approximant H par une suite de processus


élémentaires et en passant à la limite. l

3) Intégrale stochastique des processus progressifs localement intégrables


Il est naturel de vouloir définir l’intégrale stochastique d’un processus H adapté et à trajectoires
continues ; malheureusement, l’espace H2 considéré jusqu’à présent est trop restrictif. En effet, un
tel processus vérifie les hypothèses (i) et (ii), mais rien ne garantit que l’hypothèse d’intégrabilité

41
Université Paris Cité
Probabilités

şt
(iii) est vérifiée. Cependant, la continuité des trajectoires assure que pour tout t P R` , 0 Hs2 ds ă 8
p.s. Le but de ce paragraphe est d’étendre la construction afin de couvrir de tels processus.

2 de tous les processus H vérifiant :


On considère l’espace Hloc
(i) (Mesurabilité) l’application ps, ωq ÞÑ Hs pωq est mesurable de pR` ˆ Ω, BpR` q b Fq dans
pR, BpRqq,
(ii) (Progressive mesurabilité) pour tout t P R` , l’application ps, ωq ÞÑ Hs pωq est mesurable de
pr0, ts ˆ Ω, Bpr0, tsq b Ft q dans pR, BpRqq,
şt
(iii) (Intégrabilité locale) pour tout t P R` , 0 Hs2 ds ă 8 p.s.
2 . On considère la suite de temps d’arrêt T :“ inftt ě 0 : t H 2 ds ě nu. La suite T est
ş
Soit H P Hloc n 0 s n
pnq
croissante et converge vers `8 p.s. Pour tout n, le processus tronqué Ht :“ Ht 1r0,Tn s appartient
à H2 . Il est facile de vérifier que presque sûrement : pour tout t ě 0, la suite It pH pnq q, n ě 1, est
constante à partir du premier rang n où Tn ě t. On pose alors

It pHq “ lim It pH pnq q .


nÑ8

Lemme III.6
2 , le processus pI pHq, t P R q est une martingale locale issue de 0 de variation
Pour tout H P Hloc t `
quadratique żt
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0

Démonstration La définition de It pHq assure que presque sûrement : pour tout t ě 0 et tout
ně1
It^Tn pHq “ It pH pnq q .
En effet, la définition assure que si t ^ Tn ď Tm alors

It^Tn pHq “ It^Tn pH pmq q .

Or t ^ Tn ď Tn et ainsi
It^Tn pHq “ It^Tn pH pnq q .
Or

It^Tn pH pnq q “ It^Tn pH1r0,Tn s q “ IpH1r0,Tn s 1r0,t^Tn s q “ IpH1r0,Tn s 1r0,ts q “ It pH1r0,Tn s q “ It pH pnq q ,

d’où le résultat.
Comme la suite de temps d’arrêt Tn , n ě 1 tend vers `8 p.s., on a montré que It pHq est bien une
martingale locale et que la suite Tn , n ě 1 la réduit. Pour identifier sa variation quadratique, on
commence par rappeler que (voir Remarque II.27)

xI¨ pHq, I¨ pHqyt^Tn “ xI¨^Tn pHq, I¨^Tn pHqyt .

La première identité prouvée dans cette preuve permet d’écrire


żt ż t^Tn
xI¨ pHq, I¨ pHqyt^Tn “ xI¨ pH pnq q, I¨ pH pnq qyt “ pHspnq q2 ds “ Hs2 ds .
0 0

42
Université Paris Cité
Probabilités

Toutes ces expressions sont croissantes en n, on peut donc passer à la limite n Ñ 8 et obtenir
żt
xI¨ pHq, I¨ pHqyt “ Hs2 ds .
0

l
Dans la suite, on manipulera l’intégrale stochastique à l’aide de la notation naturelle suivante :
żt
It pHq “ Hs dBs , t ě 0 .
0

Remarque III.7
La notion de martingale locale prend tout son sens ici. L’intégrale stochastique d’un processus
H adapté et à trajectoires continues n’est, en général, pas une martingale mais seulement une
martingale locale. On peut ainsi fournir de nombreux exemples de martingales locales.

4) Un résultat d’approximation
En lien avec la discussion présentée en début de chapitre, nous énonçons un résultat affirmant
que l’intégrale d’Itô que l’on vient de construire résulte bien d’une approximation dans laquelle
l’integrand est évalué au début de chaque intervalle de la subdivision.
Proposition III.8
Soit H un processus continu adapté. Pour tout t ą 0 et toute suite 0 “ tn0 ă ¨ ¨ ¨ ă tnpn “ t de
subdivisions de r0, ts de pas tendant vers 0, la convergence suivante a lieu en probabilité
pÿ
n ´1 żt
lim Htni pBtni`1 ´ Btni q “ Hs dBs .
nÑ8 0
i“0

Démonstration Commençons par supposer qu’il existe C ą 0 tel que pour tout s P r0, ts et tout
ω P Ω, |Hs pωq| ă C. On introduit alors le processus élémentaire
pÿ
n ´1

Kspnq pωq :“ Htni pωq1stni ,tni`1 s psq , s P R` .


i“0

Le théorème de convergence dominée assure que


”ż ı
pnq 2
E p1r0,ts psqHs ´ Ks q ds Ñ 0 , nÑ8,
R`

pnq şt şt pnq
c’est-à-dire }1r0,ts psqHs ´Ks }H2 Ñ 0 et ainsi 0 Hs dBs ´ 0 Ks dBs converge vers 0 dans L2 pΩ, F, Pq.
Dans le cas général, on introduit le temps d’arrêt Tm :“ inftt ě 0 : |Hs | ě mu pour tout entier
m ě 1. La discussion précédente assure que la convergence suivante a lieu dans L2 et donc en
probabilité
pÿ
n ´1 żt
lim Htni ^Tm pBtni`1 ´ Btni q “ Hs^Tm dBs .
nÑ8 0
k“0

43
Université Paris Cité
Probabilités

Sur l’événement tTm ą tu, cela assure que


pÿ
n ´1 żt
lim Htni pBtni`1 ´ Btni q “ Hs dBs .
nÑ8 0
k“0
On conclut en utilisant le fait que PpTm ą tq Ñ 1 quand m Ñ 8. l

2 Intégrale stochastique contre une martingale continue


Pourquoi souhaiter généraliser encore l’intégrale stochastique ?
2 alors
On a vu que si H P Hloc żt
Hs dBs , t ě 0 ,
0
est une martingale locale. On pourrait souhaiter définir une notion d’intégrale contre cette martin-
gale locale. En fait, la formule d’Itô que nous allons introduire bientôt nécessite d’introduire une
telle notion d’intégrale.

Il se trouve que toute la construction présentée précédemment se généralise au cas où B est remplacé
par une martingale locale M . La différence principale porte sur la condition d’intégrabilité des
integrands : au lieu d’imposer que pour tout t P R`
żt
Hs2 ds ă 8 p.s. ,
0
on impose żt
Hs2 dxM, M ys ă 8 p.s. .
0
C’est tout-à-fait cohérent car dans le cas où M est un mouvement Brownien dxM, M ys “ ds.

Le résultat s’énonce comme suit. Soit Hloc 2 pM q l’ensemble des processus H vérifiant :

(i) (Mesurabilité) l’application ps, ωq ÞÑ Hs pωq est mesurable de pR` ˆ Ω, BpR` q b Fq dans
pR, BpRqq,
(ii) (Progressive mesurabilité) pour tout t P R` , l’application ps, ωq ÞÑ Hs pωq est mesurable de
pr0, ts ˆ Ω, Bpr0, tsq b Ft q dans pR, BpRqq,
şt
(iii) (Intégrabilité locale) pour tout t P R` , 0 Hs2 dxM, M ys ă 8 p.s.
Pour tout H P Hloc 2 pM q, il existe un processus pI pHq, t P R q qui est une martingale locale issue
t `
de 0 de variation quadratique
żt
xI¨ pHq, I¨ pHqyt “ Hs2 dxM, M ys .
0
Ce processus est caractérisé par la propriété suivante : il s’agit de l’unique martingale locale issue
de 0 telle que pour toute martingale locale N
żt
xIpHq, N yt “ Hs dxM, N ys , t P R` .
0
Là encore, on utilisera la notation
żt
It pHq “ Hs dMs , t P R` .
0

44
Université Paris Cité
Probabilités

3 Formule d’Itô
Soit X un processus obtenu comme intégrale stochastique contre un mouvement Brownien :
żt
Xt “ Hs dBs , t P R` .
0

Si f : R Ñ R est une fonction C 1 , alors on s’attend à ce que

df pXt q “ f 1 pXt qdXt ,

c’est-à-dire żt
f pXt q “ f pX0 q ` f 1 pXs qHs dBs .
0
Il s’avère que
şt cette identité est2fausse en général ! Illustrons cela sur un exemple très simple. Prenons
Xt “ Bt “ 0 dBs et f pxq “ x . Il se trouve que
żt żt
f pBt q “ Bt2 ‰ B02 `2 Bs dBs “ f pB0 q ` f 1 pBs qdBs .
0 0

En effet, nous avons vu en tout début de chapitre que


żt n´1
ÿ
Bs dBs “ lim Btpnq pBtpnq ´ Btpnq q .
0 n i i`1 i
i“0

Or
n´1
ÿ n´1
ÿ n´1
ÿ
Bt2 “ B02 ` pB 2pnq ´ B 2pnq q “ B02 `2 Btpnq pBtpnq ´ Btpnq q ` pBtpnq ´ Btpnq q2 .
ti`1 ti i i`1 i i`1 i
i“0 i“0 i“0
şt
Par la Proposition III.8, le premier terme de gauche converge vers 2 0 Bs dBs . Par contre, le second
terme de gauche converge vers t, par le Théorème II.26. Ainsi
żt
2 2
Bt “ B0 ` 2 Bs dBs ` t .
0

En d’autres termes, l’intégrale stochastique ne vérifie pas les règles usuelles de calcul différentiel.
En particulier, la chain rule qui affirme que pour une fonction t ÞÑ ht continûment différentiable
et f : R Ñ R de classe C 1
df pht q “ f 1 pht qdht ,
n’a plus cours lorsque h est remplacé par un processus mettant en jeu une intégrale stochastique.
La formule d’Itô, que l’on introduit à présent, fournit la bonne formule pour une telle composition.

Avant cela, nous devons introduire une classe de processus à laquelle cette formule d’Itô s’appli-
quera.
Définition III.9
Un processus stochastique pXt , t P R` q est une semi-martingale s’il existe une martingale locale M

45
Université Paris Cité
Probabilités

issue de 0, un processus adapté à variation finie A et à trajectoires continues issu de 0 ainsi qu’une
v.a. X0 F0 -mesurable tels que

Xt “ X0 ` Mt ` At , t P R` .

On pose alors xX, Xyt :“ xM, M yt pour tout t ě 0.

Par le Théorème II.24 une telle décomposition est nécessairement unique. Un exemple typique de
semi-martingale est żt żt
Xt “ X0 ` Hs dBs ` Ks ds ,
0 0

M2
avec H P loc et K un processus progressivement mesurable et localement borné (on parle parfois
de processus d’Itô pour désigner de telles semi-martingales).
Remarque III.10
On peut montrer que xX, Xyt est la limite en probabilité de la somme des carrés des incréments de
X le long d’une suite de subdivisions emboı̂tées.

Théorème III.11 (Formule d’Itô en dimension 1)


Soit X une semi-martingale et soit f : R` ˆ R Ñ R une fonction de classe C 1,2 . Alors le processus
pf pt, Xt q, t P R` q satisfait presque sûrement : pour tout t P R`
żt żt żt
1
f pt, Xt q “ f p0, X0 q ` Bs f ps, Xs qds ` Bx f ps, Xs qdXs ` Bx2 f ps, Xs qdxX, Xys .
0 0 2 0

Remarque III.12
L’intégrale contre dXs est la somme de deux termes : une intégrale stochastique contre la partie
martingale locale de X żt
Bx f ps, Xs qdMs ,
0
et une intégrale classique contre la partie à variation finie de X
żt
Bx f ps, Xs qdAs .
0

En notation différentielle cette formule s’écrit


1
df pt, Xt q “ Bt f pt, Xt q ` Bx f pt, Xt qdXt ` Bx2 f pt, Xt qdxX, Xyt .
2
Les deux premiers termes apparaissent dans la formule classique (régie par les règles usuelles
d’intégration/différentiation), par contre le troisième terme est spécifique à l’intégrale stochastique.
On notera d’ailleurs qu’il respose sur la variation quadratique de X et que celle-ci est nulle dans la
formule classique.
Démonstration On se contente de présenter la preuve dans le cas où X est un mouvement
Brownien B et f ne dépend pas du temps. Le cas général s’appuie sur les mêmes idées. Le gros du
travail porte sur le terme mettant en jeu la variation quadratique.

46
Université Paris Cité
Probabilités

On se donne une suite indicée par n ě 1 de subdivisions emboı̂tées 0 “ tn0 ă tn1 ă . . . ă tnpn “ t de
l’intervalle r0, ts dont le pas tend vers 0 quand n Ñ 8. Alors
pÿ
n ´1
` ˘
f pBt q “ f pB0 q ` f pBtni`1 q ´ f pBtni q .
i“0

La formule de Taylor assure que


fn,i pωq
f pBtni`1 q ´ f pBtni q “ f 1 pXtni qpBtni`1 ´ Btni q ` pBtni`1 ´ Btni q2 ,
2
où
inf f 2 pBtni ` θpBtni`1 ´ Btni qq ď fn,i ď sup f 2 pBtni ` θpBtni`1 ´ Btni qq; .
θPr0,1s θPr0,1s

La Proposition III.8 assure que la convergence suivante a lieu en probabilité


pÿ
n ´1 żt
1
lim f pXtni qpBtni`1 ´ Btni q “ f 1 pBs qdBs .
nÑ8 0
i“0

Il nous reste à montrer que la convergence suivante a lieu en probabilité


pÿ
n ´1 żt
2
lim fn,i pB tn
i`1
´B q “ tn
i
f 2 pBs qds .
nÑ8 0
i“0

L’idée va être d’utiliser deux échelles d’approximation, pour faire apparaı̂tre successivement la
variation quadratique puis l’approximation de f 2 . Plus précisément pour tout m ă n on introduit
la v.a.
Zm,n :“ sup sup |fn,i ´ fm,j | .
0ďjďpm ´1 i:tm n m
j ďti ďtj`1

La continuité de f 2 assure que Zm,n Ñ 0 presque sûrement, lorsque m Ñ 8 (on rappelle que m ă n
et qu’ainsi n Ñ 8 nécessairement). On note alors que
ˇ pÿ
n ´1 pm
ÿ ´1 ÿ ˇ pÿ
n ´1
2
f B fm,i pBtni`1 ´ Btni q2 ˇ ď Zm,n pBtni`1 ´ Btni q2 .
ˇ ˇ
ˇ n,i pB n
ti`1 ´ n
ti q ´
i“0 j“0 i:tm n m
j ďti ďtj`1 i“0

Comme la somme apparaissant dans le deuxième terme converge vers t en probabilité, pour tout
ε ą 0 il existe m tel que pour tout n ą m
pÿ
n ´1

PpZm,n pBtni`1 ´ Btni q2 ą εq ă ε .


i“0

Pour cette valeur de m fixée, on voit que pour tout j P t0, . . . , pm ´ 1u et au sens de la convergence
en probabilité ÿ
lim pBtni`1 ´ Btni q2 “ tm m
j`1 ´ tj .
nÑ8
i:tm n m
j ďti ďtj`1

Par linéarité
pm
ÿ ´1 ÿ żt
2
lim fm,i pB tn
i`1
´B q “tn
i
hm
s ds ,
nÑ8 0
j“0 i:tm n m
j ďti ďtj`1

47
Université Paris Cité
Probabilités

řpm ´1
où hm
s :“ j“0 fm,i 1rtm m
j ,tj`1 r
psq. Quitte à prendre m plus grand, la continuité de f 2 assure que

Pp sup |hm 2
s ´ f pBs q| ą εq ă ε ,
sPr0,ts

et ainsi żt żt
Pp| hm
s ds ´ f 2 pBs qds| ě tεq ă ε .
0 0
En regroupant les estimations précédentes, on a montré que
ˇ pÿ
n ´1 żt ˇ
2
fn,i pBtni`1 ´ Btni q ´ f 2 pBs qdsˇ ě εp2 ` tqq ă 2ε ,
ˇ ˇ
Ppˇ
i“0 0

ce qui conclut la preuve. l


Enonçons à présent la formule dans le cas multi-dimensionnel.
Théorème III.13 (Formule d’Itô en dimension quelconque)
Soient X p1q , . . . , X pdq d semi-martingales et soit f : R` ˆ Rd Ñ R une fonction de classe C 1,2 . Alors
le processus pf pt, Xt q, t P R` q satisfait l’équation
żt
p1q pdq p1q pdq
f pt, Xt , . . . , Xt q “ f p0, X0 , . . . , X0 q ` Bs f ps, Xsp1q , . . . , Xspdq qds
0
d żt
ÿ
` Bxpiq f ps, Xsp1q , . . . , Xspdq qdXspiq
i“1 0
d żt
1 ÿ
` Bx2piq ,xpjq f ps, Xs qdxX piq , X pjq ys .
2 i,j“1 0

Cette formule s’appuie sur la covariation entre deux semi-martingales. Si X et Y sont deux semi-
martingales, dont les parties martingales locales sont données par M et N respectivement alors

xX, Y yt :“ xM, N yt .

On peut vérifier la prorpriété de bilinéarité suivante :

xaX ` bY, Zyt “ axX, Zy ` bxY, Zyt ,

et de symétrie
xX, Y yt “ xY, Xyt .

48
Université Paris Cité
Chapitre IV

Outils en calcul stochastique

Approx. 1 séance de cours

1 Martingales exponentielles
On a déjà observé en TD que le processus pexppBt ´ 21 tq, t P R` q est une martingale. La preuve
de ce résultat s’appuie sur l’indépendance des incréments du Brownien et la connaissance de la
transformée de Laplace de la gaussienne. Il se trouve que ce résultat n’est pas limité au mouvement
Brownien comme le montre la proposition suivante.
Proposition IV.1
Soit L une martingale locale issue de 0. On définit
1
EpLqt :“ exppLt ´ xL, Lyt q , t P R` .
2
Le processus pEpLqt , t P R` q est une martingale locale issue de 1.

Le processus ci-dessus est parfois appelé exponentielle stochastique ou exponentielle de Doléans-


Dade de M .
Démonstration On va appliquer la formule d’Itô à la paire de semi-martingales pLt , xL, Lyt q. On
notera que le second processus est à variation finie de sorte que sa variation quadratique est nulle
ainsi que sa covariation avec L.
Soit F px, yq :“ exppx ´ 21 yq. Il s’agit d’une fonction C 2 en ses deux arguments qui vérifie
1 2
Bx F “ F , B F ` By F “ 0 .
2 x
On applique alors la formule d’Itô à F et à la paire de semi-martingales pLt , xL, Lyt q pour obtenir
żt
F pLt , xL, Lyt q “ 1 ` Bx F pLs , xL, Lys qdLs
0
żt´
1 2 ¯
` Bx F ` By F pLs , xL, Lys qdxL, Lys
0 2
żt
“ 1 ` F pLs , xL, Lys qdLs .
0
ce qui prouve le résultat. l

49
Probabilités

Remarque IV.2
2
Si L est une martingale locale et z P C alors le processus pEpzLqt “ exppzLt ´ z2 xL, Lyt q, t P R` q
est une martingale locale à valeurs complexes. La preuve est identique à celle présentée ci-dessus,
il suffit d’appliquer la formule d’Itô séparément aux parties réelles et imaginaires de la fonction
F px, yq “ exppzx ´ z 2 21 yq.

Dans la suite, il sera utile d’avoir un critère assurant que l’exponentielle stochastique construite
ci-dessus est une vraie martingale.
Théorème IV.3 (Novikov )
Soit L une martingale locale issue de 1. On fixe t ą 0. Si
” ´1 ¯ı
E exp xL, Lyt ă 8 ,
2
alors pEpLqs , s P r0, tsq est une martingale.

On rappelle que toute martingale sur un intervalle de temps borné est uniformément intégrable
(elle est fermée par sa valeur terminale).
Démonstration Soit ε P p0, 1q. Il est facile de vérifier que
´ ¯ 12 ´ ¯ 1 ´ 1 ¯ ε
1´ε 1`ε xL,Lys 1`ε
Epp1 ´ εqLqs “ EpLqs e 2 .

On introduit le temps d’arrêt Tn :“ inftt ě 0 : |L|t ` xL, Lyt ě nu. Il s’agit d’une suite qui réduit
les martingales locales EpLq et Epp1 ´ εqLq. On applique l’égalité précédente au temps s “ t ^ Tn
et l’on en prend l’espérance (qui est bien définie car tout est positif) :
”´ ¯ 12ı ”´ ¯ 1 ´ 1 ¯ ε ı
1`ε 1`ε
E Epp1 ´ εqLqt^Tn 1´ε “ E EpLqt^Tn e 2 xL,Lyt^Tn .

On applique alors l’inégalité de Hölder avec p “ 1 ` ε et q “ p1 ` εq{ε et l’on obtient


”´ ¯ 12ı ” ı 1 ” 1 ı ε
1`ε 1`ε
E Epp1 ´ εqLqt^Tn 1´ε ď E EpLqt^Tn E e 2 xL,Lyt^Tn . (IV.1)
” ı ” ı
Comme Tn réduit EpLq, on sait que E EpLqt^Tn “ E EpLq0 “ 1. Par ailleurs xL, Lyt^Tn ď xL, Lyt
p.s. et ainsi
”´ ¯ 12ı ” 1 ı ε
1`ε
E Epp1 ´ εqLqt^Tn 1´ε ď E e 2 xL,Lyt .
1
Ceci assure que la suite pEpp1 ´ εqLqt^Tn qně1 est bornée dans Lp pour p “ 1´ε 2 ą 1, et est
ainsi uniformément intégrable (voir la Proposition B.5). Comme cette suite converge p.s. vers
Epp1 ´ εqM qt , le Théorème de Convergence Dominée Optimal B.6 assure que
” ı ” ı
E Epp1 ´ εqLqt “ lim E Epp1 ´ εqLqt^Tn “ 1 .
nÑ8

L’inégalité de Jensen assure que


” ı ” ıp
E Epp1 ´ εqLqpt ě E Epp1 ´ εqLqt “ 1 .

50
Université Paris Cité
Probabilités

On reprend alors l’inégalité (IV.1) mais appliquée au temps t plutôt que t ^ Tn et l’on obtient
”´ ¯ 12ı ” ı 1 ” 1 ı ε
1`ε 1`ε
1 ď E Epp1 ´ εqLqt 1´ε ď E EpLqt E e 2 xL,Lyt .

En prenant la limite ε Ó 0 on trouve ” ı


E EpLqt ě 1 .

Pour conclure, il suffit d’appliquer le lemme ci-dessous. l

Lemme IV.4
Soit N une martingale locale positive issue de 1. Alors N est une super-martingale. Par ailleurs
pNs , s P r0, tsq est une martingale si et seulement si ErNt s ě ErN0 s.

Démonstration Soit Tn , n ě 1 une suite de temps d’arrêt qui réduit N . Pour tout 0 ď s ď t

Ns^Tn “ ErNt^Tn | Fs s .

Or Ns^Tn et Nt^Tn convergent p.s. vers Ns et Nt quand n Ñ 8. Comme il s’agit de v.a. positives,
on peut appliquer le Lemme de Fatou pour l’espérance conditionnelle (qui se prouve en utilisant la
définition de l’espérance conditionnelle et le lemme de Fatou classique) :

ErNt | Fs s ď lim inf ErNt^Tn | Fs s “ lim inf Ns^Tn “ Ns ,


n n

ce qui assure que N est une super-martingale.


Passons à la preuve de l’équivalence. L’implication directe est immédiate. Prouvons l’implication
réciproque. On suppose que ErNt s ě ErN0 s. La propriété de super-martingale implique s ÞÑ ErNs s
est décroissante. L’inégalité précédente implique que ErNs s “ ErNt s “ ErN0 s. Ainsi Ns ´ErNt | Fs s
est une v.a. positive p.s. et d’espérance nulle : nécessairement cette v.a. est nulle p.s. l

2 Caractérisation de Lévy et théorème de Dubins-Schwarz


Théorème IV.5 (Caractérisation de Lévy du mouvement Brownien)
Soit X un processus adapté, à trajectoires continues et issu de 0. Il y a équivalence entre :
(i) X est un mouvement Brownien,
(ii) X est une martingale locale et xX, Xyt “ t pour tout t P R` .

Démonstration L’implication (i) ñ (ii) est déjà connue. Supposons (ii). Par la Proposition IV.1
et la Remarque IV.2, le processus

λ2
EpiλXqt “ exppiλXt ` tq , t P R` ,
2
est une martingale locale. Comme elle est bornée sur tous les intervalles bornés, il s’agit d’une vraie
martingale. Ainsi pour tous 0 ď s ď t

λ2 λ2
exppiλXs ` sq “ ErexppiλXt ` tq | Fs s .
2 2

51
Université Paris Cité
Probabilités

Ainsi pour tout A P Fs


1
Er1A exppiλpXt ´ Xs qqs “ PpAq expp´ λ2 pt ´ sqq .
2
En prenant A “ Ω, on déduit que Xt ´ Xs est de loi N p0, t ´ sq. Par ailleurs, en prenant A P Fs
tel que PpAq ą 0 et en notant PA la probabilité conditionnelle sachant A, on voit que
1
EA rexppiλpXt ´ Xs qqs “ expp´ λ2 pt ´ sqq .
2
Ainsi, sous la probabilité PA , la v.a. Xt ´ Xs suit une N p0, t ´ sq, ce qui implique que pour toute
fonction mesurable positive f : R Ñ R

EA rf pXt ´ Xs qs “ Erf pXt ´ Xs qs ,

soit encore
Er1A f pXt ´ Xs qs “ PpAqErf pXt ´ Xs qs .
Cela étant vrai pour tout A P Fs et toute fonction mesurable positive f , on en déduit que Xt ´ Xs
est indépendante de Fs . On a donc montré que X est un processus à trajectoires continues, dont
les accroissements sont indépendants et stationnaires, et tels que Xt ´ Xs „ N p0, t ´ sq. Par la
Proposition I.7, on en déduit que X est un mouvement Brownien. l
Enonçons également la version multi-dimensionnelle de ce résultat, sa preuve est tout à fait similaire.
Théorème IV.6 (Caractérisation de Lévy du mouvement Brownien multi-dimensionnel )
Soit X “ pX p1q , . . . , X pdq q un processus adapté, à trajectoires continues et issu de 0. Il y a
équivalence entre :
1. X est un mouvement Brownien multi-dimensionnel,
2. Chaque processus X piq est une martingale locale et xX piq , X pjq yt “ t1i“j pour tout t P R` et
tous i, j P t1, . . . , du.

Enonçons, sans preuve, un autre résultat reliant martingales et mouvement Brownien.


Théorème IV.7 (Dubins-Schwarz )
Soit M une martingale locale issue de 0 telle que xM, M y8 “ 8 p.s. Il existe un mouvement
Brownien B tel que presque sûrement

@t ě 0 , Mt “ BxM,M yt .

Ce très joli résultat montre que toute martingale locale issue de 0 est un mouvement Brownien
changé de temps. Par ailleurs la contrainte xM, M y8 “ 8 p.s. est plutôt d’ordre technique, et peut
être levée.

3 Théorème de Girsanov
Le théorème de Girsanov est un outil très utile en calcul stochastique. Il s’appuie sur un changement
de mesure : à l’aide d’une martingale exponentielle, on introduit une mesure de probabilité Q qui

52
Université Paris Cité
Probabilités

est équivalente à P. Le théorème établit alors une correspondance entre martingales locales sous la
mesure d’origine P et martingales locales sous la nouvelle mesure Q.

Commençons par introduire ce changement de mesure : pour éviter les confusions, nous notons à
présent EP l’espérance par rapport à la probabilité P d’origine, et EQ l’espérance sous une autre
probabilité Q.
Proposition IV.8
Soit L une martingale locale issue de 0. On fixe t ě 0 et on suppose que pEpLqs , s P r0, tsq est une
vraie martingale. On pose pour tout A P Ft

QpAq :“ EP r1A EpLqt s .

Alors Q est une mesure de probabilité sur pΩ, Ft q et pour tout s P r0, ts et tout A P Fs

QpAq “ EP r1A EpLqs s .

Démonstration Vérifions que Q est effectivement une mesure de probabilité sur pΩ, Ft q. Il est
clair que QpHq “ 0. Par ailleurs si An , n ě 1 est une suite d’événements deux-à-deux disjoints
alors, en utilisant le théorème de Fubini, on obtient
ÿ ÿ ÿ
QpYn An q “ EP r1Yn An EpLqt s “ EP r 1An EpLqt s “ EP r1An EpLqt s “ QpAn q .
n n n

Soit maintenant s P r0, ts et A P Fs . En utilisant la propriété de martingale de EpLq on trouve :

QpAq “ EP r1A EpLqt s “ EP rEP r1A EpLqt | Fs ss “ EP r1A EP rEpLqt | Fs ss “ EP r1A EpLqs s .

l
Pour s’assurer que pEpLqs , s P r0, tsq est une vraie martingale, on peut utiliser le critère de Novikov
du Théorème IV.3.
Théorème IV.9
Soit L une martingale locale issue de 0. On fixe t ě 0 et on suppose que pEpLqs , s P r0, tsq est
une vraie martingale. On note alors Q la mesure de probabilité induite par EpLqt , comme introduit
dans le résultat précédent.
Si pBs , s P r0, tsq est un mouvement Brownien sous P alors le processus

B̃s :“ Bs ´ xB, Lys , s P r0, ts ,

est un mouvement Brownien sous Q.


Plus généralement si pMs , s P r0, tsq est une martingale locale sous P alors le processus

M̃s :“ Ms ´ xM, Lys , s P r0, ts ,

est une martingale locale sous Q de même variation quadratique que M .

Démonstration On se contente de prouver l’énoncé qui concerne B̃. On commence par supposer
qu’il existe une constante C ą 0 telle que p.s. xL, Lyt ď C. On peut alors vérifier que p.s. pour tout

53
Université Paris Cité
Probabilités

s P r0, ts
1` ˘ 1` ˘
|xL, Bys | ď xL, Lys ` xB, Bys ď C ` t .
2 2
Pour la première inégalité, on a utilisé le fait que xL ´ B, L ´ By ě 0, xL ` B, L ` By ě 0 et ainsi
1
´xL, By ď pxL, Ly ` xB, Byq ,
2
1
xL, By ď pxL, Ly ` xB, Byq ,
2
1
` ˘
de sorte que |xL, Bys | ď 2 xL, Lys ` xB, Bys .
Pour tout θ P R
|xL ` θB, L ` θByt | “ |xL, Lyt ` 2θxL, Byt ` θt| ď C ` |θ|pC ` tq ` |θ|t .
le critère de Novikov assure que la martingale locale EpL ` θBq est une vraie martingale sur
l’intervalle r0, ts. On en déduit que pour tous 0 ď u ď v ď t
EP rEpL ` θBqv | Fu s “ EpL ` θBqu .
Un calcul simple permet d’en déduire que
1
EP rEpLqv exppθpB̃v ´ B̃u qq | Fu s “ EpLqu expp θ2 pv ´ uqq .
2
Soit A P Fu , on obtient alors
1
EP rEpLqv exppθpB̃v ´ B̃u qq1A s “ expp θ2 pv ´ uqqEP rEpLqu 1A s .
2
Cela se ré-écrit
1
EQ rexppθpB̃v ´ B̃u qq1A s “ expp θ2 pv ´ uqqQpAq .
2
En prenant A “ Ω, on voit que B̃v ´ B̃u „ N p0, v´uq sous Q. Par ailleurs, un raisonnement similaire
à celui présenté dans la preuve de la caractérisation de Lévy du mouvement Brownien permet de
déduire de l’identité précédente que B̃v ´ B̃u est indépendante de Fu sous Q. Le processus B̃ est
à trajectoires continues, à accroissements indépendants et pour tous 0 ď u ď v ď t, B̃v ´ B̃u „
N p0, v ´ uq : par la Proposition I.7 on en déduit que pB̃s , s P r0, tsq est un mouvement Brownien
sous Q. Avant de passer au cas général, remarquons que l’on peut déduire de ce qui vient d’être
établi que
1
EP rEpLqv exppiθpB̃v ´ B̃u qq1A s “ expp´ θ2 pv ´ uqqEP rEpLqu 1A s .
2
En effet, comme B̃ est un Brownien sous Q on a
1
EQ rexppiθpB̃v ´ B̃u qq1A s “ expp´ θ2 pv ´ uqqEQ pAq ,
2
or EQ pAq “ EP rEpLqu 1A s et
EQ rexppiθpB̃v ´ B̃u qq1A s “ EP rEpLqt exppiθpB̃v ´ B̃u qq1A s
“ EP rEP rEpLqt exppiθpB̃v ´ B̃u qq1A | Fv ss
“ EP rexppiθpB̃v ´ B̃u qq1A EP rEpLqt | Fv ss
“ EP rexppiθpB̃v ´ B̃u qq1A EpLqv s .

54
Université Paris Cité
Probabilités

Dans le cas général, on introduit la suite de temps d’arrêt Tn :“ infts ě 0 : xL, Lys ě nu pour n ě 1.
pnq
On considère le processus arrêté LTn , la martingale EpLTn q et le processus B̃s :“ Bs ´ xLTn , Bys .
Les arguments précédents assurent que
1
EP rEpLTn qv exppiθpB̃vpnq ´ B̃upnq qq1A s “ expp´ θ2 pv ´ uqqEP rEpLTn qu 1A s .
2
Or pour tout s P r0, ts, EpLTn qs “ EpLqs^Tn Ñ EpLqs presque sûrement quand n Ñ 8. De même
pnq pnq
B̃v ´ B̃u Ñ B̃v ´ B̃u . Par ailleurs, les v.a. EpLTn qs sont d’espérance (sous P) égale à 1 et sont
positives. Le Lemme de Scheffé assure alors EpLqs^Tn Ñ EpLqs dans L1 quand n Ñ 8. On peut
alors passer à la limite dans l’identité précédente et obtenir
1
EP rEpLqv exppiθpB̃v ´ B̃u qq1A s “ expp´ θ2 pv ´ uqqEP rEpLqu 1A s .
2
On peut alors conclure comme précédemment. l

4 Inégalités de Burkholder-Davis-Gundy
Nous terminons cette section en introduisant des inégalités générales reliant le supremum d’une
martingale locale et sa variation quadratique.
Théorème IV.10
Pour tout réel p ą 0 il existe des constantes cp , Cp ą 0 telles que, pour toute martingale locale M
issue de 0 ` ˚ ˘p
p{2 p{2
cp ErxM, M y8 s ď Er M8 s ď Cp ErxM, M y8 s ,
où Mt˚ “ supsPr0,ts |Ms | pour tout t P r0, 8s.

Bien que ces inégalités soient énoncées au temps `8, on peut facilement les étendre à un temps
d’arrêt quelconque. En effet, si T est un temps d’arrêt et M est une martingale locale, alors M T
est encore une martingale locale et l’on a
T ˚
pM8 q “ sup |Mt | , xM T , M T y8 “ xM, M yT .
tPr0,T s

55
Université Paris Cité
Probabilités

56
Université Paris Cité
Chapitre V

Equations différentielles stochastiques


et processus de diffusion

Approx. 1 séance de cours


Comme mentionné précédemment, dans de nombreux champs d’application on est amené à modéliser
l’évolution d’une quantité d’intérêt Xt par une équation du type
dXt “ bpt, Xt qdt ` σpt, Xt qdBt ,
où B est un mouvement Brownien en dimension 1. Une telle équation est appelée équation différentielle
stochastique. Le terme bpt, Xt qdt est appelé terme de drift : il s’agit d’un terme de nature déterministe ;
tandis que le terme σpt, Xt qdBt est appelé terme de diffusion : il s’agit d’un terme de nature
aléatoire. En général, le terme aléatoire modélise une incertitude ou une action aléatoire macrosco-
pique due à une multitude d’effets infinitésimaux.

Les processus stochastiques obtenus comme solutions d’équations différentielles stochastiques di-
rigées par un mouvement Brownien sont communément appelés processus de diffusion. Nous verrons
dans le chapitre suivant qu’ils tissent des liens étroits avec certains opérateurs différentiels et cer-
taines EDP.

Le but de ce chapitre est d’établir des résultats d’existence et d’unicité pour de telles équations.
Commençons par étudier un cas simple.

1 Processus d’Ornstein-Uhlenbeck
Considérons une particule qui se déplace sur la droite réelle et qui est soumise à une force de friction
de coefficient c ą 0. Sa position xt est alors solution de l’équation différentielle
d2 d
m 2
xt “ ´c xt .
dt dt
Si en plus de cette force de friction, la particule subit une multitude de chocs infinitésimaux avec
d’autres particules, on peut être amené à modéliser la force résultante par l’incrément d’un mou-
vement Brownien dBt . L’équation d’évolution pour la vitesse, notée Vt , de la particule devient
alors :
dVt “ ´bVt dt ` σdBt , t ě 0 , (V.1)

57
Probabilités

partant d’une condition initiale V0 P R, et où b, σ ą 0 sont des constantes. Cette équation doit être
comprise au sens intégral :
żt
Vt “ V0 ´ b Vs ds ` σBt , t ě 0 . (V.2)
0

Proposition V.1
Il existe un unique processus continu V satisfaisant l’équation (V.2). Ce processus, appelé processus
d’Ornstein-Uhlenbeck, est donné par
żt
Vt “ e V0 ` σ e´bpt´sq dBs , t ě 0 .
´bt
0

Démonstration L’unicité est facile à vérifier. Si X et Y sont deux solutions alors Zt :“ Xt ´ Yt


satisfait żt
Zt “ ´b Zs ds , t ě 0 ,
0
ainsi que Z0 “ 0. Cette équation différentielle ordinaire admet pour unique solution Zt “ 0 pour
tout t ě 0.
Passons à la preuve de l’existence. On procède à un changement d’inconnu Zt :“ Vt ´ σBt . Alors
żt żt
Zt “ V0 ´ b Zs ds ` bσ Bs ds .
0 0

En d’autres termes, pour tout ω P Ω, t ÞÑ Zt pωq satisfait une équation différentielle ordinaire :

Zt1 ` bZt “ ´bσBt .

On peut résoudre cette équation explicitement :


żt
´bt
Zt “ e V0 ´ bσ e´bpt´sq Bs ds ,
0

et ainsi żt
´bt
Vt “ e V0 ´ bσ e´bpt´sq Bs ds ` σBt , tě0.
0

Or la formule d’Itô appliquée à s ÞÑ e´bpt´sq Bs montre que


żt żt
´bpt´sq
Bt “ e dBs ` b e´bpt´sq Bs ds ,
0 0

ce qui permet de conclure. (En fait l’argument d’existence permet également de prouver l’unicité).
l
La solution obtenue est composée
şt de deux termes : un terme d’amortissement de la condition initiale
e´bt V0 et un terme gaussien σ 0 e´bpt´sq dBs centré de variance
żt
1 ´ e´2bt
σ2 e´2bpt´sq ds “ σ 2 .
0 2b

58
Université Paris Cité
Probabilités

Le terme d’amortissement tend vers 0 quand t Ñ 8. En revanche le terme gaussien converge en loi
vers une v.a. V8 „ N p0, σ 2 {p2bqq.

On pourra noter que dans la construction de la solution de l’équation différentielle stochastique


ci-dessus nous n’avons pas fait appel à l’intégrale d’Itô. Ceci est essentiellement dû au fait que le
coefficient de diffusion ne dépend pas de la solution. Dans la section suivante, nous allons nous
intéresser à une classe plus générale d’EDS pour lesquelles l’intégrale stochastique est nécessaire.

2 Solutions fortes
On se donne deux fonctions b : R` ˆ R Ñ R et σ : R` ˆ R Ñ R et l’on considère l’équation

dXt “ bpt, Xt qdt ` σpt, Xt qdBt , tě0, (V.3)

partant d’une condition initiale X0 P Rd donnée.


Définition V.2
On dit qu’un processus pXt , t P R` q est solution forte de l’équation (V.3) si :
1. X est adapté à la filtration du mouvement Brownien B,
2. presque sûrement pour tout t P R`
żt żt
|bps, Xs q|ds ă 8 , σps, Xs q2 ds ă 8 .
0 0

3. presque sûrement pour tout t P R`


żt żt
Xt “ X0 ` bps, Xs qds ` σps, Xs qdBs .
0 0

On notera que la condition 2. est nécessaire pour que les intégrales apparaissant dans la condition
3. aient un sens.
Théorème V.3 (Existence et unicité de solutions fortes)
On suppose que les fonctions b et σ sont continues et qu’il existe une constante K ą 0 telle que
pour tout t P R` et tous x, y P R

|bpt, 0q| ` |σpt, 0q| ď K , |bpt, xq ´ bpt, yq| ` |σpt, xq ´ σpt, yq| ď K|x ´ y| .

Il existe une unique solution forte pXt , t P R` q à (V.3).

Avant de présenter la preuve du théorème, rappelons l’énoncé du lemme de Grönwall :


Lemme V.4
Soit T ą 0 et g une fonction positive mesurable bornée sur l’intervalle r0, T s. Supposons que

żt
gptq ď a ` b gpsqds , t P r0, T s ,
0

59
Université Paris Cité
Probabilités

pour deux constantes a, b ě 0 données. Alors pour tout t P r0, T s

gptq ď a exppbtq

La preuve du lemme procède par itération, nous ne la présentons pas. Mentionnons simplement
qu’il est facile de retrouver le résultat de ce lemme. En effet, si g satisfait
żt
gptq “ a ` b gpsqds , t P r0, T s , (V.4)
0
alors la théorie des équations différentielles ordinaires assure que
gptq “ a exppbtq .
Si l’égalité dans (V.4) est remplacée par une inégalité, il est raisonnable d’obtenir également une
inégalité dans la dernière équation.
Démonstration [unicité - Théorème V.3] Commençons par la preuve de l’unicité. Soient X et Y
deux solutions. Pour M ą 0 fixé on introduit le temps d’arrêt
τ :“ inftt ě 0 : |Xt | ^ |Yt | ě M u .
On voit alors que
ż t^τ ´ ¯ ż t^τ ´ ¯
Xt^τ ´ Yt^τ “ σps, Xs q ´ σps, Ys q dBs ` bps, Xs q ´ bps, Ys q ds .
0 0

Fixons alors un horizon de temps T ą 0. Pour tout t P r0, T s, en utilisant l’inégalité px ` yq2 ď
2x2 ` 2y 2 on trouve
”´ ż t^τ ´ ¯ ¯2 ı ”´ ż t^τ ´ ¯ ¯2 ı
Er|Xt^τ ´ Yt^τ |2 s ď 2E σps, Xs q ´ σps, Ys q dBs ` 2E bps, Xs q ´ bps, Ys q ds .
0 0
´ ¯
On note alors que s ÞÑ 1r0,t^τ s psq σps, Xs q ´ σps, Ys q appartient à H2 de sorte que l’isométrie
d’Itô assure que
”´ ż t^τ ´ ¯ ¯2 ı ” ż t^τ ´ ¯2 ı
E σps, Xs q ´ σps, Ys q dBs “E σps, Xs q ´ σps, Ys q ds
0 0
” ż t^τ ˇ ˇ2 ı
2
ďK E ˇXs ´ Ys ˇ ds
ˇ ˇ
0
ż t ”ˇ ˇ2 ı
2
ďK E ˇXs^τ ´ Ys^τ ˇ ds .
ˇ ˇ
0
Par ailleurs, en utilisant l’inégalité de Jensen on trouve
”´ ż t^τ ´ ¯ ¯2 ı ”´ ż t^τ ´ ¯ ds ¯2 ı
E bps, Xs q ´ bps, Ys q ds “E T bps, Xs q ´ bps, Ys q
0 0 T
” ż t^τ ´ ¯2 ı
ďE T bps, Xs q ´ bps, Ys q ds
0
” ż t^τ ˇ ˇ2 ı
ď T K 2E X Ys ˇ ds
ˇ ˇ
ˇ s ´
0
ż t ”ˇ ˇ2 ı
ď T K 2 E ˇXs^τ ´ Ys^τ ˇ ds .
ˇ ˇ
0

60
Université Paris Cité
Probabilités

On pose alors ”ˇ ˇ2 ı
gpsq :“ E ˇXs^τ ´ Ys^τ ˇ ,
ˇ ˇ

et l’on observe que żt


2
gptq ď 2K p1 ` T q gpsqds .
0
Le Lemme V.4 assure alors que
gptq ď 0 expp2K 2 p1 ` T qtq “ 0 , t P r0, T s .
La continuité des trajectoires de X et Y assure donc que presque sûrement pour tout s P r0, T ^ τ s,
Xs “ Ys . Or τ Ñ `8 presque sûrement quand M Ñ 8 et l’on peut conclure que presque sûrement
pour tout s P r0, T s, Xs “ Ys . l
Démonstration [existence - Théorème V.3] On applique la méthode des itérations de Picard. On
pose
p0q
Xt :“ x , t ě 0 ,
puis par récurrence pour tout n ě 1
żt żt
pnq
Xt :“ x ` σps, Xspnq qdBs ` bps, Xspnq qds . (V.5)
0 0

On notera que chaque X pnq est continu et adapté à la filtration Brownienne et qu’ainsi chaque
pnq 2 de sorte que les intégrales stochastiques sont bien
processus s ÞÑ σps, Xs q appartient à Hloc
définies.
Fixons T ą 0. En utilisant des arguments tout à fait similaires à ce qui a été développé pour
l’uncité, on peut montrer qu’il existe pour tout n ě 0 une constante Cn ě 0 telle que
pnq
ErpXt q2 s ď C pnq , t P r0, T s . (V.6)
pn`1q pnq
Majorons alors Ersup0ďsďt pXs ´Xs q2 s. Par le même argument que dans la preuve de l’unicité,
on obtient
” ´ż s´ ¯ ¯2 ı
Er sup pXspn`1q ´ Xspnq q2 s ď 2E sup σpr, Xrpnq q ´ σpr, Xrpn´1q q dBr
0ďsďt 0ďsďt 0
” ´ż s´ ¯ ¯2 ı
` 2E sup bpr, Xrpnq q ´ bpr, Xrpn´1q q dr .
0ďsďt 0

La majoration (V.6) assure que les martingales locales sont de vraies martingales. L’inégalité de
Doob puis l’isométrie d’Itô assurent alors que
” ´ż s´ ¯ ¯2 ı ”´ ż t ´ ¯ ¯2 ı
pnq pn´1q
E sup σpr, Xr q ´ σpr, Xr q dBr ď 4E σpr, Xrpnq q ´ σpr, Xrpn´1q q dBr
0ďsďt 0 0
”ż t´ ¯2 ı
ď 4E σpr, Xrpnq q ´ σpr, Xrpn´1q q dr
0
”ż tˇ ˇ2 ı
2 ˇ pnq
ď 4K E ˇXr ´ Xrpn´1q ˇ dr
ˇ
0
”ż t ˇ ˇ2 ı
ď 4K 2 E sup ˇXrpnq ´ Xrpn´1q ˇ ds .
ˇ ˇ
0 0ďrďs

61
Université Paris Cité
Probabilités

Par ailleurs l’inégalité de Jensen assure que


” ´ż s´ ¯ ¯2 ı ” żs´ ¯2 ı
pnq pn´1q
E sup bpr, Xr q ´ bpr, Xr q dr ď E sup s bpr, Xrpnq q ´ bpr, Xrpn´1q q dr
0ďsďt 0 0ďsďt 0
”ż t´ ¯2 ı
ď TE bpr, Xrpnq q ´ bpr, Xrpn´1q q dr
0
”ż t´ ¯2 ı
ď T K 2E Xrpnq ´ Xrpn´1q dr
0
”ż t ˇ ˇ2 ı
ď T K 2E sup ˇXrpnq ´ Xrpn´1q ˇ ds .
ˇ ˇ
0 0ďrďs
pn`1q pnq
En posant CT :“ 2K 2 p4 ` T q et gn ptq “ Ersup0ďsďt pXs ´ Xs q2 s on trouve ainsi que
żt
gn ptq ď CT gn´1 psqds .
0
On note que pour tout t P r0, T s
g1 ptq ď 2T pC p1q ` C p0q q “: CT1 .
Ainsi
g1 ptq ď CT CT1 t , t P r0, T s ,
et par récurrence
tn
gn ptq ď CTn CT1
, t P r0, T s .
n!
Ceci assure que ně0 gn pT q1{2 ă 8, et ainsi par le Théorème de Fubini
ř
ÿ ÿ
Er sup |Xspn`1q ´ Xspnq |s “ Er sup |Xspn`1q ´ Xspnq |s
ně0 0ďsďt ně0 0ďsďt
ÿ ÿ
ď Er sup |Xspn`1q ´ Xspnq |2 s1{2 “ gn pT q1{2 ă 8 .
ně0 0ďsďt ně0
En conséquence presque sûrement
ÿ
sup |Xspn`1q ´ Xspnq | ă 8 ,
ně0 0ďsďt
pnq
et ainsi presque sûrement, la suite de processus pXt , t P r0, T sqně0 converge uniformément sur
r0, T s vers un processus pXt , t P r0, T sq qui est adapté (par rapport à la filtration canonique du
Brownien) et continu.
Il reste à montrer que X satisfait l’équation voulue. Pour cela on va passer à la limite sur l’équation
satisfaite par X pnq . Pour tout n0 ě 0, l’inégalité de Minkowski (sur la norme L2 pΩ, F, Pq) assure
que
”´ `8ÿ ¯2 ı1{2
Er sup |Xspnq ´ Xs |2 s1{2 “ E sup |Xspn`1q ´ Xspnq |
0ďsďT n“n0 0ďsďT
`8
ÿ ”´ ¯2 ı1{2
ď E sup |Xspn`1q ´ Xspnq |
n“n0 0ďsďT
`8
ÿ
ď gn`1 pT q1{2 Ñ 0 , n0 Ñ 8 .
n“n0

62
Université Paris Cité
Probabilités

On peut alors en déduire les convergences suivantes dans L2 pΩ, F, Pq


żt żt
σps, Xs qdBs “ lim σps, Xspnq qdBs ,
0 nÑ8 0
żt żt
bps, Xs qds “ lim bps, Xspnq qds ,
0 nÑ8 0

En passant à la limite sur (V.5) on obtient l’égalité suivante dans L2 pour tout t P r0, T s
żt żt
Xt :“ x ` σps, Xs qdBs ` bps, Xs qds .
0 0

La continuité des trajectoires assure que l’égalité a lieu p.s. pour tous les t P r0, T s simultanément.
Comme T ą 0 est arbitraire, on peut conclure. l
Illustrons le résultat que l’on vient de prouver sur un exemple. Considérons l’EDS

dXt “ bXt dt ` σXt dBt ,

partant de X0 “ x P R. Ici b P R et σ ą 0. Les hypothèses du théorème sont vérifiées et l’on en


déduit qu’il existe une unique solution forte à cette EDS.

La formule d’Itô permet de vérifier que la solution est donnée par

σ2
Xt “ x exppσBt ` pb ´ qtq , t P R` .
2
Dans le cas particulier où b “ 0, on obtient la martingale exponentielle xEpσBqt .

3 Solutions fortes - dimensions quelconque


Le résultat précédent reste vrai en dimension supérieure. On travaille dans Rd pour d ě 1 fixé et l’on
se donne un espace de probabilité sur lequel est défini un mouvement Brownien B “ pB p1q , . . . , B pkq q
de dimension k ě 1. (Notons que d et k ne sont pas nécessairement égaux). On note Md,k pRq l’es-
pace des matrices réelles de taille d ˆ k.

On se donne deux fonctions continues b : R` ˆ Rd Ñ Rd et σ : R` ˆ Rd Ñ Md,k pRq et l’on considère


l’équation vectorielle
dXt “ bpt, Xt qdt ` σpt, Xt qdBt , t ě 0 , (V.7)
partant d’une condition initiale X0 P Rd donnée.
Définition V.5
On dit qu’un processus pXt , t P R` q est solution forte de l’équation (V.3) si :
1. X est adapté à la filtration du mouvement Brownien B,
2. presque sûrement pour tout t P R`
żt żt
|bps, Xs q|ds ă 8 , σps, Xs q˚ σps, Xs qds ă 8 .
0 0

63
Université Paris Cité
Probabilités

3. presque sûrement pour tout t P R`


żt żt
Xt “ X0 ` bps, Xs qds ` σps, Xs qdBs .
0 0

Théorème V.6 (Existence et unicité de solutions fortes)


On suppose qu’il existe une constante K ą 0 telle que pour tous t P R` et tous x, y P Rd

|bi p0, xq| ` |σi,j p0, xq| ď K , |bi pt, xq ´ bi pt, yq| ` |σi,j pt, xq ´ σi,j pt, yq| ď K|x ´ y| .

Il existe une unique solution forte pXt , t P R` q à (V.7).

La preuve repose sur les mêmes arguments que précédemment.

4 Solutions faibles
Peut-on s’affranchir des hypothèses utilisées dans les deux théorèmes précédents ? Plus parti-
culièrement, est-il nécessaire que les coefficients b et σ soient Lipschitziens en espace ?

1) Un exemple d’EDS sans solution forte


Concentrons-nous sur une équation particulière pour laquelle l’hypothèse Lipschitziannité n’est pas
vérifiée :
dXt “ sgnpXt qdBt , (V.8)
où sgn désigne la fonction “signe” définie par
#
1 si u ě 0
sgnpuq “
´1 si u ă 0
.
Tout d’abord, on observe que si F est une filtration à laquelle X est adapté et dans laquelle B est
un mouvement Brownien, alors X est une martingale locale de crochet
żt
xX, Xyt “ sgnpXs q2 ds “ t .
0

La caractérisation de Lévy, Théorème IV.5, assure alors que X est un mouvement Brownien.

Or ´X satisfait żt żt
´Xt “ ´ sgnpXs qdBs “ sgnp´Xs qdBs .
0 0
şt
(En effet, ces deux intégrales diffèrent là où Xs s’annulent cependant 0 1Xs “0 dBs est une martin-
şt
gale locale de crochet égal à 0 1Xs “0 ds et cette quantité est nulle pour un mouvement Brownien).
Ainsi ´X satisfait également l’EDS de sorte qu’il ne peut y avoir d’unicité forte pour l’équation.

64
Université Paris Cité
Probabilités

De façon intuitive, le défaut d’unicité de l’EDS vient de la liberté que l’on a, au moment où la
solution touche 0, de la faire partir vers le haut ou vers le bas. Si l’on décomposait la trajectoire
de X en excursions hors de 0, on pourrait obtenir une autre solution en changeant le signe d’une
partie des excursions.

En fait, on peut même montrer qu’il n’y a pas existence forte. Partons d’un mouvement Brownien
W et définissons B à partir de W de la manière suivante :
żt
Bt :“ sgnpWs qdWs .
0

Il s’agit d’une martingale locale de crochet donné par


żt
xB, Byt “ sgnpWs q2 ds “ t .
0

La caractérisation de Lévy, Théorème IV.5, assure alors que B est un mouvement Brownien. Or
żt żt żt
2
sgnpWs qdBs “ sgnpWs q dWs “ dWs “ Wt ,
0 0 0

de sorte que W est solution de l’EDS (V.8).


Il est alors possible de vérifier que B est adapté à filtration du processus |W | : or cette filtration
contient strictement moins d’information que celle du processus W de sorte que W n’est pas adapté
à la filtration de B. Pour vérifier
? que B est adapté à filtration du processus |W |, on peut appliquer
la formule d’Itô avec ϕ pxq “  ` x2 :
żt
1 t 2
ż
ϕ pWt q “  ` ϕ1 pWs qdWs
` ϕ pWs qds .
0 2 0 
şt
Par parité des fonctions ϕ et ϕ2 , les processus ϕ pWt q et 21 0 ϕ2 pWs qds sont F |W | -adaptés. Nécessairement
şt şt
le processus 0 ϕ1 pWs qdWs l’est aussi. Par ailleurs on peut montrer que 0 ϕ1 pWs qdWs converge dans
L2 vers żt
sgnpWs qdWs “ Bt ,
0

et ainsi la limite est aussi F |W | -adaptée.

2) Un résultat d’existence utilisant le théorème de Girsanov


Il est possible de construire des solutions dites faibles à l’aide du théorème de Girsanov. Considérons
l’EDS
dXt “ bpt, Xt qdt ` dBt , t P R` ,
partant de X0 “ x P R. On suppose que b : R` ˆ R Ñ R est une fonction borélienne bornée. On va
construire un espace de probabilité filtré pΩ, F, pFt qt , Qq sur lequel B est un mouvement Brownien
et X est un processus Ft -adapté et satisfait l’équation précédente : c’est ce que l’on appelle une
solution faible de l’EDS. Attention : rien n’assurera que X est adapté à la filtration du Brownien
(ça n’est pas forcément une solution forte).

65
Université Paris Cité
Probabilités

On part d’un mouvement Brownien X sur un espace de probabilité filtré pΩ, F, pFt qt , Pq. On fixe
T ą 0 et l’on définit le changement de mesure

QpAq :“ EP r1A EpLqT s , A P FT ,

où żt
1 t
ż
Lt :“ expp bps, Xs qdXs ´ |bps, Xs q|2 dsq , tě0.
0 2 0
(On notera que l’intégrale stochastique fait sens car le processus pbps, Xs q, s P r0, tsq est progressi-
vement mesurable et borné). Le Théorème IV.9 assure alors que sous Q
żt
Bt :“ Xt ´ xX, Lyt “ Xt ´ bps, Xs qds ,
0

est un mouvement Brownien.

66
Université Paris Cité
Chapitre VI

Processus de Markov et EDP

Approx. 1 séance de cours

1 Processus de Markov
Commençons par introduire la notion de processus de Markov. Informellement, on dit qu’un pro-
cessus stochastique X est de Markov si son évolution future ne dépend que de l’état présent du
processus et non de l’ensemble de son passé. Pour en donner une définition plus rigoureuse il nous
faut introduire un peu de vocabulaire.
Définition VI.1
Une famille ppt px, ¨qqtě0,xPRd de mesures de probabilités sur Rd est appelée noyau de transition si
1. p0 px, ¨q “ δx pour tout x P Rd ,
2. pour tout Borélien A P BpRd q, l’application pt, xq ÞÑ pt px, Aq est mesurable,
3. pour tout Borélien A P BpRd q et toute paire 0 ď s ď t, la relation dite de Chapman-
Kolmogorov est satisfaite
ż
pt px, Aq “ ps px, dyqpt´s py, Aq , @x P Rd .
Rd

Etant donné un noyau de transition ppt px, ¨qqtě0,xPRd , nous pouvons introduire un semigroupe
d’opérateurs pPt , t ě 0q en posant
ż
Pt f pxq :“ pt px, dyqf pyq , @x P Rd , @t ě 0 ,
Rd

pour toute fonction mesurable bornée f : Rd Ñ R.

Remarque VI.2
Il s’agit en fait de la définition d’un noyau de transition homogène en temps. Il est possible de
donner une définition plus générale.

La relation de Chapman-Kolmogorov implique la propriété de semigroupe suivante :

Pt “ Pt´s ˝ Ps , @0 ď s ď t .

67
Probabilités

Nous pouvons à présent définir les processus de Markov.


Définition VI.3
Un processus stochastique X défini sur pΩ, F, pFt qt , Pq et à valeurs dans Rd est dit Markovien s’il
existe un noyau de transtion ppt px, ¨qqtě0,xPRd tel que pour toute fonction f : Rd Ñ R mesurable
bornée presque sûrement
Erf pXt q | Fs s “ Pt´s f pXs q .

Examinons cette dernière identité. Le terme de gauche peut s’interpréter comme : la meilleure
approximation de f pXt q sachant toute la trajectoire jusqu’au temps s. Le terme de droite, lui, ne
dépend que de la valeur de la trajectoire au temps s et, à l’aide du semigroupe, propage cette
quantité vers le temps t.
Proposition VI.4
Le mouvement Brownien est un processus de Markov dont le noyau de transition est donné par le
noyau gaussien
1 |x ´ y|2
pt px, dyq “ expp´ qdy .
p2πtqd{2 2t

Démonstration Il n’est pas difficile de vérifier les deux premières propriétés que doit vérifier un
noyau de transition. Concernant la troisième, elle peut se prouver comme suit. L’application
ż
A ÞÑ ps px, dyqpt´s py, Aq ,
Rd

est la convolée de deux lois de probabilités sur Rd : N px, sIdq et N p0, pt ´ sqIdq. Il est bien connu
que cette convolée n’est rien d’autre que N px, tIdq qui n’est rien d’autre que pt px, ¨q.
Soit B un mouvement Brownien et pFt qtě0 sa filtration naturelle. Calculons à présent :

Erf pBt q | Fs s “ Erf pBs ` pBt ´ Bs qq | Fs s .

Or Bt ´ Bs est indépendant de Fs par la Proposition I.18 de sorte que les propriétés de l’espérance
conditionnelle assurent que si l’on pose pour tout z P Rd

Φpzq :“ Erf pz ` Bt ´ Bs qs ,

alors presque sûrement


Erf pBs ` pBt ´ Bs qq | Fs s “ ΦpBs q .
Or
ż ż
Φpzq :“ Erf pz ` Bt ´ Bs qs “ f pz ` yqpt´s p0, dyq “ f pyqpt´s pz, dyq “ Pt´s f pzq ,
Rd Rd

ce qui conclut la preuve l


Cette propriété s’étend à une classe de solutions fortes d’EDS introduites dans le chapitre précédent.
On se donne deux fonctions b : Rd Ñ Rd et σ : Rd Ñ Md,k , et l’on suppose qu’il existe une constante
K ą 0 telle que pour tous t P R` et tous x, y P Rd

|bi p0q| ` |σi,j p0q| ď K , |bi pxq ´ bi pyq| ` |σi,j pxq ´ σi,j pyq| ď K|x ´ y| .

68
Université Paris Cité
Probabilités

Proposition VI.5
On se place sous les hypothèses du Théorème V.6 en supposant que les coefficients ne dépendent
pas du temps, et l’on note Xtx la solution de l’EDS correspondante partant de x P Rd . On pose
pour tout x P Rd et tout t ě 0

pt px, Aq :“ PpXt P Aq , A P BpRd q .

Alors pour tout x P Rd , le processus pXtx , t ě 0q est un processus de Markov de noyau de transition
ppt py, ¨qqtě0,yPRd .

Ce résultat découle essentiellement de l’unicité des solutions fortes des EDS considérées qui assure
le fait suivant : la solution au temps t partant de x coı̈ncide avec la solution au temps t ´ s partant
de la valeur (aléatoire !) de la solution au temps s partant de x.
Il y a cependant des détails pénibles à vérifier, et nous ne présentons donc pas la preuve.

On se place toujours sous les hypothèses du Théorème V.6 en supposant que les coefficients ne
dépendent pas du temps.
Théorème VI.6 (Propriété de Markov forte)
Soit x P Rd . Si T est un temps d’arrêt fini p.s. alors pour toute fonction F : Cpr0, 8r, Rq Ñ R
mesurable bornée on a presque sûrement

ErF pXTx `¨ q | FT s “ ΦpXTx q ,

où
Φpyq “ ErF pX¨y qs , y P Rd .

La fonction Φ associe à un point de départ y l’espérance de F évalué en la trajectoire X¨y . La


quantité ΦpXTx q est une variable aléatoire qui, à ω donné, prend la valeur Φpyq où y “ XTx pωq.

Il convient de comparer cet énoncé avec la propriété de Markov forte vérifiée par le mouvement
Brownien. On notera cependant que dans le cas des solutions fortes d’EDS, il n’est pas vrai en
général que le processus
pXTx `t ´ XTx , t ě 0q ,

est indépendant de FT et distribué comme pXt0 , t ě 0q !

2 Liens avec des EDP linéaires


Dans toute cette partie, on se donne deux fonctions continues b : Rd Ñ Rd et σ : Rd Ñ Md,k , et
l’on suppose qu’il existe une constante K ą 0 telle que pour tous t P R` et tous x, y P Rd

|bi pxq| ` |σi,j pxq| ď K , |bi pxq ´ bi pt, yq| ` |σi,j pxq ´ σi,j pyq| ď K|x ´ y| .

(On notera qu’on a ici supposé que les fonctions σ et b étaient bornées par K en tout point). Le
théorème V.6 s’applique sous ces hypothèses et fournit un processus de Markov pXtx , t ě 0q pour
tout point de départ x P Rd .

69
Université Paris Cité
Probabilités

Cette partie esquisse des liens profonds entre d’un côté certains opérateurs différentiels et cer-
taines EDP (équations aux dérivées partielles), et d’un autre côté certains processus de diffusion.
Nous recommandons de ne pas s’attarder sur les hypothèses ou les détails techniques, mais plutôt
d’apprécier les liens à un niveau formel.

1) Générateur infinitésimal
Théorème VI.7
On introduit l’opérateur différentiel suivant :
d d d
ÿ Bf 1ÿÿ B2f
Lf pxq :“ bi pxq pxq ` pσσ ˚ qij pxq pxq , x P Rd ,
i“1
Bxi 2 i“1 j“1 Bxi Bxj

agissant sur les fonctions f : Rd Ñ R de classe Cc8 . Pour toute fonction f : Rd Ñ R de classe Cc8 ,
le processus żt
f pXtx q ´ f pxq ´ Lf pXsx qds , t ě 0 ,
0
est une martingale.

Démonstration La formule d’Itô assure que

d żt d ż
ÿ 1 ÿ t 2
f pXt q “ f pxq ` Bxi f pXs qdXspiq ` B f ps, Xs qdxX piq , X pjq ys .
i“1 0
2 i,j“1 0 xi ,xj

Or
k
ÿ
dXspiq “ bi pXs qds ` σi,` pXs qdBsp`q ,
`“1

et
k
ÿ
dxX piq , X pjq ys “ σi,` pXs qσj,` pXs q “ pσσ ˚ pXs qqij .
`“1

On introduit le processus Ms P R en posant

d ÿ
ÿ k żs
Ms :“ Bxi f pXr qσi,` pXr qdBrp`q .
i“1 `“1 0

Il s’agit d’une martingale car l’integrand est continu et borné. On obtient alors

d żt d ż
ÿ 1 ÿ t 2
f pXt q “ f pxq ` Bxi f pXs qbi pXs qds ` B f ps, Xs qpσσ ˚ pXs qqij ` Mt
i“1 0
2 i,j“1 0 xi ,xj
żt
“ f pxq ` Lf pXs qds ` Mt .
0

Le résultat s’en suit. l

70
Université Paris Cité
Probabilités

Ce résultat permet de relier le semigroupe associé au processus de Markov Xt et l’opérateur


différentiel ci-dessus. En effet, si l’on calcule un incrément de la fonction t ÞÑ Erf pXt qs alors on
trouve ż t`s
Erf pXt`s qs ´ Erf pXt qs “ Er Lf pXr qdrs ,
t
(car le terme de martingale est d’espérance nulle). En passant à la limite s Ó 0 on obtient alors
(sans se soucier des justifications mathématiques)

Bt Erf pXt qs “ ErLf pXt qs .

Or Erf pXt qs “ Pt f pxq ainsi


Bt Pt f pxq “ Pt Lf pxq .
L’opérateur L est appelé générateur infinitésimal du semigroupe : il s’agit d’un opérateur qui
décrit l’évolution infinitésimale du semigroupe (et le caractérise !). Nous ne donnons aucun détail
rigoureux car il s’agit-là d’une théorie mathématique délicate.

2) Equation de Fokker-Planck
On note Xtx le processus de Markov solution de (V.7) partant de x. On peut souhaiter obtenir une
équation d’évolution pour sa loi, en d’autres termes, une équation d’évolution pour t ÞÑ pt px, ¨q.
On introduit l’opérateur différentiel
d d d
ÿ B 1 ÿ ÿ B2
˚
L f “´ pbi f qpxq ` pf pσσ ˚ qij qpxq , x P Rd .
i“1
Bx i 2 i“1 j“1
Bx i Bx j

Il s’agit de l’adjoint de l’opérateur L (par rapport à la mesure de Lebesgue). Plus précisément, pour
toutes fonctions f, g P Cc8 ż ż
f pxqLgpxqdx “ L˚ f pxqgpxqdx .
x x
Alors t ÞÑ pt px, ¨q est solution de l’équation d’évolution dite de Fokker-Planck

Bt pt px, ¨q “ L˚ pt px, ¨q ,

partant de p0 px, ¨q “ δx p¨q.

En effet, pour toutes fonctions f, g P Cc8


ż ż ż ż ż ż
` ˘
Bt f pxqPt gpxqdx “ f pxqPt Lgpxqdx “ f pxqpt px, dyqLgpyqdx “ f pxq L˚ pt px, dyqgpyq dx .
x x x y x y

Or ż ż ż ż ż
` ˘
Bt f pxqPt gpxqdx “ Bt f pxqpt px, dyqgpyqdx “ f pxqBt pt px, dygpyq dx .
x x y x y

On a donc obtenu l’égalité


Bt pt px, ¨q “ L˚ pt px, ¨q ,
au sens des distributions.

71
Université Paris Cité
Probabilités

Ajoutons une hypothèse supplémentaire dite d’uniforme ellipticité : il existe c ą 0 tel que pour tout
vecteur λ P Rd
ÿd
pσσ ˚ qij λi λj ě c}λ}2 .
i,j“1

Dans ce cas, il est possible de montrer que la loi pt px, ¨q admet une densité :

pt px, dyq “ pt px, yqdy .

L’équation de Fokker-Planck s’écrit alors

Bt pt px, yq “ L˚ pt px, yq .

3) EDP parabolique
On se place sous les mêmes hypothèses que dans la partie précédente et l’on note L l’opérateur
différentiel associé. Soit u : R` ˆ Rd Ñ R une fonction continue bornée telle que

up¨, xq P C 1 ps0, `8rq , @x P Rd ,

et
upt, ¨q P Cb2 pRd q , @t Ps0, `8r .
Supposons que u satisfait l’EDP parabolique suivante
#
Bu
Bt “ Lu , tą0
(VI.1)
up0, xq “ f pxq , x P Rd ,

pour une certaine fonction f P Cb pRd q.


Théorème VI.8
Pour tout x P Rd
upt, xq “ Erf pXtx qs , tě0,
où Xtx est la solution de l’EDS (V.7) partant de x.

Ce résultat assure que l’existence d’une solution à l’EDP parabolique (VI.1) implique l’unicité de
la solution.
Démonstration Une application de la formule d’Itô au processus pupt ´ s, Xsx q, s P r0, trq assure
que pour tout s P r0, tr
Erupt ´ s, Xsx qs “ Erupt, X0x qs “ upt, xq .
Or la fonction u est continue bornée donc le théorème de convergence dominée assure que lorsque
sÒt
Erupt ´ s, Xsx qs Ñ Erup0, Xtx qs “ Erf pXtx qs ,
et le résultat s’en suit. On notera que l’on n’a pas appliqué la formule d’Itô au temps t mais à un
temps s antérieur à t : en effet, la fonction f est de classe C 1,2 sur s0, `8rˆRd mais rien n’assure
qu’elle le soit aussi au temps 0. l

72
Université Paris Cité
Probabilités

4) Formule de Feynman-Kac
Soit V : Rd Ñ R une fonction continue et bornée inférieurement. Soit u : R` ˆ Rd Ñ R une fonction
continue bornée telle que
up¨, xq P C 1 ps0, `8rq , @x P Rd ,
et
upt, ¨q P Cb2 pRd q , @t Ps0, `8r .
On suppose que u satisfait l’EDP
#
Bu
Bt “ Lu ´ V u , tą0
(VI.2)
up0, xq “ f pxq , x P Rd ,

pour une certaine fonction f P Cb pRd q.


Théorème VI.9
Pour tout x P Rd żt
upt, xq “ Erf pXtx q expp´ V pXsx qdsqs , tě0.
0

şs
V pXu qdu
Démonstration Appliquer Itô au processus pe´ 0 upt ´ s, Xs q, s P r0, trq. l

73
Université Paris Cité
Probabilités

74
Université Paris Cité
Annexe A

Généralités

1 Variables aléatoires
Soit pΩ, F, Pq un espace de probabilité. Soit pE, Eq un espace mesurable.
Définition A.1
Une application X : Ω Ñ E mesurable par rapport aux tribus F et E est appelée variable aléatoire.

On rappelle que X est mesurable par rapport aux tribus F et E si pour tout B P E, X ´1 pBq P F.
Définition A.2
Soit X un variable aléatoire de pΩ, F, Pq dans pE, Eq. L’application de µX : E Ñ r0, 1s définie par

µX pBq :“ PpX ´1 pBqq , BPE ,

est une mesure de probabilité sur pE, Eq que l’on appelle loi de X.

On notera que la loi de X n’est rien d’autre que l’image par X de la mesure de probabilité P.
Quelques exemples :
1. Jet de dés : Ω “ t1, . . . , 6un muni de la tribu F de toutes les parties de Ω et de la mesure
uniforme P. L’application Xk : ω ÞÑ ωk qui retourne la k-ème coordonnée est une variable
aléatoire à valeurs dansřt1, . . . , 6u muni de la tribu de toutes ses parties. Sa loi est uniforme.
L’application S : Ω Ñ nk“1 Xk est une variable aléatoire à valeurs dans tn, . . . , 6nu. Sa loi
peut être explicitée.
2. Variable gaussienne : Ω “ E “ R, F “ E “ BpRq (la tribu Borélienne) et P la mesure de
probabilté
1 2
Ppdxq “ ? e´x {2 dx .

3. Variable constante égale à a P E : µX “ δa où l’on définit la masse de Dirac δa pBq “ 1B paq
pour tout B P E.
Proposition A.3 (Formule de transfert)
Soit X une variable aléatoire à valeurs dans un espace pE, Eq et h : E Ñ R une fonction pE, BpRqq-

75
Probabilités

mesurable. Si hpXq est intégrable alors


ż
E rhpXqs “ h dµX .
E

2 Caractérisation d’une loi


Proposition A.4
Soit E un espace métrique et E la tribu Borélienne associée (c’est-à-dire, la plus petite tribu
contenant les ouverts de E). Soient X et Y deux variables aléatoires à valeurs pE, Eq (pas forcément
définies sur un même espace de probabilité). On a équivalence entre :
1. µX “ µY ,
2. µX pOq “ µX pOq pour tout O ouvert borné de E,
ş ş
3. E f dµX “ E f dµY pour toute fonction continue bornée f : E Ñ R.

Démonstration 1.ñ3. est clair.


3.ñ2. : Soit O un ouvert borné de E. Soit fn : E Ñ R définie par

fn pxq :“ p1 ´ distpx, Oq{nq` , xPE.

Il s’agit d’une fonction continue bornée. Par ailleurs fn converge ponctuellement vers l’indicatrice
de O quand n Ñ 8. Ainsi le théorème de convergence dominée assure que
ż ż
µX pOq “ lim fn dµX , µY pOq “ lim fn dµY ,
n E n E

et l’on peut conclure.


2.ñ1. : tout d’abord, l’égalité s’étend à tous les ouverts. En effet, si O est un ouvert de E, alors
On :“ O X Bpx, nq est un ouvert borné (ici Bpx, nq désigne la boule ouvert de centre x et de rayon
n), On Ò O et l’on peut utiliser la continuité croissante des mesures de probabilité.
La classe
M :“ tA P E : µX pAq “ µY pAqu ,
est une classe monotone (càd contient E, est stable par différence et par union croissante). Elle
contient la classe des ouverts. Le lemme de classe monotone assure qu’elle contient la tribu engendrée
par cette classe, c’est-à-dire, la tribu Borélienne sur E. l
Dans la suite, on se donne une variable aléatoire X à valeurs dans Rd (pour un entier d ě 1) muni
de sa tribu Borélienne.

1) Fonction caractéristique
L’application

ΦX :Rd Ñ R
t ÞÑ Ereixt,Xy s ,

76
Université Paris Cité
Probabilités

est appelée fonction caractéristique de la variable aléatoire X. La formule de transfert montre que la
fonction caractéristique est complétement déterminée par la loi de X. Il se trouve que la réciproque
est vraie :
Théorème A.5
La loi de X est entièrement caractérisée par sa fonction caractéristique.

Démonstration [Idées de la preuve] On introduit une variable aléatoire Zσ , indépendante de X


et de loi N p0, σIdq. On montre alors que :
1. la loi de X ` Zσ est complétement caractérisée par ΦX . Plus précisément, on montre que la
loi de X ` Zσ admet une densité fσ qui admet une expression explicite en terme de ΦX .
2. la v.a. X ` Zσ converge en loi vers X quand σ Ñ 0. Nous rappellerons plus loin cette notion
de convergence, mais on peut dores et déjà noter que cette convergence est très intuitive car
Zσ converge (en loi) vers 0 quand σ Ñ 0.
l
Remarque A.6
On différenciera bien la v.a. X de sa loi : deux v.a. ayant même fonction caractéristique ont même loi,
mais n’ont aucune raison d’être égales (ni même d’être définies sur le même espace de probabilité !).

2) Fonction de répartition
On suppose que d “ 1.
Définition A.7
La fonction FX : R Ñ r0, 1s définie par

F ptq :“ PpX ď tq , tPR,

est appelée la fonction de répartition de X.

Comme les ensembles p´8, ts, t P R, engendrent la tribu Borélienne, le lemme de classe monotone
permet de déduire que FX caractérise la loi µX .
Proposition A.8
L’ensemble des fonctions de répartitions est exactement donné par l’ensemble des fonctions F :
R Ñ r0, 1s, continues à droite, croissantes, qui convergent vers 1 en `8 et 0 en ´8.

3 Variables gaussiennes
La loi gaussienne uni-dimensionnelle de moyenne m P R et de variance σ 2 ą 0 est la mesure de
probabilité sur R de densité
1 |x´m|2
? e´ 2σ2 , x P R .
2πσ 2
Dans le cas σ 2 “ 0, il s’agit de la mesure de probabilité sur R donnée par la masse de Dirac en m :

δm pBq “ 1B pmq , B P BpRq .

77
Université Paris Cité
Probabilités

Définition A.9
On dit qu’une variable aléatoire à valeurs dans Rd pour d ě 1 est gaussienne si toute combinaison
linéaire de ses coordonnées est une variable aléatoire gaussienne (uni-dimensionnelle).

Comme pour tout vecteur aléatoire à valeurs dans Rd (dont la norme euclidienne admet un moment
d’ordre 2) on peut définir le vecteur moyenne m et la matrice de covariance Σ d’une v.a. gaussienne
X
mk :“ ErXk s , Σpk, `q “ CovpXk , X` q .
On notera bien que m est un élément de Rd alors que Σ est une matrice symétrique positive de
taille d ˆ d.
Proposition A.10
La fonction caractéristique d’une variable aléatoire gaussienne X est donnée par

xt, Σty
ΦX ptq “ exppixt, my ´ q, t P Rd .
2
En conséquence, la loi d’une variable aléatoire gaussienne est entièrement déterminée par son vec-
teur moyenne et sa matrice de covariance.

Soit Y “ pY1 , . . . , Yd q un vecteur aléatoire dont les coordonnées sont des v.a. gaussiennes uni-
dimensionnelles, indépendantes centrées réduites. Il est facile de vérifier que Y est une variable
aléatoire gaussienne de moyenne le vecteur nul et de matrice de covariance la matrice identité.

Etant donné un vecteur m P Rn et une matrice n ˆ n symétrique positive Σ, la variable aléatoire


X :“ m ` Σ1{2 Y est gaussienne de moyenne m et de matrice de covariance Σ. (La matrice Σ1{2
peut être définie comme suit. Soit P une matrice orthogonale telle que D “ P ΣP t est diagonale, on
définit alors D1{2 comme la matrice diagonale dont les entrées sont les racines carrés des entrées de
D (celles-ci sont positives car Σ est positive). On pose alors Σ1{2 :“ P t D1{2 P .) On note N pm, Σq
la loi correspondante.
Proposition A.11
Soit X „ N pm, Σq. X admet une densité sur Rd si et seulement si Σ est définie positive, et dans
ce cas celle-ci est donnée par

1 ´ xΣ´1 px ´ mq, x ´ my ¯
a exp ´ , x P Rd .
p2πqd{2 detpΣq 2

4 Espérance conditionnelle
Dans cette partie, on manipule des variables aléatoires réelles.
Définition A.12 (Espérance conditionnelle dans L1 )
Soit pΩ, F, Pq un espace de probabilité, B Ď F une sous-tribu et X P L1 pΩ, F, Pq. On définit
l’espérance conditionnelle de X sachant B, que l’on note E rX | Bs, comme l’unique variable aléatoire

78
Université Paris Cité
Probabilités

U P L1 pΩ, B, Pq qui satisfait


E rXZs “ E rU Zs,
pour toute variable aléatoire bornée Z qui est B-mesurable.

On définit alors l’espérance conditionnelle d’une variable aléatoire X sachant une autre variable
aléatoire Y comme l’espérance conditionnelle de X sachant σpY q, que l’on notera souvent ErX | Y s.
Citons un cas particulier. Supposons que Y prenne ses valeurs dans un ensemble dénombrable,
ř on suppose qu’il existe un ensemble dénombrble Y tel que PpY “ yq ą 0 pour tout
c’est-à-dire,
y P Y et yPY PpY “ yq “ 1. Alors
ÿ
ErX | Y s “ ErX | tY “ yus1tY “yu .
yPY

Proposition A.13 (Propriétés de l’espérance conditionnelle)


Soit pΩ, F, Pq un espace de probabilité, B Ď F une sous-tribu et X P L1 pΩ, F, Pq. Les propriétés
suivantes sont vérifiées :
(a) @a, b P R et pour toute v.a. Y P L1 pΩ, F, Pq, on a E raX ` bY | Bs “ aE rX | Bs ` bE rY | Bs.
(b) Si X ě 0, alors E rX | Bs ě 0.
(c) Si a est une constante, alors E ra | Bs “ a.
(d) Si B “ tH, Ωu, alors E rX | Bs “ E rXs et E rX | Fs “ X.
(e) Soit Z une variable B-mesurable telle que XZ P L1 . Alors E rXZ | Bs “ ZE rX | Bs. En
particulier si X est B-mesurable, E rX | Bs “ X.
“ ‰ “ ‰
(f) Si C Ď B, alors E E rX | Bs | C “ E rX | Cs. En particulier, E E rX | Bs “ E rXs.
(g) Si σpXq et B sont indépendantes, alors E rX | Bs “ E rXs, et plus généralement, pour toute
Y B-mesurable ż
E rgpX, Y q | Bs “ gpx, Y q LX pdxq,

pour toute fonction mesurable g : R2 Ñ R telle que gpX, Y q est intégrable.


(h) (Jensen) Si φ : R Ñ R` est convexe et X P L1 pΩ, F, Pq, alors

φpE rX | Bsq ď E rφpXq | Bs .

5 Modes de convergence
Soit E un espace métrique. Soit pXn qně1 une suite de v.a. à valeurs dans E muni de sa tribu
Borélienne. Soit également X une variable aléatoire à valeurs dans E.
Définition A.14
On suppose que toutes les v.a. sont définies sur un même espace de probabilité. On dit que Xn
converge en probabilité vers X si pour tout δ ą 0

PpdistpXn , Xq ą δq Ñ 0 , nÑ8.

79
Université Paris Cité
Probabilités

Définition A.15
On suppose que toutes les v.a. sont définies sur un même espace de probabilité. On dit que Xn
converge presque sûrement vers X si

PpdistpXn , Xq Ñ 0 , n Ñ 8q “ 1 .

Définition A.16
On suppose que toutes les v.a. sont définies sur un même espace de probabilité. Dans le cas où
E “ Rd , on dit que Xn converge dans Lp pΩ, F, Pq vers X si Xn , X P Lp et si

Er|Xn ´ X|p s Ñ 0 , nÑ8.

On introduit à présent une notion de convergence qui ne nécessite pas que les v.a. soient définies
sur un même espace de probabilité : en effet, cette notion de convergence porte sur les lois des v.a.
Définition A.17
On dit que Xn converge en loi vers X si pour toute fonction continue bornée f : E Ñ R

Erf pXn qs Ñ Erf pXqs , nÑ8.

Proposition A.18
1. La convergence en probabilités implique la convergence en loi.
2. La convergence presque sûre (resp. Lp ) implique la convergence en probabilités.
3. La convergence en probabilités implique la convergence presque sûre le long d’une sous-suite.

80
Université Paris Cité
Annexe B

Uniforme intégrabilité

Commençons par rappeler que toute variable aléatoire intégrable Y sur pΩ, F, Pq satisfait (de par
le théorème de convergence dominée)
lim Er|Y |1|Y |ąa s “ 0 . (B.1)
aÑ8

Plus généralement :
Lemme B.1 (Uniforme continuité de l’intégrale)
Pour tout ε ą 0, il existe δ ą 0 tel que pour tout B P F

PpBq ă δ ñ Er|Y |1B s ă ε .

Démonstration Il suffit d’écrire


Er|Y |1B s “ Er|Y |1B 1|Y |ďa s ` Er|Y |1B 1|Y |ąa s
ď aPpBq ` Er|Y |1|Y |ąa s .
Il suffit alors de choisir a tel que Er|Y |1|Y |ąa s ă ε{2 puis δ “ ε{2a. l
Nous allons généraliser ces idées à des collections de v.a.

Soit pXi , i P Iq une collection (pas forcément dénombrable) de variables aléatoires à valeurs dans
R (ou Rd ).
Définition B.2
On dit que la famille pXi , i P Iq est uniformément intégrable si

lim sup Er|Xi |1|Xi |ąa s “ 0 .


aÑ8 iPI

La convergence (B.1) montre que toute variable aléatoire intégrable Y forme une famille (à un
élément) qui est u.i. Plus généralement, il est facile de vérifier que toute collection finie de v.a. intégrables
est uniformément intégrable.

Donnons à présent une caractérisation de l’uniforme intégrabilité, qui se rapproche de la continuité


uniforme de l’intégrale.

81
Probabilités

Proposition B.3
La famille pXi , i P Iq est uniformément intégrable si et seulement si
1. supiPI Er|Xi |s ă 8
2. pour tout ε ą 0, il existe δ ą 0 tel que pour tout B P F

PpBq ă δ ñ sup Er|Xi |1B s ă ε .


iPI

Démonstration Supposons que la famille est u.i. On a pour tout B P F

Er|Xi |1B s “ Er|Xi |1B 1|Xi |ďa s ` Er|Xi |1B 1|Xi |ąa s ď aPpBq ` Er|Xi |1|Xi |ąa s .

Si l’on prend B “ Ω, on trouve 1. Si l’on choisit a tel que

sup Er|Xi |1|Xi |ąa s ă ε{2 ,


iPI

ainsi que δ “ ε{2a on trouve 2.


Réciproquement on suppose que 1. et 2. sont vérifiées. Soit ε ą 0 fixé, on souhaite montrer que
pour tout a assez grand on a
sup Er|Xi |1|Xi |ąa s ă ε .
iPI

On pose M :“ supiPI Er|Xi |s, et a “ M {δ. Ainsi pour tout i P I

Pp|Xi | ą aq ď M {a ď δ ,

et 2. assure que
Er|Xi |1|Xi |ąa s ď ε .
l
Énonçons à présent deux critères assurant l’uniforme intégrabilité.
Proposition B.4
S’il existe Y dans L1 telle que pour tout i P I, p.s. |Xi | ď |Y | alors la famille pXi , i P Iq est
uniformément intégrable.

Démonstration Il suffit de vérifier les points 1. et 2. de la proposition précédente. Le point 1.


est clair. Concernant le point 2., on sait que

sup Er|Xi |1B s ď Er|Y |1B s ,


iPI

et l’on peut conclure en utilisant les propriétés rappelées en début de section. l

Proposition B.5
Soit g : R` Ñ R` une fonction telle que
gptq
lim “ `8 .
tÑ8 t

Si supiPI Ergp|Xi |qs ă 8 alors la famille pXi , i P Iq est uniformément intégrable. En particulier, si

82
Université Paris Cité
Probabilités

pXi , i P Iq est bornée dans Lp pour un certain p ą 1 alors elle est uniformément intégrable.

Démonstration Soient M :“ supiPI Ergp|Xi |qs et ε ą 0. Il existe a ą 0 tel que pour tout t ą a
on a
gptq M
ą .
t ε
On écrit alors pour tout i P I
ε ε
Er|Xi |1|Xi |ąa s ď Ergp|Xi |q1|Xi |ąa s ď Ergp|Xi |qs ď ε .
M M
l

Théorème B.6 (Théorème de convergence dominée optimal )


Soit pXn qn une suite de v.a. qui converge en probabilités vers une variable aléatoire X. Si pXn , n ě
1q est uniformément intégrable alors X ´ Xn converge vers 0 dans L1 .

L’implication du théorème est en fait une équivalence (exercice).


Démonstration Par une proposition précédente, on sait qu’il existe une sous-suite nk le long de
laquelle Xnk converge p.s. vers X. Par Fatou, on trouve

Er|X|s ď lim inf Er|Xnk |s ď sup Er|Xn |s .


kÑ8 n

Par la Proposition B.3, on sait que l’u.i. assure que pXn qn est bornée dans L1 , et ainsi X P L1 . On
fixe ε ą 0. On écrit

Er|Xn ´ X|s “ Er|Xn ´ X|1t|Xn ´X|ďεu s ` Er|Xn ´ X|1t|Xn ´X|ąεu s


ď ε ` Er|Xn |1t|Xn ´X|ąεu s ` Er|X|1t|Xn ´X|ąεu s

La convergence en probabilité assure que Pp|Xn ´ X| ą εq Ñ 0. Par la Proposition B.3, on sait


alors que pour tout n assez grand

Er|Xn |1t|Xn ´X|ąεu s ď ε .

Par ailleurs, l’uniforme continuité de l’intégrale assure que pour tout n assez grand

Er|X|1t|Xn ´X|ąεu s ď ε .

l
On conclut avec un résultat d’uniforme intégrabilité qui sera utilisé à plusieurs reprises dans le
cours.
Proposition B.7
Soit X une variable aléatoire intégrable. Soit pFi qiPI une collection de sous-tribus de F et soit
Xi :“ ErX | Fi s pour tout i P I. Alors la famille pXi , i P Iq est uniformément intégrable.

Démonstration Par l’inégalité de Jensen pour l’espérance conditionnelle

|Xi | ď Er|X| | Fi s ,

83
Université Paris Cité
Probabilités

et ainsi
sup Er|Xi |s ď sup ErEr|X| | Fi ss “ Er|X|s ă 8 .
i i

Ainsi pXi , i P Iq est bornée dans L1 . Par ailleurs l’événement t|Xi | ą au est Fi mesurable et ainsi

Er|Xi |1t|Xi |ąau s “ Er|ErX | Fi s|1t|Xi |ąau s


“ Er|ErX1t|Xi |ąau | Fi s|s
ď ErEr|X|1t|Xi |ąau | Fi ss
ď Er|X|1t|Xi |ąau s .

L’uniforme continuité de l’intégrale assure que pour tout ε ą 0 il existe δ ą 0 tel que

PpAq ă δ ñ Er|X|1A s ă ε .

Comme
1 1
sup Pp|Xi | ą aq ď sup Er|Xi |s ď Er|X|s .
i a i a
Il existe a ą 0 tel que
sup Pp|Xi | ą aq ă δ ,
i
et ainsi
sup Er|Xi |1t|Xi |ąau s ď ε .
i

On en déduit l’u.i. de pXi , i P Iq.


l
Par exemple, soit X une variable aléatoire intégrable et pFi q une filtration. Alors, la famille tErX |
FT s : T est un temps d’arrêtu est uniformément intégrable.

84
Université Paris Cité
Annexe C

Martingales à temps discret

Soit pΩ, F, pFn qnPN , Pq un espace de probabilité filtré, c’est-à-dire, un espace de probabilité pΩ, F, Pq
muni d’une collection pFn qnPN de sous-tribus de F satisfaisant

F0 Ă F1 Ă . . . .

Une telle collection est appelée filtration.


Définition C.1
Soit M “ pMn qnPN une collection de variables aléatoires définies sur pΩ, F, Pq et à valeurs réelles.
On dit que M est une martingale (resp. sur-martingale, resp. sous-martingale) si :
1. M est adapté à la filtration pFn qn , c’est-à-dire, pour tout n P N, Mn est Fn -mesurable,
2. pour tout n P N, Mn est intégrable,
3. pour tout n P N, ErMn`1 | Fn s “ Mn p.s. (resp. ErMn`1 | Fn s ď Mn p.s., resp. ErMn`1 |
Fn s ě Mn p.s.).

Quelques exemples : la marche aléatoire simple est une martingale ; la marche aléatoire biaisée
(proba p d’augmenter de 1 et 1 ´ p de diminuer de 1) est une sous-martingale lorsque p ě 1{2
et une sur-martingale lorsque p ď 1{2 ; pour toute collection de variables aléatoires indépendantes
intégrables pXk qkě0 le processus Mn “ X0 ` . . . ` Xn est une martingale dans la filtration Fn :“
σpX0 , . . . , Xn q pour peu que les pXk qkě0 soient d’espérance nulle.
Commençons par rappeler quelques propriétés simples.
Lemme C.2
Soient M une martingale (resp. une sous-martingale) et f : R Ñ R convexe (resp. convexe crois-
sante). On suppose que pour tout n P N, f pMn q est intégrable. Alors f pM q est une sous-martingale.

Démonstration Il suffit d’appliquer l’inégalité de Jensen dans l’espérance conditionnelle. l


On rappelle qu’une variable aléatoire T : Ω Ñ N Y t`8u est un temps d’arrêt si pour tout n P N,
tT ď nu P Fn . On notera que si T est un temps d’arrêt, alors tT ą nu “ tT ď nuA P Fn et
tT “ nu “ tT ď nu X tT ď n ´ 1uA P Fn .
Lemme C.3
Soient M une martingale (resp. sous-martingale, resp. sur-martingale) et T un temps d’arrêt. On
pose MnT :“ MT ^n pour tout n P N. Alors M T est une martingale (resp. sous-martingale, resp. sur-

85
Probabilités

martingale).

Démonstration Tout d’abord |MnT | ď |M0 | ` . . . ` |Mn | et ainsi MnT est intégrable. Par ailleurs,
chaque variable Mk 1T “k est Fk -mesurable et ainsi la somme
n
ÿ
MnT “ Mk 1T “k ` Mn 1T ąn ,
k“0

est Fn -mesurable. Enfin


n
ÿ
T
ErMn`1 | Fn s “ ErMk 1T “k | Fn s ` ErMn`1 1T ąn | Fn s
k“0
ÿn
“ Mk 1T “k ` 1T ąn ErMn`1 | Fn s
k“0
ÿn
“ Mk 1T “k ` Mn 1T ąn
k“0
“ MnT .

l
Les martingales apparaissent dans de nombreux contextes, il est donc utile d’établir des résultats
généraux les concernant. Nous allons aborder trois thèmes :
1. les théorèmes d’arrêt, qui permettent d’évaluer ErMT s où T est un temps d’arrêt,
2. les inégalités maximales, qui fournissent des bornes sur la queue de probabilité du supremum
sup0ďkďn Mn d’une martingale (resp. sur-martingale, resp. sous-martingale),
3. les théorèmes de convergence, qui fournissent des informations sur le comportement asymp-
totique d’une martingale (resp. sur-martingale, resp. sous-martingale).

1 Théorème d’arrêt borné


Etant donné un temps d’arrêt T , on introduit la tribu du passé avant T :

FT :“ tA P F : A X tT ď nu P Fn , @n P Nu .

On peut vérifier que A P FT si et seulement si A s’écrit


ď´ ¯
A“ Bn X tT “ nu ,
n

où Bn P Fn . Cela justifie l’appellation “tribu du passé” car les événements ne peuvent pas s’appuyer
sur une information postérieure à T .
Théorème C.4 (Théorème d’arrêt borné)
Soit M une martingale (resp. une sous-martingale, resp. une sur-martingale). Soient S ď T deux
temps d’arrêt bornés, c’est-à-dire, tels qu’il existe m ě 0 tel que 0 ď S ď T ď m p.s. Alors MS , MT

86
Université Paris Cité
Probabilités

sont intégrables et presque sûrement

ErMT | FS s “ MS , resp. ě MS , resp. ď MS .

Démonstration On a |MT | ď |M0 | ` . . . ` |Mm | p.s., et ainsi MT est intégrable. De même pour
MS . Par ailleurs pour tout A P FS
m
ÿ
ErMT 1A s “ ErMT ^m 1A s “ ErMT ^m 1AXtS“ku s .
k“0

Or pMT ^n , n P Nq est une martingale et A X tS “ ku est Fk mesurable de sorte que

ErMT ^m 1AXtS“ku s “ ErMT ^k 1AXtS“ku s .

Ainsi
m
ÿ m
ÿ
ErMT 1A s “ ErMT ^k 1AXtS“ku s “ ErMS 1AXtS“ku s “ ErMS 1A s .
k“0 k“0

l
Nous verrons plus loin des conditions sur la martingale M assurant que cette égalité reste vraie
pour tous temps d’arrêt S ď T .

2 Inégalités maximales
Proposition C.5
— Si M est une sous-martingale alors pour tout a ą 0

aPp sup Mk ą aq ď ErMn 1sup0ďkďn Mk ąa s ď ErMn` s ,


0ďkďn

— Si M est une sur-martingale alors pour tout a ą 0

aPp sup Mk ą aq ď ErM0 s ` ErMn´ s .


0ďkďn

Démonstration On fixe n P N et l’on note T :“ inftk P N : Mk ą au ^ n. On note que l’on a


tsup0ďkďn Mk ď au Ă tT “ nu et tsup0ďkďn Mk ą au “ tMT ą au. On calcule alors

ErMT s “ ErMT 1sup0ďkďn Mk ąa s`ErMT 1sup0ďkďn Mk ďa s ě aPp sup Mk ą aq`ErMn 1sup0ďkďn Mk ďa s .


0ďkďn

— Si M est une sous-martingale alors le théorème d’arrêt borné appliqué aux temps d’arrêt
T ď n assure que

ErMn s ě ErMT s ě aPp sup Mk ą aq ` ErMn 1sup0ďkďn Mk ďa s ,


0ďkďn

et ainsi
aPp sup Mk ą aq ď ErMn 1sup0ďkďn Mk ąa s ď ErMn` s .
0ďkďn

87
Université Paris Cité
Probabilités

— Si M est une sur-martingale alors le théorème d’arrêt borné appliqué aux temps d’arrêt 0 ď T
assure que
ErM0 s ě ErMT s ě aPp sup Mk ą aq ` ErMn 1sup0ďkďn Mk ďa s ,
0ďkďn

et ainsi

aPp sup Mk ą aq ď ErM0 s ´ ErMn 1sup0ďkďn Mk ďa s ď ErM0 s ` ErMn´ s .


0ďkďn

Proposition C.6 (Inégalité maximale de Doob)


Soit M une martingale. Posons Mn˚ :“ sup0ďkďn |Mk | pour tout n P N. Pour tout p ą 1 et tout
nPN ´ p ¯p
ErpMn˚ qp s ď Er|Mn |p s .
p´1

Démonstration On va prouver une propriété plus générale. Soit X une sous-martingale positive
et soit X̃n :“ sup0ďkďn Xk . Pour tout p ą 1 et tout n P N
´ p ¯p
ErpX̃n qp s ď ErXnp s .
p´1

Une fois cette propriété établie, il suffit de prendre Xn “ |Mn | pour déduire le résultat.
On peut supposer que ErXnp s ă 8 car sinon il n’y a rien à montrer. Comme x ÞÑ xp est convexe
croissante sur R` , X p est toujours une sous-martingale positive et on en déduit que ErXkp s ă 8
pour tout 0 ď k ď n, puis que pour une constante Cp ą 0
´ ¯
ErpX̃n qp s ď ErpX0 ` X1 ` . . . ` Xn qp s ď Cp ErX0p s ` . . . ErXnp s ă 8 .

L’inégalité maximale précédemment prouvée montre que

aPp sup Xk ą aq ď ErXn 1sup0ďkďn Xk ąa s .


0ďkďn

En multipliant chaque membre de cette inégalité par ap´2 et en intégrant par rapport à la mesure
de Lebesgue sur r0, 8r on obtient
ż8
1
ap´1 Pp sup Xk ą aqda “ ErpX̃n qp s ,
0 0ďkďn p

ainsi que
ż8
1 1 p´1
ap´2 ErXn 1sup0ďkďn Xk ąa sda “ ErXn pX̃n qp´1 s ď ErpXn qp s1{p ErpX̃n qp s p .
0 p´1 p´1

Ainsi
1 1 p´1
ErpX̃n qp s ď ErpXn qp s1{p ErpX̃n qp s p ,
p p´1
et l’inégalité voulue en découle. l

88
Université Paris Cité
Probabilités

3 Convergence de martingales
La preuve du résultat suivant est assez longue, nous ne la rappellerons pas et nous renvoyons
vers [LG06, Th 12.3.3].
Théorème C.7
Soit M une martingale (resp. sous-martingale, resp. sur-martingale) bornée dans L1 , c’est-à-dire,
telle que supnPN Er|Mn |s ă 8. Alors Mn converge presque sûrement vers une variable aléatoire
intégrable M8 .

On notera qu’il suffit de prouver le résultat pour une sous-martingale : en effet, si M est une sur-
martingale bornée dans L1 alors ´M est une sous-martingale bornée dans L1 .

Il se trouve qu’en général cette convergence n’a pas lieu dans L1 . Considérons l’exemple suivant. Soit
S la marche aléatoire simple issue de 1 et T :“ inftn P N : Sn “ 0u son premier temps d’atteinte de
0. On notera que T ă 8 presque sûrement mais que T n’est pas borné. Par un résultat précédent,
le processus Mn “ ST ^n est une martingale et l’on a

ErMn s “ ErM0 s “ 1 .

Etant positive, la martingale arrêtée M est alors bornée dans L1 . On en déduit qu’elle converge
p.s. vers une variable aléatoire intégrable M8 . Or pour tout k P N et pour tout n ě k

Mn 1T “k “ ST ^n 1T “k “ 0 .

Ainsi M8 “ 0 sur l’événement tT “ ku, et comme T ă 8 p.s., on en déduit que M8 “ 0 p.s.


Si Mn convergeait vers M8 dans L1 alors 1 “ ErMn s Ñ ErM8 s “ 0.

4 Martingales fermées
L’objectif de cette section est double. Tout d’abord, on souhaiterait trouver des conditions sur une
martingale sous lesquelles le théorème d’arrêt est encore vrai pour des temps d’arrêt quelconques
(pas forcément bornés). Par ailleurs, on souhaiterait trouver des conditiones sous lesquelles la
convergence p.s. du théorème précédent a également lieu dans L1 . Il se trouve que dans les deux
cas, la notion de martingale fermée joue un rôle prépondérant.
Définition C.8
On dit qu’une martingale M est fermée s’il existe une v.a. X P L1 telle que pour tout n P N

Mn “ ErX | Fn s .

Théorème C.9
Il y a équivalence entre :
(i) M est fermée
(ii) M est uniformément intégrable.
(iii) M converge p.s. et dans L1 vers une variable aléatoire M8 intégrable.
Si l’une des trois conditions est vérifiée, alors nécessairement M est fermée par sa limite M8 .

89
Université Paris Cité
Probabilités

On notera que la condition de martingale fermée est nécessaire et suffisante pour que la convergence
p.s. du théorème vu précédemment soit renforcée en une convergence L1 !
Démonstration (i) ñ (ii). C’est une conséquence de la Proposition B.7.
(ii) ñ (iii). Etant u.i., la suite pMn , n P Nq est bornée dans L1 . Comme c’est en outre une martingale,
elle converge p.s. vers une variable aléatoire intégrable M8 . Le théorème de convergence dominée
optimal, Théorème B.6, montre alors que Mn converge aussi dans L1 vers M8 .
(iii) ñ (i). Pour tout A P Fn , on a

ErMn 1A s “ ErMn`k 1A s .

Or Mn`k Ñ M8 dans L1 quand k Ñ 8. Ainsi

ErMn`k 1A s Ñ ErM8 1A s ,

et l’on en déduit que


ErMn 1A s “ ErM8 1A s .
On a donc montré que ErM8 | Fn s “ Mn p.s., pour tout n P N. l
Soit M une martingale fermée. On vient de voir qu’il existe alors une v.a. M8 telle que p.s.
Mn Ñ M8 . Ainsi pour tout temps T , on peut définir

MT pωq “ MT pωq pωq .

(En particulier, sur l’événement tT “ 8u cette définition fait bien sens).


Théorème C.10
Soit M une martingale fermée. Pour tout temps d’arrêt T on a presque sûrement

MT “ ErM8 | FT s .

Par ailleurs pour tous temps d’arrêt S ď T on a presque sûrement

MS “ ErMT | FS s .

Démonstration La deuxième propriété est une conséquence de la première. En effet

ErMT | FS s “ ErErM8 | FT s | FS s “ ErM8 | FS s “ MS .

La première propriété se prouve comme suit. Supposons que pour tout n P N Y t8u

ErM8 | FT s1tT “nu “ ErM8 | Fn s1tT “nu . (C.1)

Alors p.s.
ErM8 | FT s1tT “nu “ ErM8 | Fn s1tT “nu “ Mn 1tT “nu “ MT 1tT “nu ,
et comme cela est vrai pour tout n P N Y t8u, on en déduit que MT “ ErM8 | FT s.
Il nous faut donc prouver l’identité ci-dessus. Pour cela, on commence par prouver que le produit
d’une v.a. X FT mesurable par 1tT “nu est Fn mesurable. En effet pour tout Borélien B ne contenant
pas 0, du fait que tX P Bu P FT on a

tX1tT “nu P Bu “ tX P Bu X tT “ nu P Fn .

90
Université Paris Cité
Probabilités

Par ailleurs pour tout Borélien B contenant 0 on a


´ ¯
tX1tT “nu P Bu “ tT ‰ nu Y tX P B A u X tT “ nu ,

qui est également Fn mesurable.


Les deux membres de (C.1) sont donc Fn mesurables. Nous allons montrer que leurs espérances
contre 1A coı̈ncident, pour tout A P Fn . Commençons par observer que A X tT “ nu est FT
mesurable : en effet, si k ă n alors A X tT “ nu X tT ď ku “ H et si k ě n, A X tT “ nu X tT ď
ku “ A X tT “ nu. Ainsi

ErErM8 | FT s1AXtT “nu s “ ErErM8 1AXtT “nu | FT ss


“ ErM8 1AXtT “nu s
“ ErErM8 1AXtT “nu | Fn ss
“ ErErM8 | Fn s1AXtT “nu s .

91
Université Paris Cité
Probabilités

92
Université Paris Cité
Bibliographie

[cn11] E. Çınlar. Probability and stochastics, vol. 261 of Graduate Texts in Mathematics.
Springer, New York, 2011, xiv+557. doi:10.1007/978-0-387-87859-1.
[ELVE19] W. E, T. Li, and E. Vanden-Eijnden. Applied stochastic analysis, vol. 199 of Graduate
Studies in Mathematics. American Mathematical Society, Providence, RI, 2019, xxi+305.
doi:10.1090/gsm/199.
[KS91] I. Karatzas and S. E. Shreve. Brownian motion and stochastic calculus, vol. 113 of
Graduate Texts in Mathematics. Springer-Verlag, New York, second ed., 1991, xxiv+470.
doi:10.1007/978-1-4612-0949-2.
[LG06] J.-F. Le Gall. Intégration, probabilités et processus aléatoires, 2006. URL https:
//www.imo.universite-paris-saclay.fr/~jean-francois.le-gall/IPPA2.pdf.
[LG13] J.-F. Le Gall. Mouvement brownien, martingales et calcul stochastique, vol. 71 of
Mathématiques & Applications (Berlin) [Mathematics & Applications]. Springer, Hei-
delberg, 2013, viii+176. doi:10.1007/978-3-642-31898-6.
[RY99] D. Revuz and M. Yor. Continuous martingales and Brownian motion, vol.
293 of Grundlehren der mathematischen Wissenschaften [Fundamental Principles
of Mathematical Sciences]. Springer-Verlag, Berlin, third ed., 1999, xiv+602.
doi:10.1007/978-3-662-06400-9.
[Sal22] J. Salez. Introduction to stochastic calculus, 2022. URL https://www.ceremade.
dauphine.fr/~salez/stoc.pdf.

93

Vous aimerez peut-être aussi